Sự kiện sắp diễn ra

VIETNAM ICTCOMM 2024

Hậu Ransomware: Chạm trán AI-Powered Cyber Attacks || Khi AI đánh lừa AI

Có vẻ như một làn sóng đe dọa mới do trí tuệ nhân tạo (AI) dẫn dắt đang dần trỗi dậy. Những AI-Powered Cyber Attacks như Phishing viết bằng AI, deepfake giả mạo tinh vi, prompt injection chèn lệnh độc, malware tự học, social engineering nâng cao và khai thác lỗi cấu hình ở quy mô lớn… đang buộc giới lãnh đạo công nghệ phải nhìn lại toàn bộ chiến lược bảo mật. Liệu các biện pháp hiện tại còn đủ, hay đã đến lúc thiết kế lại hạ tầng với một kiến trúc bảo mật AI-native?

Làn sóng tấn công AI thế hệ mới

Nếu ransomware từng là một cú sốc đầu tiên với hạ tầng bảo mật doanh nghiệp, thì các cuộc tấn công do có sự hỗ trợ của AI chính là làn sóng kế tiếp, thông minh hơn, nhanh hơn, và gần như vô hình. Đáng lo ngại hơn, AI không chỉ giúp tăng quy mô tấn công, mà còn thay đổi bản chất mối đe dọa: khó phát hiện, khó truy vết, và đặc biệt dễ đánh lừa con người lẫn hệ thống.

Hãy cùng nhìn rõ hơn vào các hình thức tấn công thế hệ mới mà AI đang tạo ra:

 

  • Phishing do AI tạo ra: AI giúp tạo ra email lừa đảo cực kỳ trôi chảy, tự nhiên như người thật viết. Không còn lỗi ngữ pháp, không còn những tín hiệu khả nghi – thay vào đó là nội dung tùy biến thông minh, đánh trúng tâm lý người nhận. Chỉ trong hai năm, số lượng phishing mail toàn cầu đã tăng đến 1.000%. Những chiến dịch spear-phishing nhắm vào lãnh đạo cấp cao giờ đây còn dựa trên thông tin thu thập từ mạng xã hội, khiến tỷ lệ mắc bẫy tăng mạnh.
  • Deepfake (giả mạo hình ảnh/ giọng nói): Công nghệ deepfake giờ đây có thể giả giọng hoặc gương mặt lãnh đạo với độ giống gần như tuyệt đối. Một vụ việc điển hình: CEO một công ty bị deepfake giả mạo trong cuộc họp video, khiến nhân viên chuyển nhầm 25 triệu USD chỉ vì tưởng đó là chỉ đạo thật. Các lớp xác thực truyền thống như “gọi để xác minh” giờ đây trở nên dễ bị thao túng hơn bao giờ hết.
  • Prompt Injection (Tiêm nhiễm lệnh độc vào AI): Khi doanh nghiệp tích hợp các mô hình GenAI như ChatGPT vào quy trình làm việc, một kiểu tấn công mới đã xuất hiện. Tin tặc có thể cung cấp những đầu vào được thiết kế đặc biệt để đánh lừa mô hình AI, khiến nó bỏ qua các hướng dẫn an toàn và thực thi các lệnh nguy hiểm. Ví dụ, kẻ tấn công có thể buộc chatbot AI tiết lộ thông tin nhạy cảm hoặc thực hiện hành vi không được phép. Điều đáng lo ngại là hiện chưa có cách nào hoàn toàn ngăn chặn lỗ hổng prompt injection nên việc nhận biết “mệnh lệnh độc” ẩn trong ngôn ngữ tự nhiên là cực kỳ khó khăn. Trong bối cảnh nhiều ứng dụng doanh nghiệp dựa vào AI (từ trợ lý ảo đến tự động hóa quy trình), prompt injection trở thành gót chân Achilles mới nếu không được quan tâm đúng mức.
  • Mã độc tự động và khai thác lỗ hổng: Trí tuệ nhân tạo đang trở thành trợ thủ đắc lực cho hacker trong việc tạo malware. Tội phạm mạng có thể dùng GenAI để tự động sinh ra các biến thể mã độc mới, tăng tốc độ và số lượng tấn công lên mức chưa từng có. Thậm chí, AI có thể tự quét tìm điểm yếu trong hệ thống mục tiêu – từ lỗ hổng phần mềm cho đến cấu hình sai, rồi tự động tạo mã khai thác tương ứng. Nghĩa là nhiều bước tấn công phức tạp trước đây đòi hỏi hacker lành nghề thì nay có thể được AI thực hiện gần như tức thời ở quy mô lớn. Chẳng hạn, một dòng mã VBScript được phát hiện gần đây hoàn toàn do AI viết ra để cài mã độc (với cấu trúc và chú thích rất “sạch” – điều hiếm khi thấy ở malware do người viết). Sự xuất hiện của những “AI coder” đứng sau hậu trường báo hiệu thời kỳ mã độc có thể tiến hóa và thích nghi nhanh hơn khả năng cập nhật của các hệ thống phòng thủ truyền thống.
  • Khai thác lỗi cấu hình (Misconfiguration): Không cần đến lỗ hổng zero-day, nhiều cuộc tấn công nhắm vào sai sót do con người trong cấu hình hệ thống – như bucket lưu trữ để công khai, khóa API không được bảo vệ, hay cài đặt bảo mật mặc định yếu. Theo thống kê, 23% sự cố cloud xuất phát từ lỗi cấu hình. Với công cụ AI, kẻ tấn công có thể tự động quét hàng triệu hệ thống, tìm kiếm những “cánh cửa mở” chỉ trong vài phút. AI khiến rủi ro từ lỗi sơ suất của con người trở nên nghiêm trọng và khó kiểm soát hơn bao giờ hết.

 

 

Article content

Vấn đề nằm ở chỗ: Những hình thức tấn công do AI dẫn dắt không chỉ tinh vi, mà còn khó đoán, liên tục tiến hóa và gần như không để lại dấu vết rõ ràng. Khi đối mặt với một thế lực tấn công không mệt mỏi, không lặp lại và không đi theo bất kỳ quy tắc cũ nào, thì hệ thống phòng thủ cũng không thể tiếp tục được xây dựng theo cách cũ.

Vì sao phòng thủ hiện tại không còn phù hợp?

Nhìn vào bức tranh trên, dễ thấy chiến lược an ninh mạng truyền thống đang bộc lộ nhiều hạn chế trước làn sóng tấn công AI. Nhiều biện pháp phòng thủ hiện nay vốn được xây dựng để đối phó với tin tặc “bằng xương bằng thịt” – những đối thủ suy nghĩ và hành động theo những khuôn mẫu con người. Giờ đây, khi đối thủ có thể là một “AI đa nhiệm” tấn công 24/7, các phòng tuyến cũ bắt đầu lung lay:

 

 

  • Tư duy bị động, phản ứng sau sự cố: Doanh nghiệp lâu nay quen với cách tiếp cận phát hiện mối đe dọa sau khi chúng xảy ra (reactive). Ví dụ, chờ thấy dấu hiệu bất thường hoặc dựa vào chữ ký malware đã biết rồi mới phản ứng. Cách làm này hoàn toàn không theo kịp tốc độ AI. Một chiến dịch phishing do AI điều khiển có thể gửi đi hàng trăm nghìn email tùy biến chỉ trong vài giờ – nếu đợi phát hiện xong mới chặn thì thiệt hại đã xảy ra. Chính vì thế, ngành an ninh đang kêu gọi chuyển dịch “từ bị động sang chủ động”, kết hợp AI và khả năng phục hồi để phát hiện sớm và ngăn chặn từ xa.
  • Hệ thống phòng thủ cứng nhắc, thiếu thông minh: Các giải pháp bảo mật truyền thống (từ tường lửa, IDS/ IPS đến antivirus) hoạt động dựa trên tập luật và mẫu nhận diện cố định. Chúng không được thiết kế để đối phó với những biến thể tấn công linh hoạt do AI tạo ra. Ví dụ, phần mềm diệt virus dễ dàng bị qua mặt bởi AI-malware tùy biến – vốn có thể tự chỉnh sửa để né tránh các mẫu nhận diện quen thuộc. Tương tự, bộ lọc spam/ email cũng gặp khó khăn trước email lừa đảo do AI viết quá tự nhiên. Khi AI giúp kẻ tấn công “đổi bài” liên tục, các lá chắn tĩnh sẽ luôn chậm một bước.
  • Yếu tố con người bị khai thác triệt để: Nhiều chiến lược phòng thủ hiện tại dựa vào việc đào tạo nhân viên nhận biết mối nguy (như nhận diện email lừa đảo, xác minh danh tính người gọi điện). Tuy nhiên, AI đang làm mờ ranh giới thật-giả, khiến con người khó lòng phân biệt. Ví dụ, trước đây phishing email thường lộ lỗi chính tả, còn cuộc gọi lừa đảo thường có giọng điệu giả tạo. Giờ đây, thư do AI viết gần như hoàn hảo, còn giọng nói deepfake nghe y như sếp mình. Điều này đồng nghĩa các bài tập nhận biết phishing cũ và quy trình xác thực một yếu tố (ví dụ chỉ qua giọng nói) không còn đủ. Thực tế, lãnh đạo WPP Group đã phải cảnh báo nhân viên rằng “đừng tin ảnh đại diện hay giọng nói, vì có thể không phải tôi đâu”. Chiến lược an ninh hiệu quả phải tính đến kịch bản con người sẽ bị đánh lừa và cần cơ chế kiểm chứng độc lập khác (như xác thực nhiều lớp, kiểm tra chéo thông tin).
  • Tấn công diện rộng ngoài tầm kiểm soát của đội ngũ an ninh: Sự phổ cập của điện toán đám mây, làm việc từ xa và nay là tích hợp AI vào mọi quy trình khiến phạm vi bề mặt bị tấn công của doanh nghiệp lớn hơn bao giờ hết. Các đội ngũ bảo mật truyền thống vốn đã quá tải, nay càng khó bao quát hết hệ thống để phát hiện kịp thời cấu hình sai hay dấu hiệu xâm nhập. AI lại đứng về phe tấn công, với khả năng tự động do thám, tìm kiếm lỗ hổng 24/7. Trong cuộc chơi "mèo vờn chuột" này, nếu doanh nghiệp không ứng dụng các giải pháp tương xứng để phòng thủ thì gần như chắc chắn sẽ bị bỏ lại phía sau. Nói cách khác, việc “lấy con người chống lại máy” là chiến lược thất bại, ta cần đưa “máy” vào đội mình càng sớm càng tốt.

 

 

 

Article content

Tóm lại, những chuẩn mực bảo mật cũ đang dần đi đến giới hạn so với tốc độ phát triển vượt bậc của AI. Cách tiếp cận vá lỗi, phản ứng sau khi bị tấn công hay dựa vào con người kiểm soát thủ công không còn hiệu quả trước AI mang trong mình tốc độ và trình độ cao. Nếu coi hệ thống an ninh hiện tại như một pháo đài trung cổ, thì làn sóng tấn công AI chính là thuốc súng mới, tường thành dày đến mấy cũng có lỗ hổng nếu không được thiết kế lại cho phù hợp thời đại.

Kiến trúc bảo mật “AI-native”: Lời giải cho kỷ nguyên mới

Vậy doanh nghiệp cần làm gì để đáp trả các mối đe dọa AI? Câu trả lời nằm ở việc xây dựng một kiến trúc bảo mật “AI-native” hiểu nôm na là kiến trúc bảo mật được “sinh ra cùng AI”. Thay vì chỉ chắp vá thêm AI vào hệ thống cũ, chúng ta cần tư duy lại từ gốc: Thiết kế hạ tầng và chiến lược sao cho AI hiện diện ở mọi tầng, sẵn sàng đối phó với mọi thủ đoạn tấn công bằng AI.

Article content

Một kiến trúc bảo mật AI-native có một số đặc điểm cốt lõi:

 

 

  • Tích hợp AI từ nền tảng: Hãy hình dung an ninh mạng thế hệ mới như hệ thống miễn dịch có trí thông minh nhân tạo gắn liền trong DNA. Kiến trúc AI-native được thiết kế với AI ngay từ đầu, nhằm đạt hiệu quả phát hiện và phản ứng cao hơn hẳn so với hệ thống thuần túy do con người vận hành. Cụ thể, mọi lớp từ mạng, ứng dụng đến thiết bị đầu cuối đều có thành phần AI giám sát. Các công cụ như SIEM, tường lửa, EDR… không còn hoạt động riêng lẻ, mà liên thông dữ liệu qua một nền tảng dùng AI phân tích tập trung. (Thực tế, một số nhà cung cấp đã nói về “sức mạnh của một nền tảng duy nhất” cho bảo mật, ý tưởng ở đây là giảm thiểu silo thông tin để AI có bức tranh toàn cảnh mà phát hiện bất thường).
  • Chủ động và tự động hóa thông minh: Kiến trúc AI-native cho phép chuyển dịch sang bảo mật chủ động đúng nghĩa. Với machine learning, hệ thống có thể phát hiện bất thường (anomaly) theo thời gian thực – những dấu hiệu nhỏ nhất của một cuộc tấn công AI (ví dụ: lưu lượng mạng hơi khác thường, hành vi người dùng lệch chuẩn) sẽ được nhận diện sớm mà không cần chờ thành mẫu tấn công rõ ràng. Quan trọng hơn, kiến trúc mới có khả năng tự động phản ứng ở tốc độ máy. Thay vì chờ con người xử lý từng bước, các playbook ứng phó sự cố có thể được AI thực thi ngay: cô lập thiết bị nghi nhiễm, chặn kết nối đáng ngờ, vá tạm lỗ hổng… ở quy mô toàn hệ thống chỉ trong vài giây. Những tác vụ thường lệ và lặp lại trong vận hành SOC sẽ do AI đảm nhiệm, giúp giảm tải khối lượng công việc khổng lồ đang đè nặng lên đội ngũ bảo mật. Con người chuyển từ “lính cứu hỏa” sang vai trò giám sát chiến lược và xử lý tình huống ngoại lệ, nơi kinh nghiệm và phán đoán vẫn rất cần thiết.
  • Thích ứng linh hoạt và tự học hỏi: Thế giới AI phát triển nhanh, vì vậy kiến trúc bảo mật phải mở và linh hoạt để thích ứng. Một kiến trúc AI-native tốt cho phép thêm vào các “điểm kiểm soát” mới một cách liền mạch – ví dụ, tích hợp nhanh một module phát hiện deepfake khi loại tấn công này gia tăng, mà không phải tái cấu trúc toàn bộ hệ thống. Đồng thời, hệ thống AI cần cơ chế tự học liên tục từ các cuộc tấn công thất bại và thành công. Chẳng hạn, nếu AI phòng thủ nhận diện sai một tình huống (báo động giả hoặc bỏ lọt), kết quả phân tích của chuyên gia sẽ được đưa ngược vào hệ thống để huấn luyện mô hình cho những lần sau. Qua thời gian, AI phòng thủ ngày càng “già dặn” hơn, bắt kịp với thủ đoạn mới của AI tấn công. Sự kết hợp nhuần nhuyễn giữa trí tuệ nhân tạo và trí tuệ con người (human-AI synergy) chính là chìa khóa – AI hỗ trợ phân tích và ra quyết định, nhưng con người vẫn giữ vai trò hoạch định chiến lược và xử lý các tình huống phức tạp ngoài dự kiến.
  • Ưu tiên bảo vệ dữ liệu và tính bền bỉ (Resilience): Trong kiến trúc AI-native, người ta chấp nhận thực tế rằng sẽ có lúc hàng rào phòng thủ bị xuyên thủng. Do đó, thay vì chỉ cố ngăn chặn, kiến trúc mới cần tập trung vào khả năng chịu đựng và hồi phục khi bị tấn công. Điều này đòi hỏi một cách tiếp cận khác biệt trong quản trị dữ liệu: Dữ liệu trọng yếu phải được bảo vệ theo cách mà dù hacker có xâm nhập hệ thống thì cũng không thể xóa hay mã hóa được. Đây chính là tư duy Cyber Resilience – khả năng phục hồi sau sự cố mà nhiều hội thảo bảo mật gần đây nhấn mạnh. Cụ thể trong thực tiễn, khả năng phục hồi thể hiện qua việc doanh nghiệp duy trì các bản sao dữ liệu bất biến và quy trình khôi phục được chuẩn bị kỹ. Chúng ta sẽ bàn thêm về lớp phòng thủ dữ liệu bất biến này ở phần sau.

 

 

Tóm lại, kiến trúc bảo mật AI-native không phải là một sản phẩm hay giải pháp đơn lẻ, mà là một triết lý thiết kế hạ tầng bảo mật mới. Nó đòi hỏi doanh nghiệp tái cấu trúc từ tư duy đến công nghệ: Coi AI là thành phần cốt lõi của phòng thủ, xây dựng hệ thống linh hoạt biết tự vận hành và quan trọng nhất là lấy dữ liệu làm trung tâm của chiến lược bảo vệ. Đây không phải việc một sớm một chiều, nhưng những tổ chức tiên phong hiểu rằng đó là con đường duy nhất để sống còn trước làn sóng tấn công AI hiện nay.

Dữ liệu bất biến – Phòng tuyến cuối cùng

Sau cùng, bất kể kẻ tấn công dùng chiến thuật gì, từ ransomware truyền thống đến deepfake hay prompt injection mục tiêu cuối vẫn là phá hoại hoặc chiếm đoạt dữ liệu. Do vậy, lớp bảo vệ cuối cùng trong một kiến trúc bảo mật hiện đại phải đảm bảo: Dữ liệu cốt lõi của doanh nghiệp không thể bị chỉnh sửa hoặc hủy hoại bởi tác nhân xấu. Đó chính là vai trò của lưu trữ bất biến (immutable storage), “két sắt” dữ liệu bất khả xâm phạm, ngay cả khi mọi lớp phòng thủ khác đã thất bại.

Immutable storage hiểu đơn giản là dữ liệu được ghi vào thì không ai có thể thay đổi, xóa, hay mã hóa nó trong một khoảng thời gian nhất định. Công nghệ này thường được triển khai theo nguyên tắc WORM (Write Once, Read Many). Lợi ích đã được chứng thực qua làn sóng Ransomware vừa qua: Các bản sao lưu bất biến đóng vai trò như "gói bảo hiểm dữ liệu" đảm bảo luôn có một bản dữ liệu sạch để phục hồi, ngay cả khi hệ thống production bị mã độc mã hóa, nhờ đó doanh nghiệp luôn có một bản copy an toàn để khôi phục sau tấn công. Nhiều tổ chức đã bắt đầu áp dụng nguyên tắc 3-2-1-1-0 (3 bản sao, 2 loại phương tiện, 1 off-site, 1 bản bất biến và Zero Error) như một tiêu chuẩn vàng trong chiến lược backup hiện đại.

 

Article content

Khi mối đe dọa từ AI gia tăng, lớp dữ liệu bất biến trở thành phòng tuyến cuối cùng.Hãy tưởng tượng: Một malware AI vượt qua mọi lớp bảo mật, âm thầm chỉnh sửa số liệu tài chính hoặc logic hệ thống. Nếu không có bản sao bất biến, doanh nghiệp có thể mất hàng tuần mới phát hiện, và thiệt hại khi đó đã không thể đảo ngược. Ngược lại, với kiến trúc có lưu trữ bất biến, doanh nghiệp có thể nhanh chóng đối chiếu và khôi phục trạng thái gốc – dù là sau tấn công AI, deepfake, hay prompt injection.

Điều quan trọng là lớp phòng thủ dữ liệu cuối cùng này phải được tích hợp vào kiến trúc tổng thể chứ không tách rời. Các quy trình phản ứng sự cố cần định rõ khi nào kích hoạt khôi phục từ bản bất biến, ai chịu trách nhiệm và làm thế nào để đưa hệ thống trở lại trạng thái sạch. Bên cạnh đó, yếu tố “immutable” cũng cần mở rộng sang khía cạnh khác như log và giám sát, tức là log an ninh phải được lưu bất biến để kẻ tấn công không xóa được dấu vết. Một kiến trúc AI-native lý tưởng sẽ coi dữ liệu (và log) bất biến là một phần không thể thiếu, kết hợp với AI phát hiện sớm và tự động ứng phó, tạo thành thế trận phòng thủ nhiều lớp vững chắc.

Lưu trữ bất biến hoạt động như “phao cứu sinh” cuối cùng: Khi mọi biện pháp ngăn chặn thất bại, doanh nghiệp vẫn có thể tự tin rằng tài sản dữ liệu cốt lõi của mình không bị mất mát và có thể phục hồi đầy đủ.

Multi-User Authentication: Không tin một ai – Kể cả người có quyền cao nhất hệ thống

Chỉ cần một giọng nói bị giả mạo, một email đúng cú pháp, hoặc một cú click vội vàng toàn bộ hệ thống có thể bị thao túng từ bên trong. Khi AI có thể đóng vai bất kỳ ai, từ CISO đến admin, thì quyền lực tập trung vào một tài khoản duy nhất không còn là bảo mật, mà là rủi ro tiềm ẩn.

Để giải quyết bài toán này Wasabi đã tiên phong tích hợp một tính năng bảo mật theo chuẩn quân sự mang tên Multi-User Authentication (MUA). Đây là một trong số rất ít giải pháp lưu trữ đám mây trên thị trường tích hợp MUA ở tầng gốc, không phải vá thêm bằng công cụ bên ngoài.

Article content

Cơ chế này yêu cầu tối thiểu hai người dùng có quyền khác nhau phải cùng phê duyệt một hành động nhạy cảm, ví dụ như: xoá bucket hoặc object, tắt chế độ immutable/ compliance/ legal hold, cấp lại quyền truy cập cấp cao. Điều này tạo ra một cơ chế phân quyền độc lập, giúp vô hiệu hóa các kịch bản như:

 

 

  • Hacker chiếm được tài khoản admin → Không thể tự ý xóa backup.
  • Nhân viên nội bộ cấu kết phá hoại → Vẫn cần xác thực chéo từ một người khác.
  • Deepfake giả giọng giám đốc IT → Hệ thống vẫn yêu cầu đồng thuận từ người thứ hai.

 

 

Nói cách khác, immutable storage bảo vệ dữ liệu khỏi bị sửa đổi, còn MUA bảo vệ cơ chế kiểm soát khỏi bị chiếm đoạt.

Trong kiến trúc bảo mật AI-native, đây chính là nguyên tắc: “Không tin một ai – kể cả người trong hệ thống.” MUA là sự thể hiện rõ nét của triết lý zero trust – zero privilege escalation, khi doanh nghiệp không để bất kỳ cá nhân nào có quyền quyết định tối hậu trong những tình huống rủi ro cao.

Lời kết: Đã đến lúc tái thiết hệ thống bảo mật trong thời đại AI

AI đã thay đổi cách tấn công. Giờ là lúc chúng ta phải thay đổi cách phòng thủ

Đã đến lúc các doanh nghiệp cần định hình lại toàn bộ chiến lược phòng thủ từ kiến trúc hạ tầng, đến năng lực phản ứng, và đặc biệt là lớp dữ liệu bất biến cùng quy trình xác thực đa người dùng như những phòng tuyến cuối cùng không thể bị qua mặt.

Cảm ơn bạn đã theo dõi đến cuối bài viết, đây là phần tiếp nối của loạt phân tích về Ransomware, Kiến trúc bảo mật AI-native, và các lớp bảo vệ bền vững trong môi trường công nghệ biến động.

👉 Trong thời gian tới, team QD.TEK sẽ chia sẻ thêm các bài phân tích sâu về:

 

  • Cyber Resilience,
  • Zero Trust Architecture,
  • Và các chiến lược nâng cấp hệ thống bảo mật để trở nên AI-ready thực sự.

 

Song song đó, một cộng đồng chia sẻ kiến thức về hạ tầng, bảo mật và AI ứng dụng cũng đang được hình thành, dành cho những người đang định nghĩa lại thế chủ động trong thế giới số sẽ được ra mắt trong thời gian tới. Cùng mình và team Wasabi đón chờ nhé!

Nếu bạn thấy bài viết hữu ích, đừng ngần ngại để lại một dòng cảm nhận hoặc chia sẻ đến người đang cần. Hẹn gặp lại trong bài viết tiếp theo.

Tin tức mới nhât