Trong báo cáo mới nhất công bố, các chuyên gia từ Kaspersky nhận định sự phát triển của trí tuệ nhân tạo (AI) đang tái định hình toàn bộ cục diện an ninh mạng. Đặc biệt tại khu vực Châu Á - Thái Bình Dương (APAC), nơi được coi là dẫn dắt tốc độ phát triển công nghệ này, AI đang đóng vai trò kép: vừa là công cụ phòng thủ đắc lực, vừa là vũ khí nguy hiểm trong tay tội phạm mạng.

Châu Á - Thái Bình Dương: "Vùng trũng" thử nghiệm AI

Số liệu từ Kaspersky cho thấy APAC không còn đơn thuần là thành viên tham gia mà đã trở thành khu vực dẫn đầu về ứng dụng AI. Cụ thể, 78% chuyên gia tại đây cho biết họ sử dụng AI ít nhất một lần mỗi tuần, vượt qua mức trung bình toàn cầu là 72%.

Động lực này đến từ tầng lớp người tiêu dùng "siêu kết nối" và thế hệ trẻ am hiểu công nghệ, những người đã đưa AI vào đời sống thường nhật trước cả khi doanh nghiệp triển khai rộng rãi. Sự đầu tư mạnh mẽ và định hướng chiến lược từ các cấp lãnh đạo cũng biến nơi đây thành môi trường thử nghiệm AI sôi động nhất thế giới.

Tuy nhiên, ông Adrian Hia, Giám đốc Điều hành Kaspersky khu vực Châu Á - Thái Bình Dương cảnh báo: "Dù mang lại tiềm năng khổng lồ, sức nóng của AI cũng khiến các mối đe dọa mạng trở nên khó lường và lan rộng nhanh chóng hơn".

Kaspersky 2.JPG
AI đang đóng vai trò kép: vừa là công cụ phòng thủ đắc lực, vừa là vũ khí nguy hiểm trong tay tội phạm mạng. Ảnh: Kaspersky

Deepfake và sự mong manh giữa thật - giả

Một trong 8 dự đoán nổi bật cho năm 2026 là sự tiến hóa của công nghệ deepfake. Các chuyên gia cho rằng deepfake đang trở thành công cụ phổ biến, không chỉ giới hạn ở nhóm tội phạm công nghệ cao. Với sự hỗ trợ của các công cụ AI dễ tiếp cận, ngay cả người không có chuyên môn sâu cũng có thể tạo ra các nội dung giả mạo ở mức độ "tạm tin được" chỉ sau vài thao tác.

Chất lượng hình ảnh và video từ deepfake được dự báo sẽ ngày càng chân thực, dù âm thanh vẫn cần thời gian để hoàn thiện. Điều này dẫn đến ranh giới giữa nội dung hợp pháp và gian lận ngày càng mong manh. Khi các thương hiệu lớn cũng dùng AI trong quảng cáo, người dùng dần quen thuộc với hình ảnh nhân tạo, khiến việc phân biệt thật - giả trở nên khó khăn cho cả con người lẫn hệ thống phát hiện tự động.

Bên cạnh đó, các mô hình AI mã nguồn mở đang dần tiệm cận về chức năng so với mô hình mã nguồn đóng của doanh nghiệp. Việc thiếu các rào cản sử dụng ở mã nguồn mở làm tăng nguy cơ chúng bị lợi dụng để phục vụ các mục đích xấu.

Năm 2026, AI được dự báo sẽ tham gia vào hầu hết các giai đoạn của một cuộc tấn công mạng (kill chain), từ khâu chuẩn bị, viết mã độc, dò quét lỗ hổng cho đến triển khai tấn công. Tội phạm mạng cũng sử dụng AI để che giấu dấu vết, gây khó khăn cho công tác điều tra.

Ngược lại, ở phía phòng thủ, AI cũng thay đổi hoàn toàn cách thức vận hành của đội ngũ an ninh mạng. Các hệ thống tự vận hành có khả năng quét hạ tầng liên tục để phát hiện lỗ hổng và thu thập thông tin theo ngữ cảnh. Nhờ đó, chuyên gia bảo mật có thể chuyển từ việc tốn thời gian "tìm kiếm dữ liệu" sang tập trung "ra quyết định". Các công cụ bảo mật cũng dần chuyển sang giao diện ngôn ngữ tự nhiên, cho phép điều khiển bằng câu lệnh thay vì thao tác kỹ thuật phức tạp.

Ông Vladislav Tushkanov, Quản lý nhóm Phát triển nghiên cứu tại Kaspersky nhận định: "AI là công cụ mạnh mẽ cho cả hai phía tấn công lẫn phòng thủ. Việc quản lý, sử dụng AI một cách an toàn sẽ có ảnh hưởng lớn đến tương lai của an ninh mạng".

Trước bối cảnh này, các tổ chức tại khu vực APAC được khuyến nghị cần liên tục cập nhật phần mềm để vá các lỗ hổng, hạn chế để lộ các dịch vụ truy cập từ xa (như RDP) và triển khai các giải pháp bảo mật nâng cao để có cái nhìn toàn diện về hạ tầng công nghệ thông tin. Việc sao lưu dữ liệu thường xuyên và tách biệt khỏi mạng chính cũng là yêu cầu bắt buộc để giảm thiểu thiệt hại khi xảy ra sự cố.