Hôm 6/4, Trung tâm Khiếu nại Tội phạm Internet (IC3) thuộc Cục Điều tra Liên bang Mỹ (FBI) đã công bố Báo cáo Tội phạm Internet thường niên.

Báo cáo ghi nhận mức tăng 26% về thiệt hại do tội phạm mạng từ năm 2024 đến năm 2025, với tổng số tiền bị đánh cắp lên tới 20,88 tỷ USD trong năm 2025.

Dựa trên hơn 1 triệu khiếu nại, báo cáo chỉ ra rằng tội phạm mạng đang gia tăng với việc các tác nhân đe dọa duy trì các chiến dịch có mục tiêu và được phối hợp chặt chẽ.

Gian lận liên quan đến đầu tư và xâm phạm email doanh nghiệp (BEC) là hai trong số những mối đe dọa lớn nhất năm ngoái, chiếm phần lớn thiệt hại.

Đồng thời, FBI phát hiện nhiều tin tặc đang sử dụng trí tuệ nhân tạo (AI) để nhắm mục tiêu vào các nạn nhân, tiếp nhận hơn 22.000 khiếu nại liên quan đến danh mục này với mức thiệt hại vượt quá 893 triệu USD.

Khi các công cụ AI ngày càng tiên tiến, mức độ rủi ro mà các doanh nghiệp phải đối mặt cũng tăng theo.

Giờ đây, các nhóm bảo mật cần chuẩn bị để bảo vệ hệ thống trong một thế giới nơi tin tặc có thể tạo ra các vụ lừa đảo thuyết phục ở quy mô lớn chỉ bằng vài câu lệnh.

Sự thay đổi của tội phạm mạng dưới tác động của AI

Đối với tội phạm mạng, AI mang đến cơ hội phát triển các chiêu trò lừa đảo với tốc độ nhanh chưa từng thấy. Tiến sĩ Chris Pierson, người sáng lập kiêm CEO BlackCloak và là cựu quan chức Bộ An ninh Nội địa Mỹ, cho biết trong một thông cáo báo chí: "Báo cáo của IC3 cảnh báo chúng ta về một thực tế phổ biến không thể bỏ qua: những kẻ tấn công có động cơ rõ ràng biết chính xác lỗ hổng bảo mật của các doanh nghiệp và văn phòng gia đình và đang tích cực khai thác chúng với tốc độ chóng mặt".

Ông Pierson nhấn mạnh: "Sự gia tăng của tội phạm mạng và lừa đảo bằng AI, giả mạo bằng deepfake, tấn công lừa đảo (phishing), mã độc tống tiền (ransomware) và đánh cắp danh tính cho thấy hậu quả của một môi trường rủi ro kỹ thuật số đang không ngừng lớn mạnh".

fd954jba.png
Theo báo cáo của FBI, tổng thiệt hại do tội phạm mạng gây ra tại Mỹ năm 2025 lên tới gần 21 tỷ USD. Ảnh: NurPhoto

Một trong những thay đổi lớn nhất là AI đang khiến các trò lừa đảo truyền thống trở nên đáng tin hơn. Báo cáo lưu ý rằng AI cho phép tạo ra nội dung tổng hợp, chẳng hạn hồ sơ mạng xã hội và các cuộc trò chuyện cá nhân hóa.

Những tài liệu này có thể được sử dụng để dàn dựng các vụ lừa đảo tinh vi mà nạn nhân rất khó phát hiện.

Tội phạm mạng đang dùng AI để tiếp tay cho hàng loạt mối đe dọa, bao gồm các nỗ lực xâm phạm email doanh nghiệp (BEC), lừa đảo chiếm đoạt tài sản, lừa đảo tình cảm, lừa đảo việc làm và lừa đảo đầu tư.

Chỉ riêng trong năm 2025, các doanh nghiệp đã báo cáo thiệt hại hơn 30 triệu USD do các vụ lừa đảo BEC có liên quan đến AI.

Trong một cuộc tấn công BEC, tin tặc có thể sử dụng chatbot như ChatGPT để viết email mạo danh CEO của một công ty nhằm lừa người nhận nhấp vào liên kết độc hại.

Tương tự, tin tặc có thể sử dụng công nghệ nhân bản giọng nói để gọi điện cho các nhân viên mất cảnh giác và gây áp lực buộc họ phải chuyển tiền.

Lừa đảo việc làm cũng cực kỳ phổ biến, với các nạn nhân báo cáo thiệt hại gần 13 triệu USD từ các vụ lừa đảo có sự can thiệp của AI.

Trong các cuộc tấn công này, tin tặc sử dụng kỹ thuật giả mạo giọng nói và deepfake để che giấu danh tính đủ lâu nhằm giành quyền truy cập vào mạng máy tính riêng của người xin việc.

Những trò lừa đảo này đạt hiệu quả cao vì chúng khó bị phát hiện và chủ yếu dựa vào việc khai thác lỗi của con người. Ví dụ, một nỗ lực lừa đảo BEC phụ thuộc vào việc nạn nhân vô tình nhấp vào liên kết độc hại dẫn đến trang web giả mạo.

Điều này có nghĩa là bất kỳ người dùng nào không kiểm tra kỹ email để tìm đường dẫn URL giả mạo đều có thể trở thành nạn nhân.

Tương tự, người dùng rất khó nhận biết mình đang tương tác với một deepfake trong cuộc gọi điện thoại hoặc phỏng vấn qua video.

Tương lai của tác nhân AI và các cuộc tấn công tự động

Vượt ra ngoài những trò lừa đảo đơn giản, nhiều nhóm tin tặc đang chuyển sang sử dụng tác nhân AI để xâm nhập các hệ thống giá trị cao.

Anthropic trước đây đã báo cáo rằng các hệ thống AI tự chủ đã bị vũ khí hóa vào năm ngoái để thực hiện các cuộc tấn công mạng, trong đó Claude Code được sử dụng để tiến hành chiến dịch tống tiền dữ liệu trên nhiều mục tiêu quốc tế, cũng như tạo ra phần mềm độc hại không cần viết mã (no-code malware).

Với sự phổ biến ngày càng tăng của các tác nhân AI như OpenClaw, nhiều khả năng các cuộc tấn công tự động sẽ xuất hiện thường xuyên hơn trong tương lai.

Bà Julie Davila, Phó chủ tịch phụ trách bảo mật sản phẩm tại GitLab, chia sẻ qua email: "Ngay lúc này, những kẻ tấn công đang nắm lợi thế. Các tác nhân xấu đã liên kết thành công các tác nhân AI với nhau để tự động tiến hành trinh sát, thu thập thông tin đăng nhập và xâm nhập mạng lưới. Chúng ta cũng chứng kiến những tin tặc kỹ năng kém sử dụng AI để thực hiện các cuộc tấn công tinh vi hơn. Giờ đây, chúng dùng tác nhân AI để thu thập nội dung trên web, giúp việc hiểu và xâm nhập cơ sở hạ tầng hiện đại trở nên dễ dàng hơn".

Bà Davila cho biết thêm: "Đối với phe phòng thủ, điều này sẽ mang đến một làn sóng rủi ro bảo mật khổng lồ khi các tác nhân AI của đối thủ hạ thấp rào cản để thực hiện các cuộc tấn công mã độc ngày càng phức tạp. Nói cách khác, tác nhân AI giúp việc khai thác bất kỳ lỗ hổng nào trong hệ thống trở nên dễ dàng hơn nhiều".

Bà lưu ý nhiều cuộc tấn công do tác nhân AI điều khiển này ban đầu sẽ nhắm vào các lỗ hổng đã biết đang tồn tại trong cơ sở hạ tầng kỹ thuật số.

Tin tặc đang học cách sử dụng công nghệ này và khi có nhiều kinh nghiệm hơn, chúng sẽ có khả năng xác định và khai thác các lỗ hổng khó phát hiện hơn.

Để tự bảo vệ, các công ty không chỉ cần đẩy mạnh đào tạo nâng cao nhận thức bảo mật, ban hành hướng dẫn về cách phát hiện nỗ lực BEC và tấn công lừa đảo, mà còn phải quay lại với các nguyên tắc cơ bản: thường xuyên vá lỗi phần mềm và giảm thiểu lỗ hổng bảo mật trên toàn hệ thống.

(Theo Forbes)