Sau trào lưu deepfake, trí tuệ nhân tạo (AI) tiếp tục thể hiện độ nguy hiểm khi bị lợi dụng để làm chuyện xấu thông qua công nghệ giả giọng nói.
Wall Street Journal vừa ghi nhận trường hợp giả giọng nói để lừa đảo số tiền 243.000 USD của một công ty. Cụ thể, hồi tháng 3, các tội phạm đã sử dụng phần mềm tạo giọng nói bằng AI nhằm mạo danh ông chủ của một tập đoàn Đức.
Những kẻ lừa đảo đã hối thúc CEO phải chuyển tiền cho đối tác cung ứng người Hungary trong vòng một tiếng với lời hứa sẽ được hoàn trả ngay lập tức. Theo bản tin, CEO đã ngay lập tức nhận lời khi nghe được giọng nói đặc trưng bằng tiếng Đức của ông chủ “mạo danh”.
Sau deepfake, lừa đảo bằng giọng nói nổi lên như một hình thức phạm tội mới nổi được dựa trên công nghệ AI. Ảnh: University of Miami Information Technology. |
Chẳng những không hoàn trả tiền sau đó như đã hứa, đối tượng lừa đảo còn tiếp tục mạo danh để yêu cầu thêm một giao dịch khẩn khác. Tuy nhiên, lần này vị CEO người Anh đã từ chối thực hiện giao dịch.
Hóa ra, số tiền mà CEO được yêu cầu phải thanh toán cho đối tác người Hungary đã được chuyển đến Mexico và một số địa điểm khác. Cho đến nay, các nhà chức trách vẫn chưa xác định được thủ phạm đứng đằng sau những hoạt động lừa đảo này.
Phần mềm tạo giọng nói này có thể không phải là trường hợp cá biệt duy nhất mà ứng dụng AI bị sử dụng để phạm pháp. Một khi những ứng dụng mạo danh giọng nói này được cải tiến hơn nữa, rất có thể đây sẽ là một công cụ không thể tuyệt vời cho bọn tội phạm.
Hồi tháng 7, Tổng cục Điện tử Quốc gia Israel đã đưa ra cảnh báo về một loại hình tấn công mạng mới. Bằng việc ứng dụng công nghệ AI, các đối tượng phạm tội sẽ mạo danh CEO công ty để trục lợi và thực hiện hành vi phạm tội trên mạng.
Năm 2018, Pindrop - một công ty an ninh mạng chuyên thiết kế phần mềm chống mạo danh giọng nói - ghi nhận mức tăng 350% các cuộc gọi bị giả giọng trong khoảng thời gian từ 2013-2017.