Trên trang tingia.gov.vn, Trung tâm xử lý tin giả, thông tin xấu độc Việt Nam thuộc Cục Phát thanh, truyền hình và thông tin điện tử (Bộ TT&TT) vừa phát cảnh báo về thủ đoạn sử dụng công nghệ Deepfake để cắt ghép, tạo video hay hình ảnh nhạy cảm giả mạo với mục đích lừa đảo, tống tiền người dùng.

hinh anh gia mao.jpg
Hình ảnh giả mạo ông QTL được cắt từ video được đối tượng xấu cắt ghép, tạo ra bằng công nghệ Deepfake. Ảnh: VAFC

Cụ thể, gần đây, Trung tâm xử lý tin giả, thông tin xấu độc Việt Nam - VAFC đã nhận được phản ánh từ ông QTL về việc ông bị một số đối tượng phát tán trên mạng xã hội những hình ảnh giả mạo được cắt ghép, xử lý qua công nghệ Deepfake, với mục đích bôi nhọ danh dự, nhân phẩm và uy tín cá nhân.

Không những thế, các đối tượng này sau đó còn tiếp tục sử dụng những hình ảnh giả mạo để thực hiện hành vi tống tiền, yêu cầu ông QTL chuyển tiền vào ví điện tử của chúng và liên hệ qua email để xác nhận.

Nhận định về vụ việc cụ thể nêu trên, Trung tâm xử lý tin giả, thông tin xấu độc Việt Nam xác nhận đây là một hình thức lừa đảo sử dụng công nghệ Deepfake để thực hiện hành vi sai phạm.

Deepfake là công nghệ được sử dụng để tạo ra nội dung giả mạo, đặc biệt là video, trong đó khuôn mặt hoặc âm thanh của một người sẽ được ghép vào các video, âm thanh của người khác.

Trung tâm xử lý tin giả, thông tin xấu độc Việt Nam cũng cho biết thêm, đơn vị đang phối hợp với các cơ quan chức năng để điều tra làm rõ vụ việc của ông QTL và xử lý nghiêm các đối tượng vi phạm theo quy định của pháp luật.

Phân tích của Trung tâm Trung tâm xử lý tin giả, thông tin xấu độc Việt Nam chỉ ra rằng, với sự phát triển của AI, hiện nay công nghệ Deepfake đang trở thành công cụ nguy hiểm cho tội phạm tống tiền trực tuyến. Việc dễ dàng tiếp cận công nghệ này cùng với sự gia tăng của các nền tảng mạng xã hội đã tạo điều kiện thuận lợi cho các đối tượng xấu lợi dụng để thực hiện hành vi vi phạm pháp luật.

Thủ đoạn của các nhóm lừa đảo theo hình thức mới này là sử dụng hình ảnh, thông tin cá nhân của nạn nhân được chia sẻ trên mạng và dùng kỹ thuật cắt ghép hình ảnh nạn nhân vào các video clip nhạy cảm. Sau đó, đối tượng sẽ nhắn tin, gọi điện đe dọa, tống tiền nạn nhân bằng hình ảnh giả mạo.

Một số nạn nhân còn bị các tổ chức lừa đảo giả danh là thám tử tư gọi điện thoại thông báo về việc phát hiện người này có mối quan hệ bất chính với những người phụ nữ khác. Đối tượng gửi cho nạn nhân các hình ảnh nhạy cảm đã được chỉnh sửa, cắt ghép có sử dụng hình ảnh khuôn mặt của nạn nhân.

Sau đó, các đối tượng lừa đảo yêu cầu nạn nhân phải chuyển một khoản tiền điện tử với giá trị tương đương hàng tỷ đồng vào ví điện tử để không bị đăng lên mạng xã hội. Khi nạn nhân bị ‘sập bẫy’, các đối tượng sẽ hướng dẫn mua tiền điện tử, chuyển đến các tài khoản ví điện tử theo chỉ định để chiếm đoạt. 

cong nghe deepfake 10 1.jpg
Thời gian qua, nhiều người dân Việt Nam đã trở thành nạn nhân của các cuộc lừa đảo tài chính sử dụng công nghệ Deepfake. Ảnh minh họa: Internet

Cùng với khuyến cáo người dân nâng cao cảnh giác, Trung tâm xử lý tin giả, thông tin xấu độc Việt Nam cũng lưu ý về một số biện pháp phòng ngừa: Cẩn trọng với những yêu cầu kết bạn từ người lạ trên mạng xã hội; không chia sẻ thông tin cá nhân, hình ảnh, video riêng tư với người không quen biết; kiểm tra kỹ nguồn gốc thông tin, hình ảnh, video trước khi chia sẻ.

Ngoài ra, khi phát hiện các trường hợp nghi ngờ lừa đảo, tống tiền bằng Deepfake, người dân cần báo ngay cho cơ quan chức năng.

Trường hợp người dân đã trở thành nạn nhân của hình thức lừa đảo, tống tiền bằng hình ảnh, video giả mạo được tạo ra từ việc sử dụng công nghệ Deepfake, Trung tâm xử lý tin giả, thông tin xấu độc Việt Nam khuyên người dân giữ lại tất cả bằng chứng liên quan như tin nhắn, email, hình ảnh, video...; không chuyển tiền cho kẻ tống tiền và liên hệ ngay với cơ quan công an gần nhất để được hỗ trợ.

Trong “Cẩm nang nhận diện và phòng chống lừa đảo trực tuyến” ra mắt vào tháng 6/2023, Cục An toàn thông tin (Bộ TT&TT) đã cảnh báo “Lừa đảo cuộc gọi sử dụng Deepfake” là 1 trong 24 hình thức lừa đảo diễn ra phổ biến trên không gian mạng Việt Nam. Hình thức lừa đảo trực tuyến này đã và đang được những kẻ lừa đảo sử dụng để lừa nhiều nhóm đối tượng khác nhau như người cao tuổi, trẻ em, sinh viên, công nhân, nhân viên văn phòng, phụ huynh học sinh...

Theo khuyến cáo của Cục An toàn thông tin, Deepfake đang là một mối đe dọa với sự trung thực, tin cậy của video và hình ảnh. Các đối tượng sử dụng công nghệ AI để tạo ra những video hoặc hình ảnh giả, sao chép chân dung để tạo ra các đoạn video giả người thân, bạn bè và thực hiện các cuộc gọi lừa đảo trực tuyến. Phần lớn hình thức lừa đảo trực tuyến này nhắm tới lừa đảo tài chính. Vì thế, khi người dân nhận được các cuộc gọi liên quan đến các nội dung về tài chính, người dân cần tỉnh táo, xác nhận thêm.