Internet nói chung và mạng xã hội nói riêng đều là những phát minh mang tiềm năng lớn lao để phát triển vô tận, ẩn giấu nhiều chương sách mới còn chưa được khai phá nhằm mục đích chia sẻ, kết nối con người lẫn nhau trên toàn cầu. Dẫu vậy, vạn vật đều mang những thái cực đối lập song hành lập nhau, đi kèm với viễn cảnh tươi sáng vẫn luôn là những mặt tối phức tạp, trong đó có vấn nạn fake news, lừa đảo bằng tin tức giả mạo.
Trong khi chưa kịp tìm ra phương pháp nào ngăn chặn những loại hình sơ khai nhất của fake news, mới đây người ta lại tiếp tục run sợ trước một cơn ác mộng mới có khả năng hủy hoại danh tiếng người khác chỉ với vài nút bấm - Công nghệ Deepfake.
Từ nhiều năm nay, các đạo diễn phim ảnh đã dắt túi nhiều thủ thuật giúp cho tác phẩm ghi hình của mình trở nên hoàn hảo hơn nhờ kỹ xảo đồ hoạ, hay đơn giản là cắt ghép một khung hình, cảnh vật, con người vốn dĩ không hề ở đó nhưng vẫn xuất hiện trên màn ảnh. Không khó để nhớ lại những ký ức đau buồn vào năm 2013 khi nam diễn viên Paul Walker thuộc dàn sao của tựa phim “Fast and Furious” bom tấn qua đời vì tai nạn ô-tô sau một buổi tổ chức từ thiện. Tại thời điểm đó, bộ phim “Furious 7” vẫn chưa đóng máy xong, tuy nhiên hàng triệu fan hâm mộ trên toàn thế giới vẫn hào hứng bất ngờ khi gương mặt của anh xuất hiện trong phần phim tiếp theo ra rạp.
Câu trả lời cho tất cả những cảm xúc nghẹn ngào đó là nhờ công nghệ kỹ xảo tiên tiến, ghép gương mặt gốc của anh vào diễn viên đóng thế ở mọi cảnh quay được thực hiện sau này. Mặc dù người đóng thế chính là Cody Walker - em trai của Paul - với nhiều điểm tương đồng lẫn nhau ở nét mặt của 2 người để giúp quá trình chỉnh sửa dễ dàng hơn, nhưng đây vẫn là một ví dụ điển hình cho thấy sức mạnh và tiềm năng mở đầu cho một công nghệ kỹ xảo thế hệ mới.
Deepfake xuất phát từ chính những hình thức quen thuộc này, nhưng được phát triển và cải tiến cao cấp hơn nhờ khả năng tích hợp trí tuệ nhân tạo (AI) vào lõi hệ thống của mình. Cũng như Photoshop, Deepfake mang trong mình khả năng đổi trắng thay đen thần sầu, thậm chí áp dụng được cho cả video ảnh động, không bị giới hạn trong ảnh tĩnh. Cũng bởi lẽ đó, nếu Photoshop cũng từng là công cụ tiếp tay cho nhiều mục đích tiêu cực của những kẻ xấu thích dắt mũi người khác, Deepfake cũng không phải một ngoại lệ tuyệt đối trong trường hợp này.
Các thuật toán mà Deepfake sở hữu trong hệ thống được lập trình và trải qua hình thức học hỏi lâu dài, thông qua hàng loạt các bộ dữ liệu hình ảnh cũng như video, hình thành thói quen tự động nhận biết và xử lý. Sau khi được gán cho một mục tiêu cá nhân làm đích đến, Deepfake sẽ liên tục quét qua những hình ảnh có sẵn trước đó về họ, tổng hợp và tạo nên một phiên bản “mặt ảo” mà trông như thật, giúp thao túng chỉnh sửa và điều khiển tùy ý. Những dữ liệu khuôn mặt ảo đó có thể được đem ghép vào thân hình của người khác, trong khi vẫn thực hiện điệu bộ, cử chỉ y hệt như nguyên mẫu gốc, gần như không thể nhận ra sự khác biệt bằng mắt thường. Rất nhiều những người nổi tiếng đã từng chịu ảnh hưởng bởi điều tiếng không hay khi các đoạn video giả mạo họ do Deepfake làm ra xuất hiện đầy rẫy trên Internet - từ những Tổng thống Mỹ như Obama, Donald Trump hay celeb như Gal Gadot, Jenny (BLACKPINK), thậm chí gần đây nhất là một trường hợp về CEO Mark Zuckerberg của Facebook.
Nếu coi hệ thống của Deepfake như một tổ đội, thông thường chúng sẽ tự phân chia toàn bộ thành 2 phần, thực hiện song song 2 chức năng và vai trò tương hỗ, nhưng thực ra là "đấu đá" lẫn nhau: 1 bên liên tục học hỏi từ các nguồn ảnh gốc để tạo ra hình ảnh giả mạo; trong khi bên còn lại sẽ tự động đánh giá soi xét ngược lại, cố gắng tìm ra những sơ hở và điểm bất hợp lý ở kết quả giả mạo đó. Cứ như vậy, chúng liên tục làm ra vô hạn các phiên bản, cho tới khi nào bên 2 không thể chỉ ra sơ hở nào từ bên 1, quá trình giả mạo mới thực sự hoàn tất. Đó là nguyên nhân khiến cho các tác phẩm làm ra bởi Deepfake gần như hoàn hảo và chỉn chu, rất khó tóm được sự bất thường trong đó nếu không có nguồn tham chiếu sẵn. Càng nhiều dữ liệu hình ảnh gốc, kết quả tạo ra càng viên mãn, khiến cho những chính trị gia hoặc diễn viên, ca sỹ… vốn là người xuất hiện nhiều trước công chúng trở thành mục tiêu hàng đầu cho Deepfake khi rơi vào tay kẻ xấu.
Đáng sợ hơn, Deepfake đang ngày càng được cải tiến và hoàn thiện vượt qua trí tưởng tượng của người thường. Các nhà khoa học tại Trung tâm Nghiên cứu AI của Samsung ở Moscow đã phát hiện cách để tận dụng Deepfake hoạt động hiệu quả chỉ với nguồn hình ảnh cực ít, kể cả là duy nhất một tấm hình gốc cũng có thể giúp nó hoạt động và làm giả đích đến. Nếu không tin, xin hãy xem thử nàng Mona Lisa đang sống lại như thật, trò chuyện như người thường dưới đây:
Dám chắc không ai trên thế giới dám nói rằng Mona Lisa có nhiều bức vẽ ở nhiều tư thế và hình ảnh khác nhau đâu nhỉ?
Các nhà lập pháp trên thế giới cũng đã ngồi lại với nhau để thảo luận về những rủi ro tiềm tàng gắn liền với Deepfake, liên hệ tới vấn nạn fake news đã hoành hành bấy lâu nay. Chính trị và bầu cử là lĩnh vực thường xuyên bị ảnh hưởng bởi fake news, tác động đến phát ngôn cũng như quan điểm của rất nhiều người dân chỉ vì một luồng tin sai lệch bị phát tán không được ngăn chặn kịp thời. Vì thế, không khó hiểu khi Tổng thống Obama hay Trump lại là 2 cái tên thường được nhắc đến nhiều khi bàn luận về fake news, bởi chính họ cũng từng là nạn nhân xuất hiện trong các video ghép mặt lợi dụng từ công nghệ Deepfake. Thử tưởng tượng năm 2020 tới đây, video có mặt một ứng cử viên Tổng thống mới xuất hiện giữa giai đoạn tranh cử với lời lẽ cực đoan, đi kèm thông điệp phản cảm được chia sẻ mạnh mẽ trên mạng xã hội, đó sẽ là một đòn đánh nặng nề vào tâm lý cũng như an ninh chung về chính trị của một quốc gia, khiến lòng tin của cộng đồng sụp đổ, không biết nên đặt uy tín vào đâu nếu như vấn nạn này không được tìm cách khắc phục và ngăn chặn ngay từ bây giờ.
Trong khi những rủi ro về Deepfake vẫn đang chực chờ ẩn nấp chưa được hóa giải hết, nó đã kịp biến tướng trở thành một vấn nạn khác - Deepnude. Đúng như tên gọi của nó, Deepnude được sinh ra để xoá bỏ quần áo của những người phụ nữ xuất hiện trong ảnh gốc.
Deepnude không hoạt động đối với ảnh đàn ông, và những hình ảnh lõa lồ hiện lên ở kết quả cũng không phải ảnh thật về cơ thể của những nạn nhân phụ nữ bị lấy ra làm mục tiêu. Tất cả đều là dữ liệu ảnh có sẵn được thay vào phần quần áo bị xoá, chỉnh sửa trùng khớp với khuôn mẫu cơ thể của người trong ảnh. Theo Motherboard, ảnh gốc càng lộ sẵn da thịt trên cơ thể, ảnh kết quả sẽ càng chân thực và không thể nhận ra là giả mạo.
Phụ nữ từ trước tới nay vốn đã là nạn nhân ưa thích của những kẻ xấu sử dụng công nghệ tương tự, chấn động nhất là khi nữ diễn viên Gal Gadot lần đầu bị phát hiện cảnh nóng trên một website khiêu dâm, nhưng hoá ra lại là sản phẩm ghép mặt của Deepfake. Chưa nói tới hậu quả về mặt tâm lý, những tác hại của Deepfake gây ra có thể bị đem làm vật tống tiền, hạ thấp nhân phẩm và giá trị uy tín của nạn nhân trong khi họ chưa kịp nhận ra và trở tay. Deepnude sinh ra cũng một phần nằm trong mục đích tiêu cực và biến tướng như vậy, đại diện cho lối suy nghĩ và tư tưởng sai lệch về tác dụng của công nghệ.
Đáng ngại hơn, Deepnude hiện đang là một phần mềm và website miễn phí, có thể tải về dùng tự do trên Windows và Linux từ 23/6 vừa rồi. Thuật toán của Deepnude cũng tương tự như Deepfake, thay thế quần áo bằng da thịt giả mạo. Trừ khi thao tác trên hình chất lượng thấp hoặc góc chụp khó nhìn sẽ có thể xảy ra lỗi, còn đối với ảnh gốc chất lượng cao, Deepnude càng dễ dùng và cho ra kết quả thuyết phục hơn, khiến người xem “không thể nhận ra đó là giả mạo” - trích lời trang tin Motherboard.
Được biết, MotherBoard đã được chủ nhân của Deepnude liên hệ dưới nickname “Alberto”, cho biết anh tạo ra phần mềm này nhờ một mã nguồn mở ra đời vào năm 2017. Chúng cũng sử dụng cơ chế thuật toán tương tự Deepfake, sau đó được anh ta cài vào dữ liệu cơ thể từ hơn 10.000 tấm ảnh nude của phụ nữ để học hỏi, tạo nên một bộ dữ liệu khổng lồ. Ghê sợ hơn, Alberto thẳng thừng nói rằng anh coi chuyện này chỉ là một trò vui đùa và tò mò thử làm cho biết, đồng thời lấy một cái cớ lạnh lùng ra làm bình phong: “Tôi không tọc mạch cơ thể người khác làm gì, tôi chỉ đơn giản thích khám phá công nghệ mới, sáng tạo ra những thuật toán cao cấp hơn, tận dụng từ đó để giúp cải thiện kinh tế cho bản thân. Đó là lý do tôi làm ra Deepnude.”
“Điều tôi làm có sai trái không ư? Thế không biết nó có biết làm người khác đau không nhỉ?” Alberto tiếp tục hỏi ngược lại các phóng viên Motherboard như thể trêu đùa, cho biết rằng mình cũng luôn tự hỏi rằng liệu đã có ai phát minh ra dạng Deepnude trước mình hay chưa. “Tôi nghĩ Deepnude cũng chỉ là một cách thao tác nhanh hơn cho Photoshop trước kia, tiết kiệm thời gian hơn so với việc thành thạo các kỹ năng chỉnh ảnh. Công nghệ ngày nay đầy rẫy rồi, nên dù cho Deepnude có ra đời hay không thì sẽ luôn có những kẻ sẵn sàng làm điều xấu dựa trên những công cụ khác có sẵn mà thôi,” Alberto trả lời thản nhiên.
Tất cả những cách ngụy biện và lý lẽ của Alberto cho thấy một quan điểm thực sự thờ ơ và lệch lạc, bỏ ngoài tai mọi sự tôn trọng đối với quyền riêng tư cũng như an toàn cá nhân và tâm lý chung của cộng đồng. Deepnude đã được tung ra để dễ dàng chia sẻ và chuyền tay nhau hơn bao giờ hết, vượt qua cả giới hạn của Deepfake ngày trước, chỉ mất 30 giây và vài nút bấm cho một tấm ảnh giả mạo cơ thể lõa lồ của nạn nhân, chẳng ai biết người ta có thể làm gì với chúng.
Thay vì sử dụng tài năng và kiến thức để giúp chống lại những vấn nạn đó, Alberto chọn đặt lợi ích kinh tế và sở thích của bản thân lên trên nỗi lo sợ của hàng triệu người khác. Hiện tại, truy cập vào Deepnude đã tạm thời bị lỗi kết nối, không rõ do nghẽn lưu lượng hay có bàn tay can thiệp của các cơ quan chức năng. Song, nếu không kịp tìm ra một biện pháp ngăn chặn, xử lý hoặc phát hiện kịp thời biểu hiện của vấn nạn này trong tương lai gần, Internet nói chung và mạng xã hội nói riêng sẽ trở thành một thế giới cực kỳ hỗn loạn, hoang mang với toàn thể người dùng trên toàn cầu.