Facebook nói trong một tuyên bố vào hôm nay rằng các video deepfake và các nội dung media có tính dàn dựng sẽ bị cấm khỏi nền tảng mạng xã hội của mình.
Công ty cho biết họ đang thử nhiều hướng tiếp cận để giải quyết vấn đề, bao gồm điều tra các hành vi mờ ám, có biểu hiện lừa đảo, trong các nội dung do AI tạo ra, đồng thời hợp tác với các học viện, chính phủ, và các công ty trong ngành công nghiệp để xác định chính xác hơn các nội dung bị dàn dựng.
"Các nội dung dàn dựng có thể được thực hiện thông qua các công nghệ đơn giản như Photoshop, hay thông qua các công cụ tinh vi sử dụng trí tuệ nhân tạo hoặc các kỹ thuật 'deep learning' để tạo ra các video xuyên tạc thực tế - thường được gọi là 'deepfake'" - Facebook nói. "Dù các video như vậy vẫn còn hiếm trên Internet, chúng cho thấy một thách thức đáng kể đối với ngành công nghệ và xã hội khi chúng bị lợi dụng ngày càng nhiều hơn".
Công ty này định nghĩa các loại nội dung "deepfake" sẽ bị xóa bỏ khỏi nền tảng của mình như sau:
- Nội dung đã bị chỉnh sửa hoặc tổng hợp - trừ việc tinh chỉnh để tăng độ trong trẻo hoặc tăng chất lượng hiển thị - theo những cách không rõ ràng đối với một người bình thường và nhiều khả năng sẽ gây hiểu lầm cho ai đó, khiến họ nghĩ rằng một chủ thể trong video nói những thứ họ không thực sự nói.
- Nội dung là sản phẩm của trí tuệ nhân tạo hoặc machine learning, trong đó có việc ghép, thay thế, hoặc chồng các nội dung khác vào video, khiến nó có vẻ như thật.
Chính sách này của Facebook không ảnh hưởng đến các nội dung được dàn dựng cho mục đích tấu hài hoặc châm biếm - công ty nói thêm.
Các video bị đánh dấu vi phạm sẽ trải qua một khâu đánh giá bởi các đối tác kiểm tra bên thứ ba để xác định xem nội dung video có thực sự sai trái hay không. Nếu có, Facebook sẽ tìm cách "giảm đáng kể sự phát tán của nó" lên các newsfeed hoặc từ chối xuất bản nó, nếu nó được sử dụng như một quảng cáo.
Chưa hết, những người tìm cách chia sẻ nội dung trước khi nó hoàn toàn bị loại bỏ khỏi website sẽ nhận được một cảnh báo rằng nội dung đó không đúng sự thật.
Facebook nói thêm rằng hãng đã thiết lập một mối quan hệ đối tác với Reuters để "giúp trung tâm tin tức trên toàn thế giới nhận diện deepfake và các nội dung dàn dựng thông qua một khóa đào tạo trực tuyến miễn phí".
"Các tổ chức tin tức ngày càng dựa nhiều vào các bên thứ ba để xem xét một khối lượng lớn các hình ảnh và video, và việc xác định được những nội dung bị dàn dựng quả thực là một thách thức đáng kể. Chương trình này có mục tiêu hỗ trợ các trung tâm tin tức thực hiện công việc này" - Facebook tuyên bố.
Hồi tháng 9 năm nay, Giám đốc công nghệ của Facebook là Mike Schroepfer cho biết công ty đang tạo ra các nội dung deepfake của chính mình nhằm giúp phát hiện tốt hơn các nội dung bị dàn dựng và xóa bỏ chúng.
"Mục tiêu của việc này là tạo ra công nghệ mà mọi người đều dùng được để phát hiện tốt hơn khi nào AI được dùng vào việc thay đổi nội dung một đoạn video nhằm gây hiểu nhầm cho người xem" - Schroepfer viết trong một bài blog.
Năm ngoái, công ty đã phải đối mặt với phản ứng dữ dội từ các thành viên của Quốc hội Mỹ, bao gồm dân biểu Alexandria Ocasio-Cortez và ứng viên tổng thống, thượng nghị sỹ Elizabeth Warren, vì chính sách đối với việc kiểm tra thông tin trong các quảng cáo mang tính chính trị.
Facebook cho biết trong hầu hết các trường hợp, họ sẽ không kiểm tra các quảng cáo mang tính chính trị nhằm bảo vệ quyền tự do ngôn luận. Chính sách gây tranh cãi này đã bị chỉ trích sau khi Tổng thống Donald Trump cho chạy những quảng cáo chính trị với những thông tin sai sự thật về cựu phó tổng thống Joe Biden.
"Các bài đăng và quảng cáo từ các chính trị gia nói chung không bị kiểm tra" - theo chính sách của Facebook. "Để đánh giá khi nào nên áp dụng điều này, chúng tôi sẽ yêu cầu các đối tác kiểm tra xem xét thông tin về các chính trị gia ở mọi cấp độ".
Theo GenK