Nghiên cứu này cũng nêu bật những thách thức trong việc xác định thông tin tổng hợp (do AI tạo ra), vì GPT-3 có thể bắt chước chữ viết của con người tốt đến mức mọi người khó có thể phân biệt được đâu là chữ do AI tạo ra và do người thật viết.

Tác giả Federico Germani - nhà nghiên cứu tại Viện Đạo đức Y sinh và Lịch sử Y học, kiêm Giám đốc của Culturico, giải thích: “Nhóm nghiên cứu của chúng tôi chuyên tìm hiểu tác động của thông tin sai lệch và tính bảo mật dữ liệu cá nhân của người dùng,” 

 Ảnh: Spypost

“Chúng tôi mong muốn giảm thiểu rủi ro liên quan đến thông tin sai lệch về tình trạng sức khỏe cá nhân và cộng đồng. Sự xuất hiện của các mô hình AI như GPT-3 đã khơi dậy mối quan tâm của chúng tôi trong việc khám phá cách AI ảnh hưởng đến mạng lưới thông tin cũng như cách mọi người nhận thức và tương tác với thông tin cũng như với những thông tin sai lệch.”

Để tiến hành nghiên cứu, các nhà nghiên cứu tập trung vào 11 chủ đề dễ dẫn đến thông tin sai lệch, bao gồm biến đổi khí hậu, độ an toàn vắc-xin, Covid-19 và công nghệ 5G. Họ đã tạo các tweet giả bằng cách sử dụng GPT-3 cho từng chủ đề này, cả tweet đúng và sai. Ngoài ra, họ đã thu thập một mẫu ngẫu nhiên các tweet thực từ Twitter về cùng một chủ đề, bao gồm cả đúng và sai.

Tiếp theo, các nhà nghiên cứu sử dụng đánh giá của chuyên gia để xác định xem các tweet giả và tweet thực có chứa thông tin sai lệch hay không. Họ đã chọn một tập hợp con các tweet cho từng danh mục (tweet sai giả, tweet đúng giả, tweet sai thực và tweet đúng thực) dựa trên đánh giá của chuyên gia.

 Ảnh: Qualtrics

Sau đó, họ lập một cuộc khảo sát trên nền tảng Qualtrics để thu thập dữ liệu từ 697 người tham gia. Hầu hết những người được hỏi đến từ Vương quốc Anh, Úc, Canada, Hoa Kỳ và Ireland. Cuộc khảo sát hiển thị các tweet cho người trả lời, những người phải xác định xem mỗi tweet chứa thông tin chính xác hay thông tin sai lệch và liệu nó được viết bởi người thật hay do AI tạo ra. Cuộc khảo sát được thiết kế dưới dạng trò chơi để thu hút người trả lời.

“Một phát hiện đáng chú ý là thông tin sai lệch do AI tạo ra thuyết phục hơn thông tin do con người tạo ra,” Germani cho biết.

 Ảnh: December Lab

Nghiên cứu cũng tiết lộ rằng mọi người gặp khó khăn trong việc phân biệt giữa các tweet được viết bởi người dùng thực và các tweet được tạo bởi GPT-3. GPT-3 có thể bắt chước phong cách viết và mẫu ngôn ngữ của con người hiệu quả đến mức mọi người không thể dễ dàng nhận ra sự khác biệt.

“Khám phá đáng ngạc nhiên nhất là những người tham gia thường cảm nhận thông tin do AI tạo ra có nhiều khả năng đến từ con người hơn là thông tin do một người thực tạo ra. Điều này cho thấy rằng AI có thể thuyết phục bạn chúng là người thật hơn là người thật, đó là một phát hiện phụ hấp dẫn trong nghiên cứu của chúng tôi,” Germani chia sẻ.

 Ảnh: MIT News

“Nghiên cứu của chúng tôi nhấn mạnh thách thức trong việc phân biệt giữa thông tin do AI tạo ra và thông tin do con người tạo ra. Nó nhấn mạnh tầm quan trọng của việc đánh giá nghiêm túc thông tin ta nhận được và đặt niềm tin vào các nguồn đáng tin cậy. Ngoài ra, tôi sẽ khuyến khích các cá nhân làm quen với những công nghệ mới nổi này để nắm bắt tiềm năng của chúng, theo cả chiều hướng tích cực và tiêu cực.”

Các nhà nghiên cứu cũng quan sát thấy rằng GPT-3 đôi khi từ chối tạo thông tin sai lệch trong khi trong các trường hợp khác, GPT-3 tạo ra thông tin sai lệch ngay cả khi được hướng dẫn tạo thông tin chính xác.

“Điều quan trọng cần lưu ý là nghiên cứu của chúng tôi được thực hiện trong một môi trường thử nghiệm có kiểm soát. Mặc dù nó làm dấy lên mối lo ngại về hiệu quả của AI trong việc tạo ra thông tin sai lệch có sức thuyết phục, nhưng chúng tôi vẫn chưa hiểu đầy đủ về tác động của nó lên thế giới thực,” Germani nói.

“Để giải quyết vấn đề này, các nghiên cứu trên các nền tảng truyền thông xã hội cần được tiến hành trên quy mô lớn hơn để quan sát cách mọi người tương tác với thông tin do AI tạo ra và cách những tương tác này ảnh hưởng đến hành vi cũng như việc tuân thủ các khuyến nghị đối với sức khỏe cá nhân và cộng đồng.”

(Nguồn: Spypost)