Trả lời phỏng vấn trên tờ The Guardian, tác giả cuốn sách “Sapiens: Lược sử loài người” cho biết, khác với vũ khí hạt nhân, vấn đề mà mô hình AI mang lại không gói gọn trong một kịch bản lớn.

Với AI, có vô số kịch bản nguy hiểm, mỗi một kịch bản lại có xác suất kết hợp với nhau và tạo thành nguy cơ hiện hữu đối với nền văn minh nhân loại.

Ông Harari nhận xét, tuyên bố đa phương tại Hội nghị thượng đỉnh an toàn AI toàn cầu ở Bletchley Park, Anh là một "bước tiến rất quan trọng" vì các chính phủ hàng đầu đã cùng nhau bày tỏ mối quan tâm về công nghệ này và làm điều gì đó về nó.

“Nếu không có sự hợp tác toàn cầu, sẽ vô cùng khó khăn, nếu không muốn nói là không thể, để kiềm chế tiềm năng nguy hiểm nhất của AI", ông nói.

Hội nghị thượng đỉnh kết thúc với thỏa thuận giữa 10 chính phủ và các công ty AI lớn, bao gồm nhà phát triển ChatGPT OpenAI và Google, trong việc hợp tác thử nghiệm các mô hình AI tiên tiến trước và sau khi chúng được phát hành.

nonqfeyk.png
 Tác giả Yuval Noah Harari nêu những rủi ro của trí tuệ nhân tạo với nền văn minh nhân loại trong cuộc phỏng vấn với The Guardian. (Ảnh: Antonio Olmos)

Tác giả Sapiens cho rằng một vấn đề khi thử nghiệm an toàn của các mô hình là phải thấy trước mọi vấn đề nó có thể gây ra.

AI khác với mọi công nghệ trước đây trong lịch sử loài người vì nó là công nghệ đầu tiên có thể tự đưa ra quyết định, tự tạo ra những ý tưởng mới và tự học hỏi, phát triển.

Theo định nghĩa của nó, con người – ngay cả “cha đẻ” AI – cũng vô cùng khó khăn khi dự đoán tất cả các mối nguy hiểm và vấn đề tiềm ẩn.

Các chính phủ đã nhắc đến mối đe dọa khi hệ thống AI giúp tạo ra vũ khí sinh học, nhưng có những kịch bản khác có thể được xem xét.

Ông Harari chỉ ra tài chính là một lĩnh vực lý tưởng phù hợp với các hệ thống AI vì chỉ là dữ liệu và AI có thể tạo ra cuộc khủng hoảng nghiêm trọng.

"Điều gì sẽ xảy ra nếu AI không chỉ được trao quyền kiểm soát lớn hơn đối với hệ thống tài chính của thế giới mà còn bắt đầu tạo ra các thiết bị tài chính mới mà chỉ AI mới có thể hiểu được, còn con người thì không", ông Harari đặt câu hỏi.

Nhà sử học bổ sung, cuộc khủng hoảng tài chính 2007-2008 là do các công cụ nợ như nghĩa vụ nợ thế chấp (CDO) mà ít người hiểu được và do đó không được quy định đầy đủ.

"AI có tiềm năng tạo ra các thiết bị tài chính phức tạp hơn CDO. Chỉ cần tưởng tượng tình huống chúng ta có một hệ thống tài chính mà không con người nào có thể hiểu được và do đó cũng không thể điều tiết", ông nói "Và sau đó là một cuộc khủng hoảng tài chính mà không ai hiểu chuyện gì đang xảy ra".

Tháng trước, chính phủ Anh đã nêu lên lo ngại về một mô hình AI tiên tiến có khả năng tạo ra mối đe dọa hiện hữu bằng cách kiểm soát và thao túng các hệ thống tài chính.

Nhưng ông Harari tin rằng một cuộc khủng hoảng tài chính do AI tạo ra sẽ không phá hủy nền văn minh nhân loại, "ít nhất là không trực tiếp".

Ông nói thêm: "Nó có thể, gián tiếp, nếu gây ra một số loại chiến tranh hoặc xung đột. Đó là một rủi ro thảm khốc - kinh tế, xã hội, chính trị”.

Tác giả người Israel, người ủng hộ lời kêu gọi tạm dừng phát triển AI tiên tiến trong 6 tháng và buộc các công ty AI phải chịu trách nhiệm về thiệt hại mà sản phẩm của họ gây ra, cho biết không nên tập trung vào các quy định và luật cụ thể mà là các tổ chức quản lý có kiến thức về công nghệ có thể phản ứng nhanh khi những đột phá mới xuất hiện.

"Chúng ta cần tạo ra càng nhanh càng tốt các thể chế quản lý mạnh mẽ có khả năng xác định và phản ứng với các mối nguy hiểm khi chúng phát sinh dựa trên sự hiểu biết rằng chúng ta không thể dự đoán trước tất cả các mối nguy hiểm và vấn đề".

Ông chia sẻ: "Đây nên là nỗ lực chính chứ không phải việc viết một số quy định rất dài và phức tạp vào thời điểm nó được Quốc hội thông qua có thể đã lỗi thời”.

Các viện nghiên cứu an toàn AI nên thuê những chuyên gia hiểu được tác động tiềm năng của AI đối với thế giới tài chính, ông Harari nói.

Tháng trước, Thủ tướng Anh Rishi Sunak tuyên bố thành lập một viện an toàn AI của Anh. Vài ngày sau đó, Nhà Trắng công bố kế hoạch thành lập một cơ quan tương tự. Cả hai dự kiến sẽ đóng vai trò quan trọng trong việc thử nghiệm các mô hình AI tiên tiến.

Phát biểu tại hội nghị thượng đỉnh, ông Sunak cho biết Anh cần hiểu khả năng của các mô hình AI tiên tiến trước khi đưa ra luật để đối phó với chúng.

(Theo The Guardian)