Picture1.png
Ảnh: CNBC

Theo thỏa thuận này, các công ty đến từ nhiều quốc gia, bao gồm Hoa Kỳ, Trung Quốc, Canada, Vương quốc Anh, Pháp, Hàn Quốc và Các Tiểu vương quốc Ả Rập Thống nhất, sẽ tự nguyện cam kết đảm phát triển an toàn của các mô hình AI của họ trong hiện tại và tương lai.

z5472043462737_4f8ee31b9a902b36230064a0fd0dbce6.jpg
Ảnh: The Guardian

Các nhà lập trình đồng ý công khai các khung an toàn, mô tả cách họ đo lường thách thức mà các mô hình tiên phong đem đến, chẳng hạn như ngăn chặn việc lạm dụng công nghệ của các phần tử xấu. Các khung này sẽ bao gồm cả “lằn ranh đỏ”, định nghĩa rủi ro liên quan đến các hệ thống AI tiên phong và được coi là mang tính “báo động”. Những rủi ro này bao gồm nhưng được đặt ở mức không giới hạn cho các biển thể của những cuộc tấn công mạng tự động hay mối đe dọa từ vũ khí sinh học. 

Để ứng phó với những tình huống cực đoan này, các công ty cho biết họ có kế hoạch triển khai một “nút dừng”, khi đó, họ sẽ ngừng phát triển các mô hình AI ngay lập tức nếu không thể đảm bảo được việc giảm thiểu những rủi ro này.

“Đây là lần đầu tiên có nhiều công ty AI lớn như vậy để cùng đồng ý tuân thủ những cam kết về an toàn AI”, Rishi Sunak - Thủ tướng Vương quốc Anh - cho biết. “Những cam kết này đảm bảo rằng các công ty AI hàng đầu sẽ cam kết minh bạch và có trách nhiệm phát triển AI một cách an toàn”.

Các cam kết trên chỉ áp dụng cho các mô hình tiên phong, chẳng hạn như hệ thống AI tạo sinh mà Open AI phát triển - mô hình ngôn ngữ lớn GPT, nguồn cung dữ liệu chính cho chatbot ChatGPT.

(Theo CNBC)