0in8dvqo.png
Trí tuệ nhân tạo là một trong các vấn đề nóng trên bàn nghị sự của nhiều nước. (Ảnh: Reuters)

Trong tài liệu dài 20 trang được công bố hôm 26/11, 18 quốc gia đồng ý rằng các công ty thiết kế và sử dụng AI cần phải phát triển và ứng dụng theo cách giữ an toàn cho khách hàng và công chúng trước nguy cơ bị lạm dụng.

Đây là thỏa thuận không ràng buộc và chủ yếu mang tính khuyến nghị như giám sát các hệ thống AI, bảo vệ dữ liệu trước việc bị giả mạo và kiểm tra nhà cung cấp phần mềm.

Dù vậy, Giám đốc Cơ quan An ninh mạng và An ninh hạ tầng Mỹ Jen Easterly cho biết nó quan trọng tới mức nhiều nước ký tên vào thỏa thuận này.

Chia sẻ với hãng tin Reuters, ông nhận xét các hướng dẫn đại diện cho “thỏa thuận rằng điều quan trọng nhất cần phải thực hiện ở giai đoạn thiết kế là bảo mật”.

Nó là diễn biến mới nhất trong loạt sáng kiến của các chính phủ khắp thế giới để định hình sự phát triển của AI.

Ngoài Mỹ và Anh, các nước đã ký kết bao gồm Đức, Italy, Cộng hòa Séc, Estonia, Ba Lan, Australia, Chile, Israel, Nigeria và Singapore.

Khuôn khổ giải quyết các câu hỏi về cách giữ công nghệ AI không bị tin tặc tấn công và bao gồm các khuyến nghị như chỉ phát hành mô hình sau khi thử nghiệm an toàn phù hợp.

Dù vậy, nó không xử lý những vấn đề hóc búa xoay quanh sử dụng AI một cách hợp lý hay cách thu thập dữ liệu để cung cấp cho mô hình.

Sự trỗi dậy của AI kéo theo hàng loạt lo ngại như nỗi lo nó bị lợi dụng để phá vỡ quá trình dân chủ, tăng cường gian lận, dẫn đến thất nghiệp hàng loạt…

Châu Âu đang đi trước Mỹ về quản lý AI khi các nhà lập pháp ở đây đã phác thảo quy định AI. Pháp, Đức và Italy gần đây đạt thỏa thuận về cách quản lý AI, ủng hộ “tự quản lý bắt buộc thông qua các quy tắc ứng xử” đối với mô hình nền tảng của AI.

Nhà Trắng đã tìm cách giảm thiểu rủi ro AI đến người tiêu dùng, người lao động và nhóm thiểu số trong khi củng cố an ninh quốc gia bằng sắc lệnh hành pháp mới vào tháng 10/2023.

(Theo Reuters)