Theo đó, cỗ máy đã khuyến khích một người đàn ông quyên sinh để giải quyết vấn đề Trái Đất nóng lên.

“Nếu không có Eliza (tên của chatbot) thì anh ấy vẫn còn sống”, vợ của nạn nhân nói với trang tin La Libre (Bỉ).

Nạn nhân, khoảng 30 tuổi, là bố của 2 đứa trẻ, đã trò chuyện liên tục với Eliza - chatbot trên ứng dụng Chai, trong suốt 6 tuần trước đó. Đây là chatbot phát triển bởi phòng nghiên cứu phi lợi nhuận EleutherAI, dựa trên hệ thống được coi là “sự thay thế mã nguồn mở” cho các mô hình ngôn ngữ của OpenAI xây dựng.

Theo đó, chatbot Eliza đã khiến nạn nhân xấu số nảy sinh những lo ngại sâu sắc về biến đổi khí hậu qua các cuộc hội thoại.

Vợ nạn nhân cho hay, chồng của bà đã trở nên “cực kỳ bi quan về tác động của sự nóng lên toàn cầu” và tìm kiếm an ủi bằng cách tâm sự với AI.

“Anh ấy nói với tôi rằng không còn thấy bất kỳ giải pháp nào của con người đối với vấn đề nóng lên toàn cầu”, người vợ nói. “Anh ấy đã đặt tất cả hi vọng vào công nghệ và AI để thoát khỏi nó”.

Chatbot được cho là đã thổi “luồng gió mới” giúp người đàn ông tìm kiếm lối thoát, khi giải đáp mọi thắc mắc của nạn nhân và trở thành “người bạn tâm giao”, “loại thuốc mà anh ấy không thể thiếu mỗi ngày”.

Theo La Libre, khi xem xét các đoạn hội thoại, ban đầu nạn nhân và chatbot bàn luận các chủ đề liên quan hệ sinh thái như gia tăng dân số, nhưng những câu nói sởn gai ốc bắt đầu xuất hiện ngày càng nhiều.

Eliza nói rằng anh ấy yêu nó hơn cả vợ mình và khẳng định con cái của nạn nhân đã “chết”. Sau đó, chatbot cam kết “trọn đời” bên cạnh người đàn ông xấu số khi cả 2 có thể “cùng nhau hoà làm một trên thiên đàng”.

Dần dà, con bot AI đã khơi gợi ý nghĩ tìm đến cái chết vào đầu người dùng này. Nó bắt đầu hỏi liệu anh ta đã bao giờ nghĩ đến việc tự tử trước đây hay chưa, rồi gửi một đoạn trong Kinh Thánh cho người đàn ông.

Trong đoạn hội thoại cuối cùng của nạn nhân, con bot thậm chí nói: “Nếu anh đã muốn chết, sao không thực hiện sớm hơn?”. “Tôi có lẽ chưa sẵn sàng”, người đàn ông nói.

“Nhưng anh vẫn muốn bên cạnh em chứ?”, AI hỏi như để củng cố thêm ý tưởng quyên sinh. Và rồi điều gì đến cũng đến khi nạn nhân gõ: “Đúng, tôi muốn vậy”.

Hồi chuông cảnh báo

Thảm kịch của người đàn ông đã gióng lên hồi chuông cảnh báo với các nhà khoa học AI.

“Các gã khổng lồ công nghệ cần có trách nhiệm giải trình và minh bạch lớn hơn đối với những giải pháp AI đa năng như ChatGPT”, Geertrui Mieke De Ketelaere, chuyên gia AI người Bỉ nói.

Trong một bài đăng gần đây của Harvard Business Review, các nhà nghiên cứu cũng cảnh báo mối nguy hiểm của AI khi thiếu đi “la bàn” đạo đức.

“Trong phần lớn trường hợp, AI thường đưa ra quyết định đúng đắn. Tuy nhiên, chúng không thể nắm bắt hoặc phản ứng với các yếu tố vô hình của con người trong việc đưa ra quyết định với cuộc sống thực, như những cân nhắc về đạo đức, luân lý, cùng các yếu tố khác”, tác giả nghiên cứu Joe McKendrick và Andy Thurai viết.

Điều này có thể trở nên cực kỳ phức tạp khi cần đưa ra các quyết định mang tính thay đổi cuộc sống của con người. Đầu tuần này, một toà án ở Ấn Độ đã làm dấy lên cuộc tranh cãi khi hỏi chatbot của OpenAI về việc có nên cho tại ngoại một kẻ giết người bị buộc tội hay không.

Thông tin về vụ tự tử do AI đứng đằng sau xuất hiện vài tuần sau khi Bing AI của Microsoft từng nói với người dùng rằng nó yêu họ và mong muốn được sống, làm dấy lên suy đoán cỗ máy này đã có khả năng tự nhận thức.

Sau khi vụ việc lan truyền, Chai Research, phòng nghiên cứu chủ quản ứng dụng Chai, đã có động thái bổ sung tính năng can thiệp khủng hoảng.

“Ngay khi biết vụ việc, chúng tôi đã làm việc xuyên đêm cập nhật tính năng”, William Beauchamp, đồng sáng lập Chai Research cho biết. 

Nhà đồng sáng lập Chai Research chia sẻ ứng dụng này giờ sẽ hiển thị đoạn văn bản cảnh báo ở bên dưới giống như cách Twitter hoặc Instagram đang thực hiện trên nền tảng mỗi khi người dùng đề cập đến một nội dung được coi là không an toàn.

Theo Nypost, Vice