Theo Guardian, tạp chí +972 của Israel mới đây đã tiết lộ về cách Lực lượng Phòng vệ Israel (IDF) sử dụng AI nhằm nhận diện các thành viên của Hamas tại Dải Gaza. Hệ thống AI này mang tên Lavender, được IDF sử dụng từ đầu cuộc xung đột, và đã dẫn tới những tranh cãi dữ dội về mặt đạo đức.
"Trong thời gian đầu của cuộc xung đột, Lavender đã xác định 37.000 người dân ở Gaza bị nghi ngờ là thành viên của Hamas. Tỷ lệ sai số của AI này là khoảng 10%, dẫn tới những thương vong không đáng có", một sĩ quan Israel nói với +972.
Nguồn tin của +972 nhấn mạnh, vào thời gian đầu, phía IDF đồng ý thực hiện các vụ không kích nhắm vào nhà của các tay súng cấp thấp Hamas, dù những vụ tập kích kiểu này có thể kéo theo 15-20 dân thường thiệt mạng. Với mục tiêu là các sĩ quan cấp cao của Hamas, con số này còn lớn hơn rất nhiều.
"Israel thực hiện những vụ không kích kiểu này bằng bom phổ thông, sai số là rất lớn. Nhưng mọi chuyện vẫn phải tiếp tục, AI không dừng lại. Bạn biết đấy, nó liên tục nhắc nhở rằng còn 36.000 mục tiêu nữa", một sĩ quan khác nói.
Theo Financial Times, IDF đã lên tiếng phản bác về thông tin này. "Trái ngược với Hamas, Israel cam kết tuân thủ và hành động theo luật pháp quốc tế. Lavender được tạo nên bởi những dữ liệu do con người xác minh. Chúng tôi không dùng AI để kết luận một người là thành viên của Hamas, hệ thống này có vai trò đối chiếu và đánh giá trước khi tập kích 1 mục tiêu", thông cáo của IDF cho biết.
Tuy vậy, báo cáo của Cơ quan Y tế Palestine cho thấy, đã có khoảng 14.800 người, bao gồm 6.000 trẻ em và 4.000 phụ nữ thiệt mạng ở Gaza trước lệnh ngừng bắn thạm thời ngày 24/11/2023. Và đây cũng là khoảng thời gian mà Lavender được sử dụng nhiều nhất.
Israel là một trong những quốc gia đi đầu trong công nghệ trí tuệ nhân tạo, nên việc IDF áp dụng AI vào chiến dịch quân sự ở Gaza không phải là điều đáng ngạc nhiên. Tuy vậy, vấn đề vai trò của con người và đạo đức trong việc sử dụng AI trên tiền tuyến đã dẫn tới nhiều tranh cãi.
"Hệ thống Lavender đang tạo ra những thiệt hại quá mức, và không thể bào chữa về mặt đạo đức. Tuy vậy, chúng ta vẫn cần AI để làm những công việc tẻ nhạt và nguy hiểm", ông Tom Simpson, Giáo sư Triết học của Đại học Oxford nhận xét.
Trong khi đó, Giáo sư Mary Ellen O'Connell tới từ Đại học Notre Dame cho rằng con người đang quá lệ thuộc vào máy móc, và công nghệ AI đang gây ra nhiều vấn đề ở Gaza.