Khi bản thân dữ liệu cũ chính là vấn đề

Dữ liệu trong quá khứ về tội phạm có thể được sử dụng làm tài liệu cho các thuật toán máy học đưa ra các dự báo về tội phạm trong tương lai, từ đó cảnh sát có thể phân bổ nguồn lực phù hợp theo các dự đoán này. Tuy nhiên bản thân dữ liệu này cũng chính là vấn đề, khi chứa nhiều sự thiên lệch và do đó, làm sâu sắc thêm sự bất bình đẳng.

Từ những năm 1990, các sở cảnh sát tại Mỹ đã áp dụng phương pháp phân tích dữ liệu để phân bổ nguồn lực xuống địa bàn “có nguy cơ cao”. Tuy nhiên, thực tế lại cho thấy, nếu thêm nhiều cảnh sát được điều động tới một khu vực nhất định, thì nhiều khả năng nhiều tội phạm sẽ xuất hiện ở đó. Về cơ bản, đây như một vòng lặp phản hồi tạo ra cái nhìn sai lệch về nơi thực sự nhiều tội phạm đang diễn ra.

Không chỉ vậy, việc sử dụng dữ liệu quá khứ, dù các dữ liệu này có thể cho biết một số chỉ báo về hành vi tương lai, nhưng lại không tính đến khái niệm và khả năng phục hồi sau đó.

{keywords}
 

Năm 2019, chính phủ Hà Lan thí điểm hệ thống SyRI (hệ thống cảnh báo rủi ro), sử dụng các dữ liệu sẵn có như thuế, bảo hiểm, cư trú, giáo dục… để dự báo các đối tượng có khả năng gian lận về phúc lợi xã hội. Tuy nhiên, dự án này đã bị đình chỉ sau 1 năm, do nhận nhiều chỉ trích vì sử dụng các thông số và dữ liệu đặc biệt nhắm vào người thu nhập thấp và dân tộc thiểu số.

Tương tự, Roermond, thành phố Đông Nam Hà Lan thử nghiệm dự án “Cảm biến”, sử dụng camera và cảm biến thu thập dữ liệu phương tiện di chuyển quanh khu vực, sau đó dùng thuật toán xác định các đối tượng có xác suất cao là móc túi và ăn cắp để thông báo tới cảnh sát và cảnh báo mọi người. Thế nhưng, dự án không chứng minh được hiệu quả khi thường bỏ qua các cá nhân người bản xứ, thay vào đó chủ yếu nhằm vào người Đông Âu, đối tượng mà cảnh sát Hà Lan cho rằng chiếm phần lớn trong các vụ trộm cắp và móc túi tại quốc gia này.

“Các dự báo này không chỉ phản ánh sự bất bình đẳng đang xảy ra, mà còn làm trầm trọng thêm nó”, Marc Schuilenburg, giáo sư về tội phạm học tại Đại học Vrije Amsterdam lập luận.

Hoài nghi về độ chính xác của các hệ thống AI

Năm 2018, sở cảnh sát London sử dụng công nghệ nhận diện khuôn mặt để xác định 104 người được cho là có hành vi phạm tội. Thế nhưng, chỉ 2 trong số 104 trường hợp là chính xác.

“Từ thời điểm nhân viên cảnh sát xác định sai nghi phạm cho đến lúc họ nhận ra bắt nhầm người thì hành động cưỡng chế đã diễn ra: nghi phạm bị bắt, đưa đến đồn cảnh sát và bị giam giữ. Loạt hành động này gây ra sự sợ hãi và hậu quả không thể đảo ngược”, Edward Santow, phóng viên của The Australian Quarterly cho biết.

Ngoài ra, các hệ thống nhận diện khuôn mặt cũng cho thấy sự phân biệt đối với người da màu. Ví dụ, thuật toán của Facebook đã từng dán nhãn người da đen là “động vật linh trưởng”, một lỗi sai không thể chấp nhận.

Công nghệ nhận diện khuôn mặt vẫn đang phát triển, các thuật toán ngày càng hiệu quả trong phân tích hình ảnh chất lượng thấp và xác định những khuôn mặt già đi, thậm chí là nhận diện từ góc nghiêng. Dù vậy, Patrick Grother, chuyên gia tại Image Group, cho biết “sai số vẫn còn tương đối” và “chất lượng hình ảnh là một vấn đề”. Trong phần lớn các thí nghiệm sử dụng hình ảnh chất lượng cao, thuật toán tốt nhất vẫn sai tới 20%.

Sự thiếu hụt giám sát của con người đối với các quá trình tự động

Khi các hệ thống AI ngày càng dựa nhiều vào học sâu (deep learning), chúng càng trở nên tự chủ hơn và khó có thể nắm bắt. Việc tạo ra “những hộp đen” mà người dùng chỉ biết kết quả thay vì nắm rõ quy trình tạo ra kết quả đó, có thể gây ra những khó khăn trong xác định trách nhiệm cụ thể khi xảy ra oan sai.

Điều này sẽ tạo ra những “khoảng trống trách nhiệm” khi cả “cơ quan và các nhân viên không biết hoặc không tham gia trực tiếp vào các quyết định cụ thể gây ra hậu quả nghiêm trọng”, theo Kate Crawford và Jason Schultz, tác giả của báo cáo “Hệ thống AI và các nhân tố nhà nước”.

Các công cụ này có thể được xây dựng từ nhiều nguồn, từ trong các cơ quan chính phủ, phát triển bởi các nhà thầu hay thậm chí được tài trợ. Và khi hệ thống gặp lỗi, sẽ rất khó để xác định ai là người phải chịu trách nhiệm chính.

Một nghiên cứu của Đại học Columbia, Viện AI Now, Đại học New York cùng tổ chức Biên giới điện tử về việc sử dụng AI trong lĩnh vực thực thi pháp luật tại Mỹ cho thấy: “Các hệ thống AI được triển khai mà không hề có sự giám sát, hỗ trợ và biện pháp bảo vệ cụ thể cho những đối tượng bị đánh giá”.

Không thể phủ nhận công nghệ AI đang len lỏi vào từng ngóc ngách của cuộc sống con người, nhưng ở trong những lĩnh vực hành pháp, nơi số phận của một cá nhân cụ thể được đưa ra mổ xẻ, những dữ liệu chỉ đúng trong quá khứ và mang nặng thiên kiến của chính con người, được sử dụng bởi hệ thống AI có thể tạo ra những hậu quả nghiêm trọng không thể bù đắp.

Vinh Ngô

Trí tuệ nhân tạo vẽ tranh đoạt giải nhất: ranh giới của nghệ thuật là đâu?

Trí tuệ nhân tạo vẽ tranh đoạt giải nhất: ranh giới của nghệ thuật là đâu?

Cộng đồng bất bình khi nghệ sĩ dùng trí tuệ nhân tạo vẽ được tranh đoạt giải. Hiểu thế nào cho đúng về “nghệ thuật” bây giờ?