![]() |
Ông Robert Godwin Sr. đang về nhà thì bị bắn chết bởi một kẻ lạ mặt, kẻ này sau đó đăng video hiện trường lên Facebook. Video kinh hoàng tồn tại vài tiếng trước khi bị Facebook gỡ bỏ nhưng vẫn tiếp tục được chia sẻ trên mạng.
Justin Osofsky, Phó Chủ tịch Điều hành toàn cầu của Facebook, thừa nhận “chúng tôi cần làm tốt hơn” sau khi hứng chịu chỉ trích vì cách xử lý video. “Chúng tôi đã vô hiệu hóa tài khoản nghi phạm 23 phút sau khi nhận báo cáo đầu tiên về video giết người”. Facebook đang xem xét lại quá trình đánh dấu video của người dùng.
Đây là video mới nhất trong hàng loạt video giết người, tự tử, tra tấn, chặt đầu được xuất bản trên Facebook qua hình thức phát sóng trực tiếp (livestream) hay đăng video. Nó tiếp tục khơi lại câu hỏi cũ: Có bao nhiêu người của Facebook chịu trách nhiệm kiểm soát và đánh dấu loại nội dung này? Thời gian phản hồi trung bình là bao lâu? Facebook có lưu nội dung cho các nhà hành pháp sau khi xóa nó?
Facebook, cũng như nhiều hãng công nghệ khác, có truyền thống giữ im lặng về các chi tiết như trên. Một nguồn tin thân cận với mạng xã hội tiết lộ công ty có “hàng ngàn” người đánh giá nội dung trên thế giới. Một khi nội dung được báo cáo là không phù hợp, nó sẽ khảo sát “trong vòng 24 giờ”.
Stephen Balkam, nhà sáng lập kiêm CEO Family Online Safety Institute, thành viên lâu năm trong ban cố vấn an toàn của Facebook, cho hay: Facebook phụ thuộc vào sự kết hợp các thuật toán, nhân viên và cộng đồng người dùng để gắn cờ nội dung xấu. Theo ông và những người khác, họ có người tại châu Á, châu Âu, Bắc Mỹ song ít nhất một số đến từ các nhà thầu giá rẻ tại Đông Nam Á.
Sarah T. Roberts, trợ lý giáo sư tại đại học UCLA, nhận xét công việc của họ bị xem là thấp kém tại Silicon Valley và không thuộc bộ phận kỹ thuật. Bà cũng chỉ trích các hãng công nghệ vì đặt một phần gánh nặng lên vai người dùng. Chỉ đến khi người dùng bị tiếp xúc với thứ mà họ cho là kinh tởm, các hãng mới bắt đầu quy trình đánh giá.
Trong trường hợp của ông Robert Godwin Sr., gần 2 tiếng trôi qua người dùng mới báo cáo lên Facebook. Facebook vô hiệu hóa tài khoản nghi phạm sau đó 23 phút.
CEO Mark Zuckerberg thừa nhận rằng “các sự kiện bi kịch kinh khủng - như tự tử, một số được livestream - có lẽ sẽ được ngăn chặn nếu ai đó nhận ra điều gì đang xảy ra và báo cáo chúng sớm hơn” trong một bài luận dài về tương lai Facebook.
Zuckerberg nói công ty đang phát triển trí tuệ nhân tạo để đánh dấu nội dung tốt hơn. Hệ thống hiện đã đóng góp khoảng 1/3 tất cả báo cáo trên Facebook.
Facebook không phải công ty công nghệ duy nhất đi theo lộ trình này. Google trước đó nói đang phụ thuộc vào trí tuệ nhân tạo để “chỉ điểm” nội dung không phù hợp với nhà quảng cáo sau khi vấp phải làn sóng tẩy chay vì nội dung cực đoan trên YouTube.
Nhưng vì Facebook và Google xây dựng kho video khổng lồ để kiếm tiền quảng cáo, kể cả một video cực đoan hay xúc phạm bị lọt khỏi tầm mắt con người lẫn trí tuệ nhân tạo đều bị xem là quá nhiều.
“Tôi không cho rằng họ hiểu câu trả lời chính xác là số không”, Brian Wieser, nhà phân tích theo dõi cả hai công ty nhận xét. “Tất nhiên, nhân viên có lúc sai và bạn phải nô lực để xử lý vấn đề khi nó xảy ra. Tuy nhiên, tiêu chuẩn vẫn là số không”.
