![]() |
Trong thời gian qua, một trong những vấn đề đau đầu với các công ty công nghệ, nhất là các công ty hoạt động trên nền internet, chính là vấn nạn video bạo lực. Từ Facebook, YouTube, cho đến các mạng xã hội ít tên tuổi hơn như Twitter, tất cả đều "dính phốt", không ít thì nhiều. Đó là lý do vì sao, những công ty này đang tích cực cải tiến trí tuệ nhân tạo để các phần mềm của họ có thể xác định và chặn các video về những vụ giết người rùng rợn trước khi chúng tiếp cận được với quá nhiều người dùng trên mạng xã hội.
Tuy nhiên, cho tới nay chưa một công ty nào dám khẳng định có thể ngăn chặn hoàn toàn loại nội dung này.
Hồi đầu tuần này, một người đàn ông Thái Lan đã dùng tính năng phát video trực tiếp của ứng dụng Facebook (Facebook Live) để phát cảnh hắn ta tự tay giết chết đứa con gái mới 11 tháng tuổi. Đây chỉ là một trong chuỗi các nội dung bạo lực được phát trực tiếp trên Facebook trong thời gian qua. Sự chậm trễ của Facebook trong việc ngăn chặn chúng dấy lên câu hỏi về tính hiệu quả của hệ thống báo cáo vi phạm mà Facebook đang áp dụng.
Không chỉ Facebook, hàng loạt công ty khác cũng đang phải vật lộn với vấn đề tương tự. Google là một ví dụ. YouTube, trang video thuộc sở hữu của hãng tìm kiếm, cũng đã không ít lần để tồn tại video bạo lực cũng như các video truyền bá tin giả mạo khiến các nhà quảng cáo từng phải lên chiến dịch tẩy chay. 2 ông lớn này, chính vì thế, đang gấp rút tìm ra các giải pháp cho vấn nạn mà có lẽ trước đây họ chưa từng nghĩ sẽ nghiêm trọng như hiện nay.
Hầu hết giải pháp đều tập trung vào công nghệ "học sâu" (deep learning): một dạng trí tuệ nhân tạo tận dụng các mạng nơ-ron được tự động hóa (computerized). Đây là cách tiếp cận mà theo David Lissmyr, nhà sáng lập công ty phân tích video/hình ảnh Sightengine, đang lặp lại những gì được áp dụng vào những năm 1950, nhằm bắt chước cách nơ-ron hoạt động và tương tác trong não.
Dạy máy tính học với các lớp nơ-ron nhân tạo đang thực sự nổi lên trong những năm qua. Tuy nhiên, chỉ trong thời gian gần đây máy tính mới có đủ sức mạnh xử lý, và chúng ta mới có đủ dữ liệu để dạy những hệ thống này, tạo ra một bước nhảy vọt về tính chính xác và độ hiệu quả của máy học (machine learning) - theo Matt Zeiler, nhà sáng lập và CEO công ty về phân tích video Clarifai.
Dùng hình ảnh
Hệ thống dạy bắt đầu bằng cách đưa ảnh qua các tầng nơ-ron của máy tính, và chúng sẽ "học" để xác định các đối tượng cụ thể, như đây là biển chỉ đường, còn đây là cảnh bạo lực trong một video.
Cảnh bạo lực có thể bao gồm các cảnh như chém giết, máu me, Abhijit Shanbhag, CEO của công ty đến từ Singapore Graymatics cho biết. Nếu các kỹ sư của hãng không thể tìm thấy cảnh phù hợp dùng để phục vụ việc "dạy học" cho máy móc, họ sẽ phải tự quay lại cảnh đó trong chính văn phòng mình. Matt Zeiler, nhà sáng lập và CEO công ty về phân tích video Clarifai, tự tin rằng các thuật toán của họ có thể nhận diện các đối tượng trong một video mà có thể sẽ là tiền thân của bạo lực, ví dụ như dao hoặc súng.
![]() |
Dù vậy, những cách này không tránh khỏi còn nhiều hạn chế.
Máy móc chỉ giỏi khi nó nhận diện ra một cảnh nào đó hoàn toàn giống hoặc gần giống với hình ảnh mà chúng được dạy. Trong trường hợp vụ giết người ở Thái Lan, khi kẻ sát nhân đem nạn nhân lên mái nhà để chuẩn bị giết chết, thì đó không phải là cảnh mà máy tính được dạy để nhận diện (rằng đây là cảnh bạo lực và cần được chặn ngay lập tức). "Máy móc cần phải được đào tạo nhiều hơn nữa mới hy vọng có thể xác định những trường hợp như trên" - Shanbhag, người đứng đầu một công ty về lọc video và hình ảnh cho nhiều công ty mạng xã hội ở châu Á, chia sẻ.
Junle Wang, người đứng đầu trung tâm nghiên cứu và phát triển của công ty về hình ảnh PicPurify, cho biết rằng công ty ông đang tìm cách xác định cảnh bạo lực nhưng không liên quan đến máu và vũ khí; còn theo CEO Yann Mareschal của PicPurify, máy tính cũng sẽ rất khó để xác định những video trong đó nạn nhân bị bạo hành về mặt tinh thần.
Vẫn cần bàn tay con người
Thêm một hạn chế nữa mà chúng ta có thể thấy rõ, đó là ngay cả khi đã sử dụng hệ thống máy móc tự động nói trên, thì các công ty vẫn cần tới con người để xác định tính xác thực của những nội dung được gắn cờ là "mang tính công kích", "nguy hiểm" - theo Mika Rautiainen, nhà sáng lập và CEO Valossa, một công ty Phần Lan chuyên đi phát hiện các nội dung không phù hợp cho các công ty media, giải trí và quảng cáo.
Trên thực tế, các giải pháp khả thi có thể sẽ phải là kết hợp cả hình ảnh lẫn các dữ liệu khác. Junle Wang, người đứng đầu trung tâm nghiên cứu và phát triển của PicPurify, nói rằng sử dụng các thuật toán để theo dõi phản ứng của người xem - ví dụ như khi rất nhiều người đăng tải lại một video nào đó - có thể là một giải pháp.
Michael Pogrebnyak, CEO của công ty về phân tích hình ảnh Kuznech, cho biết Kuznech đã bổ sung các thuật toán mới để nhận diện ảnh khiêu dâm (chủ yếu nhận diện da và chuyển động camera). Với Facebook, mạng xã hội này nói rằng cũng sẽ dùng các kỹ thuật tương tự để nhận diện ảnh nude, cảnh bạo lực hay các nội dung khác không tuân theo chính sách của mình. Dù vậy, Facebook từ chối bình luận về việc liệu phần mềm này có được dùng trong vụ giết người ở Thái Lan cũng như trong các vụ việc khác hay không.
Một số ý kiến cho rằng, các công ty công nghệ đang chậm chạp trong việc bổ sung những thuật toán mới để ngăn chặn video bạo lực, một phần bởi việc này khiến họ phải mất thêm chi phí. Tuy nhiên, những công ty cung cấp các dịch vụ có nội dung do người dùng tạo ra đang chịu sức ép từ các nhà quản lý, lãnh đạo các chính phủ. Áp lực này sẽ khiến họ phải tìm mọi cách có thể để loại bỏ nội dung xấu, nếu không sẽ đứng trước nguy cơ bị dừng hoạt động. "Ngay cả khi không có sự thắt chặt về quản lý, thì nếu không thể có giải pháp xử lý phù hợp với nội dung bạo lực sẽ dẫn tới các hiệu ứng tiêu cực đối với thương hiệu của nhà cung cấp dịch vụ" - Rautiainen, nhà sáng lập và CEO của Valossa, chia sẻ.

