Tổ chức quan sát Internet (IWF) cho biết đã phát hiện gần 3.000 hình ảnh khiêu dâm do AI tạo ra, vi phạm luật pháp Anh quốc. Theo IWF, những hình ảnh về các nạn nhân ngoài đời đã được nạp vào mô hình AI, sau đó sản xuất ra phiên bản mới.

nrr7zz75.png
Tội phạm mạng dùng ảnh lạm dụng trẻ em để đào tạo mô hình AI rồi sản xuất ra biến thể mới. (Ảnh: The Guardian)

AI cũng bị lợi dụng để tạo hình ảnh trẻ hơn của người nổi tiếng rồi đưa vào các tình huống lạm dụng tình dục. Trong ví dụ khác về nội dung lạm dụng tình dục trẻ em (CSAM), các công cụ AI có thể cởi bỏ quần áo trên ảnh trẻ em tìm được qua Internet.

Mùa hè năm nay, IWF bắt đầu cảnh báo về việc lạm dụng AI, song báo cáo mới nhất cho thấy tình trạng này ngày càng gia tăng. Susie Hargreaves, CEO IWF, nhận xét “cơn ác mộng tồi tệ nhất đã thành sự thật”.

“Đầu năm 2023, chúng tôi cảnh báo hình ảnh do AI tạo ra sẽ sớm không thể phân biệt được với hình ảnh trẻ em bị lạm dụng tình dục trong đời thực. Chúng tôi bắt đầu thấy hình ảnh này sinh sôi nảy nở với số lượng lớn”, bà chia sẻ.

Điều đáng sợ hơn là tội phạm mạng đào tạo AI bằng hình ảnh của nạn nhân, những người đã phải chịu nỗi đau lạm dụng. Trẻ em từng bị tổn thương trong quá khứ nay lại bị ném vào những kịch bản mới bởi những người muốn xem nó.

Ngoài ra, hình ảnh do AI tạo ra còn được rao bán trên mạng. Phát hiện mới nhất của IWF dựa trên cuộc điều tra kéo dài một tháng vào diễn đàn lạm dụng trẻ em trên web đen – khu vực Internet chỉ có thể truy cập bằng trình duyệt đặc biệt.

Tổ chức điều tra 11.108 hình ảnh trên diễn đàn, trong đó 2.978 vi phạm luật pháp Anh khi mô tả lạm dụng tình dục trẻ em. CSAM do AI tạo ra là bất hợp pháp theo Đạo luật bảo vệ trẻ em 1978, tội phạm hóa hành vi thực hiện, phân phối và sở hữu “ảnh không đứng đắn hoặc ảnh giả” của một đứa trẻ.

IWF tiết lộ phần lớn nội dung phạm pháp tìm được đều vi phạm đạo luật này. Cứ 5 ảnh lại có hơn một được xếp vào loại A, loại nghiêm trọng nhất.

Đạo luật Điều tra và Tư pháp năm 2009 cũng tội phạm hóa những hình ảnh trẻ em bị cấm như hoạt hình, phác họa.

IWF lo ngại làn sóng CSAM do AI tạo ra sẽ phân tán sự chú ý của các cơ quan hành pháp khỏi việc phát hiện lạm dụng thực tế và giúp đỡ nạn nhân. Theo Hargreaves, nếu không ngăn chặn mối đe dọa này, chúng sẽ tràn ngập Internet.

Dan Sexton, Giám đốc công nghệ IWF, cho biết công cụ Stable Diffusion là sản phẩm AI duy nhất được thảo luận trên diễn đàn. Stability AI, công ty đứng sau chương trình, khẳng định họ “cấm bất kỳ hành vi lạm dụng nào vì mục đích phi pháp, vô đạo đức trên các nền tảng”, bao gồm CSAM.

Chính phủ Anh tuyên bố CSAM do AI tạo ra sẽ thuộc phạm vi điều chỉnh của Dự luật an toàn trực tuyến và các công ty mạng xã hội phải ngăn chặn chúng xuất hiện trên nền tảng.

(Theo The Guardian)