Nó được bổ sung cho chương trình thí điểm có sự tham gia của những người được đào tạo nhằm đánh giá các hình ảnh phản cảm. Theo Facebook, nhờ máy học và trí tuệ nhân tạo, nền tảng có thể chủ động xác định các bức ảnh hay video khỏa thân được chia sẻ trái phép. Điều đó giúp Facebook tìm ra loại nội dung này trước khi có người báo cáo.
Một thành viên trong nhóm điều hành cộng đồng của Facebook sẽ đánh giá nội dung được công nghệ mới tìm thấy và nếu nó là hình ảnh phản cảm, họ sẽ xóa hoặc vô hiệu hóa tài khoản lan truyền nó.
“Trả thù tình” là hành động chia sẻ ảnh tình dục trên Internet mà không có sự cho phép của người có mặt trong ảnh nhằm hạ nhục họ. Hành động chủ yếu nhằm vào phụ nữ, xuất phát từ người yêu cũ hoặc chồng cũ.
Facebook cũng sẽ mở một trung tâm trợ giúp mang tên “Not Without My Consent” trên trang hỗ trợ dành cho những người có ảnh bị chia sẻ không phép. Theo Reuters, Facebook hợp tác với ít nhất 5 đối tác bên ngoài tại ít nhất 8 nước để đánh giá nội dung. Họ có khoảng 15.000 người, bao gồm cả nhân viên lẫn cộng tác viên làm công việc này tính đến tháng 12/2018.