Ngày 5/12, nhà chức trách tại Anh đưa ra hướng dẫn mới về kiểm tra độ tuổi trên môi trường số, nhằm bảo vệ trẻ em trước các nội dung khiêu dâm trực tuyến, bao gồm đề xuất sử dụng công nghệ AI để xác định độ tuổi hợp pháp của người dùng.

Đạo luật An toàn Trực tuyến mới được thông qua yêu cầu các trang web và ứng dụng hiển thị hoặc xuất bản nội dung phải đảm bảo trẻ em dưới 18 tuổi không thể xem nội dung khiêu dâm trên nền tảng của họ.

“Bất kể cách tiếp cận của họ là gì, chúng tôi hy vọng tất cả các dịch vụ đều cung cấp sự bảo vệ mạnh mẽ cho trẻ em khỏi các nội dung khiêu dâm, đồng thời đảm bảo quyền riêng tư và quyền tự do cho người lớn khi truy cập nội dung hợp pháp”, đại diện cơ quan quản lý truyền thông Ofcom Melanie Dawes cho biết.

q3ijretce5l2xm5cnzq5cqscim.jpg
Đạo luật An toàn Trực tuyến được nghị viện Anh thông qua vào tháng 9, đặt ra các tiêu chuẩn khắt khe hơn cho các nền tảng truyền thông xã hội như Facebook, YouTube và TikTok. 

Theo đề xuất, nhà chức trách sẽ sử dụng công nghệ AI để phân tích đặc điểm khuôn mặt, do đó người dùng sẽ cần xác thực hình ảnh tự chụp chân dung và đăng tải trực tuyến.

Một biện pháp bổ sung khác là đối chiếu nhận dạng ảnh, chẳng hạn như yêu cầu người dùng tải lên giấy tờ tuỳ thân có ảnh như hộ chiếu hoặc giấy phép lái xe để chứng minh độ tuổi, cũng như kiểm tra thẻ tín dụng.

Cơ quan quản lý cho hay, việc xác thực độ tuổi có thể được thực hiện chéo, khi người dùng đồng ý cho phép ngân hàng của họ chia sẻ thông tin cá nhân với các website nội dung có yêu cầu xác minh độ tuổi.

Viện Quan hệ Kinh tế, tổ chức tư vấn thị trường mở, nhận định việc xác minh độ tuổi bắt buộc đặt ra nhiều đe doạ về quyền riêng tư của người dùng, có thể khiến họ gặp phải các hành vi vi phạm và lạm dụng khi tăng lượng dữ liệu nhạy cảm do bên thứ ba nắm giữ.

Cơ quan quản lý cho biết các phương pháp yếu hơn như tự khai báo tuổi, phương thức thanh toán trực tuyến không yêu cầu người dùng phải đủ 18 tuổi và tuyên bố từ chối trách nhiệm hoặc cảnh báo sẽ không còn đáp ứng các tiêu chuẩn trong hướng dẫn mới của họ. Dự kiến, hướng dẫn cuối cùng sẽ được Ofcom ban hành vào đầu năm 2025.

Đạo luật An toàn Trực tuyến

Đạo luật An toàn Trực tuyến được nghị viện Anh thông qua vào tháng 9/2023, đặt ra các tiêu chuẩn khắt khe hơn cho các nền tảng truyền thông xã hội như Facebook, YouTube và TikTok.

Bộ trưởng Công nghệ Michelle Donelan cho biết dự luật này là một đạo luật "thay đổi cuộc chơi".

Nội dung của đạo luật được kỳ vọng đưa nước Anh trở thành quốc gia có môi trường kỹ thuật số an toàn nhất thế giới.

Các nhà lập pháp nhấn mạnh đến việc bảo vệ trẻ em và xóa bỏ nội dung bất hợp pháp trên các nền tảng số.

Theo đó, các nền tảng truyền thông xã hội phải nhanh chóng xóa nội dung bất hợp pháp hoặc ngăn nội dung đó xuất hiện ngay từ đầu.

Đồng thời, họ phải có biện pháp ngăn chặn trẻ em truy cập nội dung có hại và không phù hợp với lứa tuổi như nội dung khiêu dâm bằng cách thực thi giới hạn độ tuổi và các biện pháp kiểm tra độ tuổi.

Nếu các công ty không tuân thủ, cơ quan quản lý truyền thông Ofcom sẽ có thể đưa ra mức phạt lên tới 18 triệu bảng Anh (22,3 triệu USD) hoặc 10% doanh thu toàn cầu hằng năm của họ.

Các nền tảng nhắn tin như WhatsApp đã phản đối một điều khoản trong luật mà họ cho rằng có thể buộc họ phá vỡ mã hóa đầu cuối. Song, chính phủ cho biết dự luật không cấm mã hóa đầu cuối.

Thay vào đó, nhà chức trách yêu cầu các công ty hành động để ngăn chặn tình trạng lạm dụng trẻ em trên nền tảng, thậm chí xây dựng công nghệ quét tin nhắn đã được mã hoá. Các công ty công nghệ cho biết việc quét tin nhắn và mã hóa đầu cuối về cơ bản là không tương thích.

Chương trình Quốc gia về bảo vệ trẻ em trên không gian mạng

Chương trình ‘Bảo vệ và hỗ trợ trẻ em tương tác lành mạnh, sáng tạo trên môi trường mạng giai đoạn 2021 – 2025’ được Thủ tướng Chính phủ phê duyệt tại Quyết định 830 ngày 1/6/2021.

Đây là lần đầu tiên Việt Nam ban hành một Chương trình ở cấp quốc gia riêng vấn đề bảo vệ trẻ em trên môi trường mạng, thể hiện sự quan tâm, vào cuộc quyết liệt của lãnh đạo Đảng và Nhà nước trong công tác bảo vệ bí mật đời sống riêng tư và ngăn chặn, xử lý các hành vi lợi dụng môi trường mạng để xâm hại trẻ em.

Chương trình hướng tới ‘mục tiêu kép’: Bảo vệ bí mật đời sống riêng tư và ngăn chặn, xử lý các hành vi lợi dụng môi trường mạng để xâm hại trẻ em, trong đó đặc biệt chú trọng đến việc trang bị cho trẻ em kiến thức, kỹ năng phù hợp theo từng lứa tuổi (hệ miễn dịch số) để trẻ em tự nhận biết và có khả năng tự bảo vệ mình trên môi trường mạng; Duy trì một môi trường mạng lành mạnh, phát triển hệ sinh thái các sản phẩm, ứng dụng Việt cho trẻ em học tập, kết nối, giải trí một cách sáng tạo.

Xây dựng và hoàn thiện hành lang pháp lý; giáo dục, truyền thông nâng cao nhận thức và trang bị kỹ năng; triển khai các biện pháp, giải pháp kỹ thuật, ứng dụng công nghệ; hoàn thiện cơ cấu tổ chức, nâng cao năng lực thực thi pháp luật; tăng cường hợp tác quốc tế là 5 nhóm nhiệm vụ chính của Chương trình 830.

Cập nhật về các kết quả triển khai 'Chương trình bảo vệ và hỗ trợ trẻ em tương tác lành mạnh, sáng tạo trên môi trường mạng giai đoạn đến năm 2025' (còn gọi là Chương trình 830), bà Đinh Thị Như Hoa, Trưởng Phòng Kiểm định An toàn thông tin, Trung tâm Ứng cứu khẩn cấp không gian mạng Việt Nam - VNCERT/CC cho biết, trong gần 3 năm qua, nhiều hoạt động về bảo vệ, hỗ trợ trẻ em trên mạng đã được các cơ quan, tổ chức, doanh nghiệp đồng hành triển khai. Đến nay, đã có 8 doanh nghiệp SafeGate, Bkav, Nexta, Lancs Việt Nam, CyRadar, CyberPurify, FPT và VNPT phát triển 10 sản phẩm bảo vệ trẻ em.