Bộ Tư pháp phối hợp với Quỹ Hanns Seidel Foundation tổ chức Hội thảo kinh nghiệm quốc tế về trách nhiệm pháp lý của các đối tượng liên quan tới trí tuệ nhân tạo.

Sự phát triển và ứng dụng rộng rãi của công nghệ AI trong nhiều lĩnh vực như giao thông, y tế, tài chính, bán lẻ, quảng cáo… mang đến nhiều cơ hội cũng như thách thức, trong đó có những thách thức về mặt pháp lý như vấn đề an ninh, an toàn; vấn đề bảo vệ quyền riêng tư của mỗi cá nhân; vấn đề bảo vệ quyền sở hữu trí tuệ; vấn đề xây dựng tiêu chuẩn ngành; vấn đề xác định trách nhiệm pháp lý của các đối tượng liên quan đến AI.

Phát biểu tại Hội thảo, Thứ trưởng Bộ Tư pháp Trần Tiến Dũng cho rằng, để xây dựng và hoàn thiện bổ sung các văn bản pháp luật về trách nhiệm pháp lý của các đối tượng liên quan tới trí tuệ nhân tạo, chúng ta cần hiểu rõ những rủi ro mà trí tuệ nhân tạo mang lại; tham khảo kinh nghiệm quốc tế, trong đó có kinh nghiệm của Liên minh châu Âu và CHLB Đức trong việc ban hành hoặc sửa đổi, bổ sung các văn bản quy phạm pháp luật có liên quan đến trách nhiệm pháp lý của các đối tượng liên quan tới trí tuệ nhân tạo. 

hoi nghi nhan den AI.png
Hội thảo kinh nghiệm quốc tế về trách nhiệm pháp lý của các đối tượng liên quan tới trí tuệ nhân tạo. Ảnh: T.Nhung

Cần quy định cụ thể để xử lý hành vi liên quan AI nhằm mục đích phạm tội

Theo bà Lê Thị Vân Anh, Vụ phó Vụ Pháp luật hình sự-hành chính, Bộ Tư pháp, liên quan đến AI có 4 đối tượng bao gồm: chủ thể tạo ra AI, những người lập trình, tác giả thiết kể ra phần mềm; Chủ sở hữu AI là các nhà sản xuất, nhà đầu tư; Người sử dụng là những người đưa AI vào vận hành, giám sát quá trình hoạt động và cuối cùng là bản thân, thực thể AI.

Trong trường hợp những người sản xuất chế tạo, người sở hữu sản phẩm và người sử dụng sản phẩm AI sử dụng AI vào thực hiện thành vi phạm tội thì những đối tượng này phải chịu trách nhiệm hình sự. 

Vụ phó Vụ Pháp luật hình sự-hành chính, Bộ Tư pháp cho hay, BLHS năm 2015 đã quy định một số tội phạm trong lĩnh vực công nghệ thông tin, trong đó có liên quan đến AI. 

Cụ thể, Điều 285 quy định tội sản xuất, mua bán, trao đổi hoặc tặng cho công cụ, thiết bị, phần mềm để sử dụng vào mục đích trái pháp luật.

Điều 286 quy định tội phát tán chương trình tin học gây hại cho hoạt động của mạng máy tính, mạng viễn thông, phương tiện điện tử.

Điều 287 tội cản trở gây rối loạn hoạt động mạng máy tính, mạng viễn thông, phương tiện điện tử người khác. Điều 289 tội xâm nhập trái phép vào mạng máy tính, mạng viễn thông, phương tiện điện tử.

Điều 290 tội sử dụng mạng máy tính, mạng viễn thông, phương tiện điện tử thực hiện hành vi chiếm đoạt tài sản.

Tuy nhiên, với các trường hợp trực tiếp đưa AI vào phạm tội thì pháp luật hình sự hiện tại chưa quy định. Do đó, những người liên quan đến AI bao gồm người sáng tạo, người sở hữu, người sử dụng sẽ là chủ thể phạm tội, chịu chế tài xử lý hình sự. 

Bên cạnh đó, pháp luật hình sự cần quy định cụ thể để trực tiếp xử lý hành vi liên quan AI như hành vi sản xuất, thiết kế, lập trình sản phẩm AI nhằm mục đích dùng vào thực hiện tội phạm, hành vi sử dụng sản phẩm AI thực hiện hành vi phạm tội.

Từ đó, bà Lê Thị Vân Anh cho rằng, có thể quy định sử dụng sản phẩm trí tuệ nhân tạo thực hiện hành vi phạm tội là tình tiết tăng nặng trách nhiệm hình sự.

Với hướng quy định này, có thể áp dụng với bất cứ tội danh nào được quy định trong BLHS. Cùng với đó, có thể nghiên cứu quy định phân hóa trách nhiệm hình sự trong trường hợp sử dụng AI để phạm tội như vấn đề đồng phạm, phạm tội có tổ chức…

Bà Lê Thị Vân Anh cũng cho rằng, AI là sản phẩm do con người tạo ra, được lập trình về khả năng tư duy, trí nhớ, suy đoán, hành động. AI không có khả năng nhận thức được hành vi của mình là trái pháp luật hay không và AI không có khả năng nhận thức được ý nghĩa của chế tài xử lý.

Vì vậy, chưa thể đặt ra trách nhiệm hình sự đối với bản thân thực thể AI ở thời điểm hiện nay.