Quốc hội sáng nay thảo luận tại tổ về dự thảo Luật Trí tuệ nhân tạo (AI). Dự thảo luật quy định phải gắn nhãn với nội dung do hệ thống AI tạo ra hoặc chỉnh sửa có yếu tố giả mạo, mô phỏng người thật, sự kiện thật và có khả năng khiến người xem, người nghe hoặc người đọc hiểu sai là thật; nội dung do AI tạo ra nhằm mục đích truyền thông, quảng cáo, tuyên truyền hoặc cung cấp thông tin công khai.
Tại tổ Thái Nguyên, Chủ nhiệm Ủy ban Khoa học, Công nghệ và Môi trường Nguyễn Thanh Hải cho biết trên thế giới, nhiều nước phát triển về lĩnh vực này nhưng cũng chưa có luật mà chỉ ban hành khung đạo đức trước khi làm luật.
Luật ra đời sẽ ảnh hưởng mạnh mẽ đến các lĩnh vực trong đời sống nên quan điểm xây dựng luật là cân bằng giữa quản lý và thúc đẩy.
Chủ nhiệm Ủy ban Khoa học, Công nghệ và Môi trường Nguyễn Thanh Hải. Ảnh: Quốc hội
Theo bà, nếu mạnh về quản lý thì các ý tưởng ban đầu về AI sẽ bị ràng buộc, còn nếu không quản lý chặt sẽ gây rủi ro lớn, thậm chí ảnh hưởng đến an toàn, an ninh.
Bà cho rằng tốc độ phát triển của AI rất nhanh, có những yếu tố khó lường nên dù đây là luật khung thì rất có thể sẽ tiếp tục phải sửa đổi, bổ sung trong thời gian ngắn.
Về việc gắn nhãn sản phẩm AI, bà Hải chia sẻ thực tế “nghe ca sĩ hát nhiều bài hay nhưng không biết là thật hay AI”. Bà đề nghị cần gắn nhãn những sản phẩm do AI tạo ra.
Chủ nhiệm Ủy ban Khoa học, Công nghệ và Môi trường cũng băn khoăn khi dự thảo luật chưa có chương quy định về tác động của AI đối với văn hóa, xã hội và nghiên cứu khoa học.
“Hiện nay có thực tế các nhà khoa học sử dụng AI trong nghiên cứu khoa học, chạm đến những vấn đề con người chưa thể chạm đến thì bản quyền tác giả thế nào, chia sẻ dữ liệu ra sao?”, bà Hải đặt vấn đề.
Bà cũng nêu thực tế nhiều học sinh sử dụng AI trong quá trình làm bài, đồng thời dẫn chứng câu chuyện ở Trung Quốc, với những cuộc thi lớn sẽ cắt toàn bộ trợ lý ảo, không cho học sinh dùng khi thi.
Theo bà Hải, dự thảo luật cũng cần nêu rõ các hành vi bị cấm, như sử dụng AI để gây rối, kích động, thao túng các cuộc bỏ phiếu, bầu cử, tạo dựng hình ảnh và video clip lừa đảo…
Nên coi mức độ “rủi ro không chấp nhận được” là điều cấm
Đại biểu Đồng Ngọc Ba (Gia Lai) cho biết các nước trên thế giới còn rất thận trọng trong đặt ra các quy định về lĩnh vực này. Dự thảo luật quy định 4 cấp độ rủi ro trong phát triển trí tuệ nhân tạo, song ông Ba đề nghị chia thành 3 cấp độ: rủi ro thấp, rủi ro trung bình và rủi ro cao. Riêng mức độ “rủi ro không chấp nhận được” nên coi luôn là điều cấm.
Đại biểu Lò Thị Luyến. Ảnh: Quốc hội
Đại biểu Lò Thị Luyến (Điện Biên) chia sẻ dư luận phản ánh nhiều về trẻ em trong khi dự thảo luật chưa đưa ra giới hạn trẻ em tiếp cận với AI như thế nào. Một số nước ở châu Âu đã đưa ra quy định trẻ em bao nhiêu tuổi mới được tiếp cận và sử dụng AI, một số nước xung quanh Việt Nam chưa cấm.
Trong dự thảo luật chỉ có quy định về những mức độ rủi ro, như vậy tất cả các đối tượng trong xã hội sẽ được tiếp cận AI, đại biểu cho rằng quy định này chưa rõ về mặt quản lý.
Bà Luyến bày tỏ lo ngại với thế hệ trẻ nếu không hạn chế về độ tuổi tiếp cận AI thì sẽ như trẻ em ở một số nước "nghe theo AI, làm bạn với AI, thậm chí chỉ yêu AI và kết hôn với AI".
"Những đứa trẻ chưa có nhận thức đầy đủ, như một tờ giấy trắng thì rất nguy hiểm trong tương lai. Vấn đề này, chúng ta sẽ tính toán thế nào", đại biểu đặt vấn đề.
Đại biểu Lâm Văn Đoan. Ảnh: Quốc hội
Dự thảo luật đề xuất giáo dục phổ thông tích hợp nội dung cơ bản của trí tuệ nhân tạo, đại biểu Lâm Văn Đoan (Lâm Đồng) đề nghị cân nhắc đề xuất này. Ông nói hiện nay Quốc hội đang xem xét sửa 3 dự luật liên quan đến giáo dục, do vậy nếu cần thiết cần đưa vào luật chuyên ngành để có tính hệ thống, chặt chẽ.
"Tôi nói về tính nguyên tắc, còn chương trình đó có nội dung gì thì nên để thẩm quyền cho các cơ quan quản lý Nhà nước giáo dục, Hội đồng chuyên môn làm. Còn ấn định Luật Trí tuệ nhân tạo là phải đưa trí tuệ nhân tạo vào chương trình giáo dục phổ thông rồi đến các luật khác cũng mỗi thứ đưa vào như thế sẽ khiến chương trình học không còn là một chỉnh thể, khoa học", ông Đoan phân tích.
Trần Thường