Trong phiên họp sáng nay, 21-11, Quốc hội nghe Báo cáo thẩm tra dự án Luật Trí tuệ nhân tạo.
Với các quy định về nghĩa vụ minh bạch và gắn nhãn, Ủy ban Khoa học, Công nghệ và Môi trường (KH,CN&MT) của Quốc hội thấy rằng, việc gắn nhãn đối với các sản phẩm do AI tạo ra nhằm mục đích bảo đảm minh bạch và quyền được biết của người dùng; Phòng ngừa gian lận, sai lệch thông tin (giúp hạn chế việc lợi dụng AI để tạo tin giả, xuyên tạc, thao túng dư luận, hoặc giả mạo phát ngôn của cá nhân, tổ chức); Tăng trách nhiệm của tổ chức/cá nhân triển khai AI (giúp xác định nguồn gốc nội dung, hỗ trợ truy vết khi xảy ra rủi ro hoặc tranh chấp liên quan đến bản quyền, tính xác thực hoặc tác động tiêu cực); Bảo vệ an toàn xã hội và quyền riêng tư…
Như vậy, gắn nhãn là có sự ràng buộc về trách nhiệm đạo đức và pháp lý để xây dựng lòng tin trong kỷ nguyên AI. Do đó, Ủy ban KH,CN&MT cơ bản tán thành với quy định về gắn nhãn tại dự thảo Luật.
Quang cảnh phiên họp
Về mặt xã hội, AI đang đặt ra nhiều thách thức, bao gồm thay đổi mô hình lao động, nguy cơ thay thế một số nhóm nghề nghiệp, lan truyền thông tin sai lệch, rủi ro thiên vị trong các hệ thống ra quyết định tự động, cùng những tác động tới văn hóa, đạo đức và quyền riêng tư.
Do đó, Ủy ban KH,CN&MT đề nghị cần quy định rõ cơ chế đánh giá tác động xã hội của AI, bảo đảm việc ứng dụng công nghệ diễn ra an toàn, minh bạch và có trách nhiệm. Đồng thời, cần thiết lập các cơ chế hỗ trợ chuyển đổi việc làm, tái đào tạo và giải quyết các vấn đề phát sinh đối với người lao động bị ảnh hưởng bởi sự thay đổi do AI mang lại.
Đối với đối tượng dễ bị tổn thương như trẻ em, AI cũng tiềm ẩn những mặt trái đáng lo ngại như khi quá phụ thuộc vào AI để tìm câu trả lời hoặc giải quyết bài tập, trẻ em có nguy cơ mất đi cơ hội rèn luyện khả năng suy nghĩ độc lập, phân tích, và sáng tạo; dễ có hành vi lệch chuẩn; có thể lầm tưởng AI là một người bạn thật sự và hành động theo những lời khuyên từ AI mà những lời khuyên này có thể không phù hợp hoặc nguy hiểm; bị thao túng hoặc lừa đảo...
Vì vậy, Ủy ban đề nghị cơ quan chủ trì soạn thảo nghiên cứu bổ sung những quy định riêng nhằm bảo vệ trẻ em trước các mặt trái của AI, hướng trẻ em sử dụng AI một cách an toàn và lành mạnh, trong đó phát huy vai trò, trách nhiệm của phụ huynh, nhà trường trong việc giám sát, nâng cao nhận thức cho trẻ em về AI.
Về các hành vi bị cấm, Ủy ban KH,CN&MT đề nghị nghiên cứu bổ sung một điều riêng về “các hành vi bị nghiêm cấm trong lĩnh vực AI” nhằm giúp xác định rõ các hành vi vi phạm pháp luật trong hoạt động nghiên cứu, phát triển, triển khai và sử dụng AI, bao gồm cả hành vi của người sử dụng, tổ chức, cá nhân lợi dụng AI để thực hiện các hành vi bị cấm. Đồng thời, quy định này cũng góp phần tăng tính răn đe, minh bạch và thống nhất trong áp dụng pháp luật, bảo đảm tính toàn diện và đồng bộ của hệ thống quy định điều chỉnh lĩnh vực AI.
Ủy ban đề nghị làm rõ mối quan hệ giữa các hành vi bị cấm với các mức độ rủi ro, nhất là rủi ro không chấp nhận được; Cân nhắc bổ sung một số hành vi bị cấm như: Cấm sử dụng AI để thao túng bầu cử hoặc gây rối, kích động chính trị, xâm phạm an ninh quốc gia; Cấm sử dụng AI để nhận diện hoặc phân tích cảm xúc của cá nhân tại nơi làm việc, trong môi trường học tập hoặc các bối cảnh tương tự mà không có sự đồng ý của người bị ảnh hưởng; Cấm sử dụng AI nhằm phân biệt đối xử dựa trên dữ liệu sinh trắc học hoặc các đặc tính cá nhân khác…
Huệ Linh