Từ bê bối quốc tế đến yêu cầu nội tại
Chatbot Grok của tỷ phú Elon Musk mới đây đã bị phát hiện có khả năng tạo ra các nội dung khiêu dâm giả mạo, thậm chí liên quan đến trẻ vị thành niên. Đại diện Bộ Khoa học và Công nghệ (KH&CN) đã lên tiếng xung quanh vấn đề này.
EU "tuýt còi" chatbot Grok sau bê bối nội dung AI gây phẫn nộ
Câu hỏi đặt ra là: Chúng ta sẽ phân loại và xử lý các công cụ AI tạo sinh như Grok theo tiêu chí nào để bảo vệ người dùng?
Ba cấp độ phân loại rủi ro AI
Theo ông Trần Văn Sơn, Phó Viện trưởng Viện Công nghệ số và Chuyển đổi số quốc gia, việc quản lý AI tại Việt Nam sẽ không áp dụng "cào bằng" mà dựa trên nguyên tắc phân loại rủi ro. Cụ thể:
Nhóm rủi ro thấp: Các ứng dụng AI không gây hại trực tiếp đến quyền lợi con người (như bộ lọc thư rác, công cụ hỗ trợ dịch thuật cơ bản).
Nhóm rủi ro trung bình: Đây là nơi các chatbot như Grok, ChatGPT hay Gemini đang đứng. Chúng có khả năng tạo nội dung gây nhầm lẫn hoặc tác động tiêu cực đến tâm lý, xã hội. Nhóm này bắt buộc phải tuân thủ tính minh bạch, dán nhãn nội dung do AI tạo ra.
Ông Trần Văn Sơn, Phó Viện trưởng Viện Công nghệ số và Chuyển đổi số quốc gia
Nhóm rủi ro cao/nghiêm cấm: Các hệ thống AI vi phạm pháp luật, tạo deepfake lừa đảo, xâm hại trẻ em hoặc đe dọa an ninh quốc gia. Khi một hệ thống rủi ro trung bình để xảy ra sự cố như Grok, cơ quan quản lý có quyền nâng cấp phân loại lên mức rủi ro cao để áp dụng các biện pháp kiểm soát chặt chẽ nhất.
"Thẻ vàng" cho nhà cung cấp: Tạm dừng và giải trình
Điểm mới trong phương thức quản lý là quyền lực của cơ quan nhà nước trong việc can thiệp trực tiếp. Ông Sơn khẳng định, nếu phát hiện hệ thống AI có nguy cơ gây hại, Bộ KH&CN có trách nhiệm yêu cầu nhà cung cấp:
Tạm dừng hoạt động để đánh giá lại mức độ an toàn.
Giải trình chi tiết về nguyên lý hoạt động, thuật toán và các biện pháp quản lý rủi ro mà doanh nghiệp đã thiết lập (nếu có).
Áp dụng định danh (Watermark): Đây là yêu cầu kỹ thuật bắt buộc để mọi sản phẩm đầu ra của AI đều có thể truy vết được nguồn gốc, tránh việc phát tán deepfake ẩn danh.
Không chỉ là xử phạt hành chính
Việt Nam đang xây dựng một khung pháp lý đa tầng để đối phó với các vi phạm từ AI. Đối với các hành vi tạo nội dung khiêu dâm trẻ em hoặc gây mất trật tự xã hội như bê bối Grok vừa qua, chế tài không chỉ dừng lại ở việc cắt dịch vụ hay phạt tiền.
Cá nhân, tổ chức phát tán hoặc cung cấp công cụ cho các hành vi này có thể bị truy cứu trách nhiệm hình sự theo quy định của pháp luật hiện hành. Bộ KH&CN sẽ là cơ quan đầu mối chủ trì, phối hợp với các bộ ngành liên quan để tổ chức thanh tra, kiểm tra và "thanh lọc" các công cụ AI không đạt chuẩn an toàn.
Sự việc Grok là lời nhắc nhở rằng công nghệ không thể đứng trên pháp luật. Việt Nam đang từng bước hoàn thiện "hàng rào an toàn" để AI trở thành động lực phát triển thay vì là nguồn cơn của những rủi ro đạo đức và an ninh.
Nam Phong