Bán thuốc theo 'đơn AI' liệu có vi phạm pháp luật?

Bán thuốc theo 'đơn AI' liệu có vi phạm pháp luật?
2 giờ trướcBài gốc
Chiều 27-11, theo nghị trình, Quốc hội thảo luận tại hội trường về dự án Luật Trí tuệ nhân tạo (AI).
Người bán thuốc theo các đơn AI có vi phạm pháp luật?
Nêu ý kiến, đại biểu Trần Khánh Thu (đoàn Hưng Yên) cho rằng đây là một đạo luật hết sức mới. “Ngay cả trí tuệ nhân tạo là gì, sử dụng trí tuệ nhân tạo như thế nào cho có hiệu quả, an toàn và đáp ứng đúng yêu cầu cũng là một vấn đề mới với các tổ chức cá nhân sử dụng” - bà nói.
Nữ đại biểu đánh giá dự thảo đang thiên về phần kỹ thuật và quản lý vận hành dữ liệu chung, đối với một số ngành nghề tác động lớn thì chưa thực sự rõ ràng, dẫn đến khi thực hiện sử dụng không biết mình có vi phạm luật không.
Đại biểu Phạm Khánh Thu (đoàn Hưng Yên). Ảnh: QH
Bà Thu cho hay việc áp dụng trí tuệ nhân tạo trong y tế đang ngày càng phát triển, tuy nhiên vẫn đối mặt với nhiều thách thức như cơ sở hạ tầng hạn chế, khả năng tiếp cận công nghệ và nhân lực y tế chưa đồng đều.
Nữ đại biểu đoàn Hưng Yên dẫn lại câu chuyện một nữ bệnh nhân 55 tuổi, ở TP.HCM được đưa đến Bệnh viện cấp cứu trong tình trạng lơ mơ, không nhận biết xung quanh.
Con gái bệnh nhân cho hay trước đó thấy mẹ bị chóng mặt, khó thở, cô nhờ trí tuệ nhân tạo (AI) chẩn đoán và ra tiệm thuốc mua thuốc. Cô chỉ đưa mẹ đi cấp cứu sau khi thấy tình trạng người mẹ ngày càng tệ hơn. Tại bệnh viện, bác sĩ xác định bệnh nhân bị tổn thương não, đột quỵ và dù được cứu qua nguy kịch, song di chứng để lại khó tránh khỏi.
“Vậy người bán thuốc theo các đơn AI này thì có vi phạm pháp luật không?” - nữ đại biểu đặt vấn đề.
Bà Trần Khánh Thu cho hay các sản phẩm phục vụ khám bệnh, chữa bệnh dựa trên trí tuệ nhân tạo hiện vẫn phải tuân theo quy trình cấp phép chung dành cho thiết bị y tế nhưng thiếu các tiêu chuẩn và quy định riêng về trí tuệ nhân tạo cho các sản phẩm đó.
Ngoài ra, một số vấn đề như trách nhiệm pháp lý trong trường hợp trí tuệ nhân tạo mắc sai sót, bảo mật dữ liệu y tế, bảo đảm an toàn cho bệnh nhân… cũng chưa được quy định rõ ràng trong các văn bản quy phạm pháp luật hiện hành.
“Tôi rất hi vọng trong dự thảo Luật Trí tuệ nhân tạo lần này sẽ có thêm điều khoản khung pháp lý cụ thể hơn để quản lý các sản phẩm trí tuệ nhân tạo trong y tế, đặc biệt là về trách nhiệm của các bên liên quan” - bà Thu nói.
Nguy cơ người sẽ biến thành máy trước khi máy biến thành người
Phát biểu trước Quốc hội, đại biểu Phạm Trọng Nghĩa (đoàn Lạng Sơn) cảnh báo về sự lạm dụng AI. Theo ông, cùng với cơ hội, sự phụ thuộc quá mức vào AI làm giảm năng lực tư duy và khả năng sáng tạo. Việc lạm dụng AI tiềm ẩn nhiều bất ổn, như xâm phạm chủ quyền quốc gia, giảm hiệu lực của quản trị công và ảnh hưởng tiêu cực đến mỗi cá nhân, mỗi gia đình nhất là thế hệ trẻ.
“Đã có ý kiến khoa học lo ngại nếu không kiểm soát tốt thì dẫn đến nguy cơ người sẽ biến thành máy trước khi máy biến thành người” - ông Nghĩa cho biết.
Đại biểu Phạm Trọng Nghĩa (đoàn Lạng Sơn). Ảnh: QH
Đối với khu vực công, đại biểu đoàn Lạng Sơn nhận định lạm dụng AI làm giảm tính khả thi, tính nhân văn và hiệu quả của chính sách, pháp luật. Việc cung cấp các thông tin, dữ liệu nhạy cảm vào AI, nếu không được kiểm soát chặt, có thể dẫn đến rò rỉ dữ liệu, gây tổn hại đến an ninh quốc gia và trật tự an toàn xã hội với hệ lụy khó lường.
“AI không trung lập. AI là công cụ của người tạo ra nó. Có những việc mà người dùng không biết nhưng người phát triển hay người sở hữu công nghệ lại biết. Lạm dụng AI có thể làm cho chính sách công bị “bẻ lái” phục vụ mục đích của người phát triển, người sở hữu công nghệ - mà hiện thường ở nước ngoài” - ông Nghĩa nói.
Từ nhận định trên, đại biểu đề nghị bổ sung vào dự thảo Luật một điều quy định hành vi bị nghiêm cấm, trong đó có cấm lạm dụng AI trong khu vực công. Đồng thời, đề nghị Chính phủ sớm ban hành quy định về trách nhiệm khi sử dụng AI trong công vụ và ban hành Khung đạo đức trí tuệ nhân tạo; xây dựng cơ chế vượt trội để phát triển AI Việt và xem xét bổ sung quy định cần thiết trong dự thảo Luật Đầu tư (sửa đổi) đang trình Kỳ họp này.
Đại biểu đoàn Lạng Sơn cũng đề nghị xem xét quy định cụ thể hơn về trách nhiệm pháp lý (hình sự, hành chính, dân sự) trong việc phát triển và sử dụng AI. Theo đó, xác định AI không phải là chủ thể pháp lý, không chịu trách nhiệm dân sự, hành chính hoặc hình sự.
Luật cần quy định trách nhiệm pháp lý của ba nhóm chủ thể: Bên triển khai hệ thống trí tuệ nhân tạo; nhà cung cấp hệ thống trí tuệ nhân tạo và nhà phát triển hệ thống trí tuệ nhân tạo.
Ngoài ra, ông đề nghị bổ sung quy định về bảo hiểm trách nhiệm đối với việc phát triển và sử dụng AI.
Tiếp cận dựa trên rủi ro, không dựa trên công nghệ
Đại biểu Phạm Trọng Nhân (đoàn TP.HCM) cho rằng trong bối cảnh thế giới đang chạy đua phát triển trí tuệ nhân tạo với nhiều lựa chọn, nhiều chiến lược khác nhau, từ siết chặt bảo vệ người dân cho đến mở rộng để thúc đẩy đổi mới. “Không có mô hình chung cho tất cả. Điều quan trọng là Việt Nam phải chọn đường đi phù hợp nhất cho mình” - đại biểu nói.
Ông Phạm Trọng Nhân cho rằng tên gọi của Luật chưa phản ánh đúng bản chất đối tượng điều chỉnh. Theo ông, trí tuệ nhân tạo không tồn tại như một thực thể độc lập, mà hoạt động trong một hệ thống gồm công nghệ nền tảng, mô hình thuật toán, dữ liệu, hạ tầng tính toán và sự kiểm soát của con người.
Đại biểu Phạm Trọng Nhân (đoàn TP.HCM). Ảnh: QH
Nhận định tên gọi “Luật Trí tuệ nhân tạo” là không bao quát, thiếu chính xác về khoa học và pháp lý, đại biểu kiến nghị đổi thành Luật Hệ thống trí tuệ nhân tạo. “Ngay cả đạo luật AI của EU cũng không quản lý “trí tuệ” mà quản lý hệ thống AI” - ông Nhân nói và đề nghị dự thảo đi theo sáu định hướng lớn.
Đáng chú ý, ông Phạm Trọng Nhân đề nghị áp dụng cách tiếp cận dựa trên rủi ro, không dựa trên công nghệ. Cụ thể, ông đề xuất phân loại rõ bốn bậc.
– Rủi ro thấp: Tạo hành lang thông thoáng để khuyến khích sáng tạo.
– Rủi ro trung bình: Yêu cầu gắn nhãn, minh bạch, thông báo cho người dùng.
– Rủi ro cao: Trong các lĩnh vực như y tế, tư pháp, tín dụng… phải có cơ chế kiểm soát bắt buộc, chứng nhận an toàn, giám sát của con người và trách nhiệm giải trình rõ ràng.
“Thực tế đã có không ít “bác sĩ AI”, “luật sư AI” tư vấn sai; nếu không kiểm soát chặt, hậu quả với sức khỏe, quyền con người và tài sản của người dân là không thể lường được” - đại biểu đoàn TP.HCM nói.
– Rủi ro không thể chấp nhận: Cần cấm tuyệt đối hoặc hạn chế nghiêm ngặt, như AI thao túng hành vi, deepfake gây tổn hại danh dự, chấm điểm xã hội, quảng cáo nhắm mục tiêu theo tôn giáo, sắc tộc, chính kiến...
“Đây là các ứng dụng có nguy cơ xâm phạm nghiêm trọng đến nhân phẩm, quyền con người và an ninh quốc gia” - ông Phạm Trọng Nhân cho biết.
Nhấn mạnh việc bảo vệ quyền công dân, ông Nhân cho rằng người dân có quyền biết, quyền được giải thích, quyền khiếu nại khi một quyết định quan trọng về mình do AI đưa ra.
Đại biểu đoàn TP.HCM cũng kiến nghị buộc các nền tảng nước ngoài có trên 5 triệu người dùng tại Việt Nam phải đặt pháp nhân tại Việt Nam và chịu trách nhiệm quản lý như doanh nghiệp Việt. Theo ông, đây là vấn đề rất cần nghiên cứu để đảm bảo chủ quyền số.
Đặc biệt, ông Phạm Trọng Nhân cho rằng cần quy định chế tài đủ mạnh, phạt hành chính là chưa đủ, mà phải xử lý hình sự đối với các đối tượng cố ý triển khai AI rủi ro cao mà không kiểm thử và không minh bạch.
“Chúng ta không muốn AI trở thành một rủi ro mới, mà phải trở thành động lực mới, sức mạnh mới, năng lực cạnh tranh mới cho nền kinh tế, cho người dân và tương lai của đất nước” - ông Phạm Trọng Nhân nói.
Từ đó, ông đề nghị cơ quan soạn thảo tiếp tục hoàn thiện dự thảo theo các định hướng: rõ phạm vi, rõ trách nhiệm, rõ quyền công dân, rõ cơ chế cập nhật; cân bằng giữa đổi mới và an toàn và đặt con người làm trung tâm.
NHÓM PHÓNG VIÊN
Nguồn PLO : https://plo.vn/ban-thuoc-theo-don-ai-lieu-co-vi-pham-phap-luat-post883774.html