Trong những năm gần đây, cùng với làn sóng chuyển đổi số, các ngân hàng và ví điện tử tại Việt Nam đã đẩy mạnh ứng dụng AI vào hoạt động chăm sóc khách hàng, từ tư vấn sản phẩm, hỗ trợ giao dịch đến giải đáp thắc mắc 24/7. Sự tiện lợi, tốc độ và khả năng xử lý khối lượng lớn yêu cầu cùng lúc khiến chatbot, trợ lý ảo hay tổng đài tự động dần trở thành “điểm chạm” quen thuộc giữa ngân hàng và khách hàng. Tuy nhiên, chính sự “vô hình” của AI trong quá trình tương tác cũng đặt ra những lo ngại về minh bạch thông tin, trách nhiệm giải trình và nguy cơ xâm phạm quyền lợi người dùng.
Ngân hàng phải thông báo khi khách hàng làm việc với AI.
Dự thảo Thông tư về an toàn, quản lý rủi ro và điều kiện ứng dụng AI trong ngành ngân hàng vì vậy đã dành hẳn một chương quy định về bảo vệ quyền lợi của khách hàng. Trong đó, yêu cầu thông báo ngay từ đầu khi khách hàng làm việc với hệ thống AI được xem là nguyên tắc nền tảng. Theo Ngân hàng Nhà nước, khách hàng có quyền được biết họ đang giao tiếp với con người hay với máy móc, đặc biệt trong các tình huống liên quan đến tư vấn tài chính, xử lý thông tin cá nhân hoặc đưa ra quyết định có thể ảnh hưởng trực tiếp đến quyền và lợi ích hợp pháp của mình.
Không chỉ dừng lại ở việc “nói rõ là AI”, dự thảo còn yêu cầu các ngân hàng, ví điện tử phải công bố minh bạch trong trường hợp sử dụng hệ thống trí tuệ nhân tạo để tạo ra nội dung có thể gây nhầm lẫn với sản phẩm do con người tạo ra, như hình ảnh, âm thanh, video hoặc các nội dung tổng hợp khác. Điều này nhằm tránh tình trạng khách hàng hiểu nhầm rằng mình đang nhận tư vấn trực tiếp từ nhân viên, trong khi thực chất là từ một mô hình tự động.
Một điểm đáng chú ý khác là quy định liên quan đến việc sử dụng AI để nhận diện cảm xúc hoặc phân loại sinh trắc học. Theo dự thảo, các hệ thống này chỉ được phép triển khai khi có mục đích cụ thể, cơ sở pháp lý hợp lệ và phải thông báo trước cho khách hàng. Đồng thời, đơn vị cung cấp dịch vụ phải xác định rõ phạm vi sử dụng dữ liệu, thời gian lưu trữ, biện pháp bảo vệ và tuân thủ đầy đủ các quy định của pháp luật về bảo vệ dữ liệu cá nhân. Đây là nội dung được đánh giá là nhạy cảm, bởi dữ liệu sinh trắc học và cảm xúc có thể bị lạm dụng nếu thiếu cơ chế kiểm soát chặt chẽ.
Tăng trách nhiệm giải trình, bảo vệ nhóm yếu thế
Bên cạnh yêu cầu minh bạch thông tin, dự thảo Thông tư của Ngân hàng Nhà nước còn đặt ra nghĩa vụ bảo đảm quyền khiếu nại và được xem xét lại bởi con người đối với các quyết định được đưa ra hoàn toàn tự động bởi hệ thống AI. Theo đó, nếu khách hàng không đồng ý với một quyết định của ngân hàng được hình thành trên cơ sở xử lý tự động, họ có quyền yêu cầu rà soát lại, và ngân hàng phải sử dụng nhân sự thực để đánh giá, đưa ra hướng xử lý cuối cùng.
Quy định này nhằm khắc phục rủi ro từ việc “trao toàn quyền” cho thuật toán, đặc biệt trong các quyết định liên quan đến cấp tín dụng, hạn mức giao dịch, phát hiện gian lận hay phân loại khách hàng. Dự thảo cũng yêu cầu các tổ chức tín dụng thiết lập bộ phận và quy trình tiếp nhận, xử lý khiếu nại liên quan đến việc sử dụng AI, bảo đảm yếu tố con người giữ vai trò quyết định cuối cùng.
Đáng chú ý, Ngân hàng Nhà nước nhấn mạnh nguyên tắc không phân biệt đối xử và bảo vệ nhóm khách hàng yếu thế. Theo đó, các ngân hàng không được sử dụng AI để khai thác điểm yếu của khách hàng do tuổi tác, khuyết tật, hạn chế về nhận thức hoặc tình trạng kinh tế – xã hội khó khăn nhằm chào mời, thúc đẩy họ sử dụng các sản phẩm, dịch vụ tài chính có mức độ rủi ro cao hoặc không phù hợp. Các hệ thống AI cũng phải được kiểm tra, giám sát thường xuyên để phát hiện và ngăn chặn các định kiến trong dữ liệu, mô hình hoặc thuật toán có thể dẫn đến phân biệt đối xử.
Hiện Bộ Khoa học và Công nghệ đang xây dựng dự thảo Nghị định quy định chi tiết một số điều và biện pháp để tổ chức, hướng dẫn thi hành Luật Trí tuệ nhân tạo.
Theo Ngân hàng Nhà nước, việc “siết” sử dụng AI trong hệ thống ngân hàng không nhằm kìm hãm đổi mới sáng tạo, mà để kiểm soát, giảm thiểu rủi ro phát sinh, bảo đảm khách hàng được đối xử công bằng và an toàn hơn. Trong bối cảnh AI ngày càng tinh vi, khả năng tác động đến hành vi và quyết định của người dùng ngày càng lớn, việc đặt ra các hàng rào pháp lý là cần thiết để bảo vệ nhóm yếu thế và duy trì niềm tin vào hệ thống tài chính.
Thực tế tại Việt Nam cho thấy, các ngân hàng đã bắt đầu thử nghiệm chatbot và trợ lý ảo từ khoảng một thập kỷ trước. Giai đoạn đầu, các hệ thống này chủ yếu hoạt động theo kịch bản sẵn có, trả lời dựa trên bộ quy tắc cố định và nhận dạng từ khóa. Tuy nhiên, với sự phát triển nhanh chóng của AI tạo sinh (Generative AI), nhiều tổ chức đang hướng tới việc sử dụng các mô hình thông minh hơn, có khả năng đối thoại tự nhiên, trả lời linh hoạt các câu hỏi liên quan đến giao dịch, thẻ, lãi suất, tỷ giá hay thậm chí tư vấn sản phẩm. Chính sự “thông minh” này cũng làm gia tăng nguy cơ nhầm lẫn và phụ thuộc nếu thiếu cơ chế minh bạch và giám sát phù hợp.
Theo dự thảo, các quy định mới dự kiến có hiệu lực từ tháng 3. Đối với các hệ thống AI đã được triển khai trước thời điểm này, thời hạn tuân thủ được lùi đến tháng 9/2027 để các ngân hàng, ví điện tử có đủ thời gian rà soát, điều chỉnh.
Ở tầm rộng hơn, những quy định trong lĩnh vực ngân hàng cũng đặt trong tổng thể nỗ lực xây dựng hành lang pháp lý cho AI tại Việt Nam. Hiện Bộ Khoa học và Công nghệ đang xây dựng dự thảo Nghị định quy định chi tiết một số điều và biện pháp để tổ chức, hướng dẫn thi hành Luật Trí tuệ nhân tạo. Nghị định này hướng tới quản lý rủi ro dựa trên mức độ, tăng cường minh bạch, trách nhiệm giải trình, đồng thời tạo thuận lợi cho tổ chức, doanh nghiệp và cá nhân tham gia nghiên cứu, phát triển, triển khai AI.
Việc đồng thời ban hành các quy định chuyên ngành, như trong lĩnh vực ngân hàng, và khung pháp lý chung cho AI được kỳ vọng sẽ tạo nền tảng cho sự phát triển bền vững của công nghệ này tại Việt Nam. Với người dùng, đặc biệt là khách hàng ngân hàng, yêu cầu “phải được biết khi làm việc với AI” không chỉ là một quy định kỹ thuật, mà còn là cam kết về quyền được thông tin, được bảo vệ và được tôn trọng trong kỷ nguyên số.
Đình Khương