Sắp ban hành Thông tư mới kiểm soát rủi ro khi ứng dụng AI 'phủ sóng' ngành ngân hàng

Sắp ban hành Thông tư mới kiểm soát rủi ro khi ứng dụng AI 'phủ sóng' ngành ngân hàng
2 giờ trướcBài gốc
Khung pháp lý mới cho AI ngân hàng
Hiệp hội Ngân hàng Việt Nam (VNBA) vừa có văn bản gửi Tổng Giám đốc các tổ chức hội viên đề nghị nghiên cứu, tham gia góp ý đối với dự thảo Thông tư quy định về an toàn, quản lý rủi ro và điều kiện triển khai ứng dụng trí tuệ nhân tạo trong ngành ngân hàng, theo đề nghị của Cục Công nghệ Thông tin, Ngân hàng Nhà nước Việt Nam tại Công văn số 1162/NHNN-CNTT ngày 13/2/2026.
Theo Cục Công nghệ thông tin, việc xây dựng Thông tư nhằm bảo đảm phù hợp với chủ trương, đồng thời thống nhất và đồng bộ với hệ thống pháp luật hiện hành.
Việc xây dựng Thông tư được xác định là cần thiết nhằm thiết lập khung yêu cầu tối thiểu về an toàn, quản lý rủi ro và điều kiện triển khai AI trong hoạt động ngân hàng; đồng thời kiểm soát, giảm thiểu rủi ro phát sinh từ việc ứng dụng AI trong các nghiệp vụ.
Bên cạnh đó, Thông tư cũng hướng tới bảo đảm an toàn hệ thống ngân hàng, bảo vệ quyền và lợi ích hợp pháp của các tổ chức, cá nhân liên quan, đồng thời đáp ứng tiến độ ban hành các văn bản hướng dẫn thi hành Luật Trí tuệ nhân tạo, bảo đảm việc triển khai được thống nhất, đồng bộ trong toàn ngành.
Sắp ban hành Thông tư mới kiểm soát rủi ro khi ứng dụng AI "phủ sóng" ngành ngân hàng. Ảnh minh họa.
Ngân hàng Nhà nước cũng chỉ rõ, việc triển khai AI cũng phát sinh những rủi ro, thách thức về an ninh, an toàn hệ thống thông tin; rủi ro về mô hình thuật toán có thể dẫn đến sai lệch/thiên lệch dữ liệu đầu ra; có thể xâm phạm quyền riêng tư dữ liệu khách hàng, từ đó, tác động đến quyền, lợi ích hợp pháp của tổ chức, cá nhân.
Trong bản thuyết minh xây dựng dự thảo Thông tư, Ngân hàng Nhà nước cho biết, trong thời gian qua, các đơn vị trong ngành ngân hàng đã đẩy mạnh ứng dụng AI trong nhiều nghiệp vụ như: AI dùng để chấm điểm tín dụng (Credit Scoring), thẩm định cho vay, phát hiện gian lận thanh toán, tư vấn tự động (chatbot), eKYC (định danh khách hàng điện tử)…
Việc ứng dụng công nghệ này góp phần nâng cao hiệu quả vận hành và cải thiện trải nghiệm khách hàng.
Dự thảo Thông tư được xây dựng với kết cấu gồm 06 Chương, 27 Điều, tiếp cận theo hướng quản lý dựa trên mức độ rủi ro, quy định một cách có hệ thống các yêu cầu về an toàn, quản lý rủi ro và điều kiện triển khai ứng dụng trí tuệ nhân tạo (AI) trong ngành ngân hàng, nhằm thiết lập khung quản lý thống nhất trong toàn ngành, bảo đảm an toàn hoạt động ngân hàng và bảo vệ quyền, lợi ích hợp pháp của khách hàng.
Nhận diện rủi ro, truy vết đầy đủ
Trên cơ sở các nguyên tắc chung được quy định tại Chương I, Chương II tập trung quy định các yêu cầu bảo đảm an toàn trong toàn bộ vòng đời của hệ thống trí tuệ nhân tạo, từ giai đoạn thiết kế, thu thập và xử lý dữ liệu, phát triển và huấn luyện mô hình, kiểm thử, triển khai, vận hành, giám sát cho đến ngừng sử dụng hệ thống.
Bên cạnh đó, Chương II thiết lập cơ chế quản lý thay đổi, xử lý sự cố, ghi nhận và truy vết đầy đủ nhằm bảo đảm tính liên tục hoạt động, khả năng khôi phục hệ thống và phục vụ hiệu quả công tác kiểm tra, thanh tra, giám sát khi cần thiết.
"Đơn vị phải áp dụng mô hình ba tuyến bảo vệ trong quản lý rủi ro trí tuệ nhân tạo theo quy định về hệ thống kiểm soát nội bộ do Thống đốc Ngân hàng Nhà nước ban hành" - Điều 14 dự thảo Thông tư nêu rõ.
Theo đó, các loại rủi ro đối với ứng dụng trí tuệ nhân tạo phải được quản lý bao gồm tối thiểu: rủi ro mô hình trí tuệ nhân tạo; rủi ro chất lượng dữ liệu; rủi ro an ninh mạng; rủi ro tuân thủ pháp luật; rủi ro đạo đức và nguy cơ phân biệt đối xử; rủi ro từ bên thứ ba; rủi ro chuỗi cung ứng; rủi ro danh tiếng.
Chương V quy định các nội dung nhằm bảo đảm quyền và lợi ích hợp pháp của khách hàng trong quá trình các tổ chức tín dụng ứng dụng trí tuệ nhân tạo vào hoạt động ngân hàng, gắn với yêu cầu nâng cao mức độ bảo vệ khách hàng và tăng cường niềm tin đối với dịch vụ ngân hàng số.
"Thông qua các quy định này, Thông tư hướng tới việc bảo đảm khách hàng được đối xử công bằng, được bảo vệ phù hợp và được sử dụng dịch vụ ngân hàng an toàn trong bối cảnh ứng dụng trí tuệ nhân tạo ngày càng mở rộng" - Ngân hàng Nhà nước nêu rõ.
Theo đó, khi triển khai chatbot, trợ lý ảo hoặc tổng đài tự động, tổ chức phải thông báo rõ cho khách hàng biết là đang tương tác với hệ thống AI ngay từ đầu phiên làm việc. Nếu AI tạo ra hình ảnh, âm thanh, video hoặc nội dung có thể gây nhầm lẫn với con người, đơn vị cũng phải công bố rõ nguồn gốc do AI tạo ra.
"Đơn vị phải thiết lập bộ phận và quy trình tiếp nhận, xử lý khiếu nại liên quan đến việc sử dụng hệ thống trí tuệ nhân tạo; trong đó bảo đảm việc rà soát, đánh giá lại bởi con người đối với các quyết định tự động bị khiếu nại và sử dụng kết quả rà soát của con người làm căn cứ cuối cùng để giải quyết khiếu nại" - khoản 4 Điều 21 dự thảo Thông tư nêu rõ.
Điều 22 bổ sung yêu cầu kiểm soát nguy cơ thiên lệch, phân biệt đối xử, đặc biệt với nhóm yếu thế; nghiêm cấm khai thác điểm yếu của khách hàng để thúc đẩy các quyết định tài chính rủi ro hoặc không phù hợp.../.
Điều 23 về chế độ báo cáo tại dự thảo Thông tư nêu rõ, đơn vị có trách nhiệm gửi báo cáo về Ngân hàng Nhà nước (Cục Công nghệ thông tin) các nội dung sau. Một là, báo cáo sự cố nghiêm trọng trong vòng 24 giờ kể từ thời điểm sự cố được phát hiện và báo cáo hoàn thành khắc phục sự cố trong vòng 5 ngày làm việc sau khi hoàn thành khắc phục sự cố. Hai là, báo cáo đột xuất theo yêu cầu của Ngân hàng Nhà nước./.
Tú Anh
Nguồn Thời báo Tài chính : https://thoibaotaichinhvietnam.vn/sap-ban-hanh-thong-tu-moi-kiem-soat-rui-ro-khi-ung-dung-ai-phu-song-nganh-ngan-hang-192642.html