Bài học từ bê bối AI của hãng kiểm toán 'big 4'

Bài học từ bê bối AI của hãng kiểm toán 'big 4'
5 giờ trướcBài gốc
Deloitte vừa bồi thường hợp đồng do dùng AI bịa trích dẫn. Ảnh: Reuters.
Bê bối AI mới đây của Deloitte, một trong 4 hãng kiểm toán hàng đầu thế giới, đang trở thành hồi chuông cảnh tỉnh cho nhiều người.
Cụ thể, Deloitte Australia được Bộ Việc làm và Quan hệ Lao động Australia (DEWR) thuê để thực hiện một báo cáo về cơ chế xử phạt tự động trong hệ thống phúc lợi. Công ty đã hoàn thành dự án kéo dài 7 tháng, trị giá tương đương khoảng 290.000 USD vào tháng 6. Tuy nhiên, trong báo cáo chính thức được công bố ngày 4/7, học giả Dr. Chris Rudge từ Đại học Sydney phát hiện hàng loạt trích dẫn học thuật không tồn tại, một án lệ bị bịa, và cả lỗi chính tả tên thẩm phán.
DEWR sau đó đã âm thầm đăng tải một phiên bản sửa lỗi trên trang web của mình. Theo AFR, bản mới này đã xóa hơn chục tài liệu tham khảo và chú thích không tồn tại, viết lại toàn bộ danh sách tài liệu tham khảo, và sửa nhiều lỗi đánh máy.
Trong báo cáo được cập nhật, Deloitte cũng tiết lộ phương pháp thực hiện của họ “bao gồm việc sử dụng chuỗi công cụ dựa trên mô hình ngôn ngữ lớn (Azure OpenAI GPT-4o) được DEWR cấp phép và lưu trữ trên hệ thống Azure của DEWR”. Công ty cũng thừa nhận các thiếu sót và đồng ý hoàn trả phần thanh toán cuối cùng theo hợp đồng.
Số tiền đền bù không phải quá lớn, nhưng sai sót đã ảnh hưởng lớn đến danh tiếng một trong bốn công ty kiểm toán uy tín nhất thế giới. Vụ việc vẫn đang được bàn luận trong các hội nhóm kiểm toán viên trên Reddit, Facebook và mang đến nhiều bài học cho cá nhân, doanh nghiệp sử dụng AI trong quy trình làm việc.
Ông Đào Trung Thành, Phó viện trưởng Viện ABAII, nhận xét rằng vụ việc của Deloitte gây ra bởi vết nứt trong quy trình tin tưởng máy móc. Cơ chế vận hành của các mô hình ngôn ngữ lớn (LLM) là dự đoán xác suất cho từ tiếp theo. AI không cố lừa con người, nhưng có nhiệm vụ đưa ra câu trả lời hợp lý cho tất cả câu hỏi, bất chấp việc bịa đáp án.
Các công ty trí tuệ nhân tạo, bao gồm OpenAI đã thừa nhận rằng các bài kiểm tra học máy đã đặt áp lực lên chatbot khi chấm sai cho các câu hỏi bị bỏ trống, khiến chúng phải đoán mò kết quả. Ngoài ra, họ cho rằng con người cũng không thích và có khả năng chuyển sang dùng chatbot đối thủ khi không nhận được từ ít nhất 70% câu trả lời.
Người dùng đòi hỏi thông tin nhưng ít khi kiểm tra lại chúng. “Vấn đề không nằm ở AI, ngược lại, do con người đặt quá nhiều niềm tin mà không kiểm chứng”, ông Thành viết trên mạng xã hội.
Ông cũng cho biết bản thân dùng AI mỗi ngày, từ soạn outline, tóm tắt tài liệu, nhưng vẫn luôn giữ giới hạn không thay con người ở phần trích dẫn và kết luận. Ông khuyên rằng mọi trích dẫn đều phải được con người tự tay kiểm lại, không được có ngoại lệ.
Ethan Mollick, giáo sư tại trường Wharton, nhà nghiên cứu AI, đã viết về quy tắc làm việc với trí tuệ đồng hành (Co-intelligence) trong quyển sách của mình.
Đầu tiên, người dùng cần giới hạn nhiệm vụ AI làm gì hay không làm gì và kiểm chứng các nguồn độc lập, đặc biệt phần pháp lý và trích dẫn. Ở cuối bài, hãy ký tên chịu trách nhiệm cuối cùng, kể cả phần được AI hỗ trợ và quan trọng là công khai việc dùng AI cho người đọc.
Checklist thực hành cho những người làm tư vấn từ ông Đào Trung Thành:
- Công khai phạm vi dùng AI trong báo cáo.
- Lưu chuỗi truy xuất nguồn (provenance log).
- Tách đội kiểm chứng trích dẫn độc lập.
- Dùng thông tin từ nguồn pháp lý chính thống.
- Dò hallucination (lỗi sai của AI) trước QA cuối cùng.
- Có acceptance gate (cổng canh gác cuối) nếu sai nguồn, loại bỏ và sửa lại.
Nhật Tường
Nguồn Znews : https://znews.vn/bai-hoc-tu-be-boi-ai-cua-hang-kiem-toan-big-4-post1592565.html