Cẩn thận với chuyên gia 'biết tuốt' ChatGPT

Cẩn thận với chuyên gia 'biết tuốt' ChatGPT
19 giờ trướcBài gốc
Chat GPT được xem là chuyên gia "biết tuốt" số bởi nhiều ưu điểm nhưng vẫn tiềm ẩn nhiều rủi ro (Ảnh minh họa)
N.L.N (phường Thuận Hóa) có dấu hiệu bị trầm cảm. Thay vì tìm đến chuyên gia tâm lý, cô lại đặt niềm tin vào… ChatGPT với mong muốn được chẩn đoán và “kê đơn”. Ban đầu, ChatGPT tỏ ra rất chuyên nghiệp khi gợi ra đúng một số triệu chứng bệnh mà cô mắc phải, nhưng càng về sau, “chuyên gia số” càng đuối sức, thường xuyên đưa ra những lời khuyên vô thưởng vô phạt, sáo rỗng và thiếu căn cứ. Sau một thời gian dài phụ thuộc vào ChatGPT, căn bệnh trầm cảm của L.N không có dấu hiệu thuyên giảm mà còn gia tăng sự cô lập và mất kết nối xã hội.
Thời gian vừa qua, trên mạng xã hội từng lan truyền nhiều câu chuyện “dở khóc, dở cười” khi có người hỏi ChatGPT rằng chồng mình có ngoại tình hay không? Sau khi nhận được câu trả lời chắc nịch là “có” kèm một loạt lý lẽ trông có vẻ rất logic, nhiều người trở nên u uất, đau buồn và mất ăn mất ngủ, thậm chí có trường hợp còn dọa ly hôn người chồng “bội bạc” chỉ vì tin lời chatbot AI này.
Không chỉ ở lĩnh vực tâm lý hay đời sống hôn nhân, một bộ phận người dùng lạm dụng ChatGPT trong mọi quyết định. Chỉ cần một câu lệnh đơn giản, chatGPT sẽ cho ra đáp án nhanh chóng, khiến nhiều người lầm tưởng đây là một chuyên gia “biết tuốt” thực thụ. Thực tế, ChatGPT biết cách diễn giải các nội dung được huấn luyện từ dữ liệu và nguồn thu thập từ không gian mạng. Nó sẽ tra cứu, tóm tắt và trình bày lại với tông giọng mạch lạc, tự nhiên như thể là một con người thực thụ chỉ trong một khoảng thời gian ngắn (tốc độ chỉ tính bằng giây, phút).
Ưu điểm của ChatGPT là giúp chúng ta tiết kiệm thời gian khi tra cứu thông tin, nội dung rõ ràng, trình bày tự nhiên và sáng tạo. Tuy nhiên, rủi ro lại không hề nhỏ. Với khả năng tự học hỏi, khi nhận được phản hồi câu trả lời là sai thì ChatGPT sẽ tự động sửa chữa lỗi và đưa ra câu trả lời mới cho các lần giao tiếp sau đó. AI cũng có xu hướng “ba phải”, hùa theo công nhận để làm hài lòng thay vì giúp người dùng nhìn nhận ra vấn đề. Điều này có nghĩa là, chúng ta khó mà nắm bắt được lúc nào thì ChatGPT nói đúng, lúc nào lại trả lời sai.
Anh Nguyễn Thành Đức, chuyên viên IT với trên 10 năm kinh nghiệm, hiện đang là Team Leader tại Công ty Rikkeisoft Global - Rikkeisoft cho hay: “Việc sử dụng ChatGPT tiềm ẩn nhiều rủi ro. Về mặt kỹ thuật, AI có thể phát sinh hiện tượng “ảo giác” (hallucination) - tạo ra thông tin sai hoặc không tồn tại, dễ dẫn đến lan truyền tin thất thiệt nếu người dùng không kiểm chứng. Về mặt đạo đức - xã hội, dữ liệu huấn luyện có thể chứa thiên kiến lịch sử (historical bias), từ đó ảnh hưởng đến tính công bằng trong các quyết định. Ngoài ra, nội dung do AI tạo ra có thể vi phạm bản quyền hoặc quy định bảo mật nếu sử dụng mà không kiểm tra nguồn. Việc lạm dụng AI cũng làm giảm khả năng tư duy phản biện và nghiên cứu độc lập của người dùng”.
Anh Đức cho biết thêm, một số dữ liệu người dùng nhập vào hệ thống AI, đặc biệt trên các nền tảng trực tuyến, có thể được lưu trữ hoặc sử dụng để huấn luyện mô hình, dẫn đến nguy cơ rò rỉ thông tin cá nhân và bí mật doanh nghiệp.
Để tránh những rủi ro khi sử dụng các phần mềm AI, anh Đức khuyến nghị người dùng không nhập dữ liệu nhạy cảm (bí mật công ty, thông tin cá nhân, tài liệu nội bộ chưa công bố); xác minh chéo nguồn thông tin từ các kênh chính thống trước khi trích dẫn hoặc công bố; ghi chú rõ nguồn gốc nếu nội dung có yếu tố do AI tạo ra (đảm bảo minh bạch khi công bố hoặc nộp báo cáo); sử dụng AI như công cụ hỗ trợ, không thay thế hoàn toàn tư duy con người - đặc biệt trong các lĩnh vực yêu cầu sáng tạo, đánh giá hoặc đạo đức nghề nghiệp.
Bài, ảnh: Phước An
Nguồn Thừa Thiên Huế : https://huengaynay.vn/ban-doc/can-than-voi-chuyen-gia-biet-tuot-chatgpt-159453.html