Cảnh báo dùng ChatGPT để tâm sự
Theo các số liệu mới nhất, ChatGPT hiện là ứng dụng trí tuệ nhân tạo (AI) được ưa chuộng nhất trên thế giới với khoảng 800 triệu đến gần 1 tỉ người dùng hằng tuần, tính đến tháng 7.2025.
Số lượt truy cập hằng tháng lên đến 4,6 tỉ, và người dùng toàn cầu gửi hơn 2,5 tỉ yêu cầu (prompts) tới ChatGPT mỗi ngày, ở hơn 195 quốc gia.
Sự phổ biến bùng nổ đó cũng kéo theo nhiều hệ lụy, đặc biệt là việc người dùng ngày càng xem ChatGPT như một người bạn tri kỷ, một nơi để chia sẻ các vấn đề tâm lý, tình cảm, hay thậm chí tư vấn pháp lý.
Tuy nhiên, chính Sam Altman - CEO OpenAI lại thẳng thắn cho biết trên podcast This Past Weekend: “Tôi nghĩ mọi người nên có sự rõ ràng về quyền riêng tư và pháp lý trước khi sử dụng nó để chia sẻ những điều thầm kín nhất”.
Sam Altman cảnh báo người dùng cần đề cao tính bảo mật để tránh rủi ro - Ảnh: ladbible.com
Ranh giới mong manh giữa tiện ích và rủi ro
Altman cho biết hiện nhiều người trẻ dùng ChatGPT như nhà trị liệu tâm lý, huấn luyện viên cuộc sống, hoặc người tư vấn các vấn đề tình cảm.
“Nếu bạn chia sẻ vấn đề với bác sĩ, luật sư hoặc nhà trị liệu thật, nội dung trao đổi sẽ được bảo vệ bởi pháp luật. Nhưng với AI, mọi chuyện hoàn toàn không chắc chắn,” ông nhấn mạnh.
Cảnh báo này không chỉ dừng lại ở lý thuyết. Các nghiên cứu gần đây của Stanford cũng cho thấy ChatGPT có thể làm trầm trọng thêm định kiến, tạo ra các lời khuyên nguy hiểm và không hiệu quả so với nhà trị liệu con người.
Đặc biệt, những ai chia sẻ thông tin cá nhân hoặc về sức khỏe tâm thần cho ChatGPT sẽ đối diện nguy cơ về việc dữ liệu nhạy cảm có thể bị trích xuất, sử dụng, hoặc rò rỉ khi công ty bị yêu cầu cung cấp nội dung trao đổi trong các vụ kiện tụng, hoặc gặp sự cố bảo mật.
William Agnew, nhà nghiên cứu tại Đại học Carnegie Mellon, cho biết: “Ngay cả khi các công ty AI nỗ lực bảo vệ dữ liệu, các mô hình này nổi tiếng với khả năng "nhai lại" thông tin từng nhận, khiến cuộc trò chuyện cá nhân có thể vô tình tái xuất hiện ở nơi khác”.
Người dùng cần cảnh giác, chủ động bảo vệ mình
Hiện tại, ChatGPT lưu trữ mọi cuộc hội thoại khiến cho thông tin này có thể được dùng để cải thiện trí tuệ nhân tạo hoặc cung cấp cho các bên khác nếu được yêu cầu bởi luật pháp, đặc biệt ở những quốc gia chưa có quy định bảo vệ dữ liệu cá nhân nghiêm ngặt như GDPR của châu Âu (General Data Protection Regulation, hay Quy định chung về bảo vệ dữ liệu).
Quá trình xóa dữ liệu khỏi hệ thống AI cực kỳ phức tạp, đồng nghĩa với việc “quyền được lãng quên” thực tế rất khó thực hiện.
Cũng theo Forbes, hơn 100.000 tài khoản ChatGPT từng bị lộ thông tin trên Dark Web vào năm 2023, nhấn mạnh tính rủi ro hiện hữu từ các vụ tấn công mạng và lỗ hổng bảo mật.
ChatGPT thuận tiện nhưng không thể thay thế nhà trị liệu thật
ChatGPT và các chatbot AI đang trở thành một phần không thể thiếu trong cuộc sống để hỗ trợ công việc, học tập cũng như giải trí của hàng trăm triệu người.
Tuy nhiên, chuyên gia và cả chính “cha đẻ” của ChatGPT đều đồng thuận rằng AI chưa thể thay thế vai trò của nhà trị liệu thật, nhất là về bảo mật, thấu cảm và phương pháp can thiệp.
Vì vậy, người dùng nên tỉnh táo, hạn chế tiết lộ thông tin cá nhân, bí mật nhạy cảm cho AI, dù đó là chatbot thông minh nhất hành tinh. Vì công nghệ chỉ thực sự hữu ích khi bạn hiểu rõ giới hạn của nó và chủ động bảo vệ chính bản thân mình.
Lê Hà