Google có thể dễ dàng truy cập vào các cuộc trò chuyện với ChatGPT của người dùng. Ảnh: DataDrivenInvestors.
Cuộc trò chuyện riêng tư thành dữ liệu công khai
Theo báo cáo từ Fast Company, hàng nghìn cuộc trò chuyện riêng tư đã bị Google lập chỉ mục. Đây có thể chỉ là "phần nổi của tảng băng chìm" với hàng triệu cuộc hội thoại khác có nguy cơ bị lộ.
Dù các cuộc trò chuyện này không bao gồm thông tin nhận dạng trực tiếp, nhưng nhiều người dùng đã chia sẻ những chi tiết cá nhân cực kỳ nhạy cảm, từ các mối quan hệ đến những trải nghiệm đau buồn, khiến việc xác định danh tính trở nên khả thi.
Mọi chuyện bắt đầu khi một số chuyên gia an ninh mạng phát hiện rằng chỉ cần thực hiện một truy vấn đơn giản trên Google, người dùng có thể truy cập dễ dàng vào các đoạn trò chuyện được chia sẻ công khai.
Nội dung bị lộ không chỉ dừng ở các đoạn văn mẫu, câu hỏi kỹ thuật mà còn bao gồm cả thông tin cá nhân, chia sẻ nhạy cảm trong công việc, thậm chí là những lời tâm sự riêng tư.
Nguyên nhân được xác định là do tính năng "Share chat", một tiện ích do OpenAI triển khai nhằm giúp người dùng chia sẻ nội dung trò chuyện với người khác. Khi người dùng chọn mục “Make this chat discoverable”, hệ thống sẽ tạo ra một đường link công khai, có thể được lập chỉ mục bởi các công cụ tìm kiếm.
Điều đáng nói là giao diện tính năng này chưa đủ rõ ràng, khiến nhiều người hiểu nhầm rằng họ chỉ chia sẻ nội dung với bạn bè hoặc đồng nghiệp, thay vì công khai trên mạng.
Trước phản ứng dữ dội, OpenAI đã lập tức có hành động khắc phục: tạm dừng tính năng chia sẻ tìm kiếm được và làm việc với Google để gỡ bỏ những liên kết liên quan.
Theo Fast Company, hơn 4.500 đường dẫn như vậy đã bị phát hiện, con số không hề nhỏ trong bối cảnh ChatGPT đang có hàng trăm triệu người dùng toàn cầu.
Điều đáng lo ngại là nhiều người đã sử dụng ChatGPT để viết email, trao đổi công việc, khai thác thông tin y tế, hay thậm chí là giãi bày những vấn đề tâm lý cá nhân, với niềm tin rằng đây là một không gian kín đáo.
Hồi chuông cảnh báo về quyền riêng tư trong thời đại AI
Sự việc đặt ra câu hỏi lớn về trách nhiệm dữ liệu người dùng của các công ty phát triển AI. OpenAI liệu có cung cấp đầy đủ thông tin minh bạch để người dùng hiểu rõ về quyền riêng tư của họ? Mức độ bảo vệ dữ liệu mà người dùng đang nhận được có thực sự tương xứng với mức độ nhạy cảm của nội dung?
Chính ông Sam Altman, CEO của OpenAI, từng lên tiếng cảnh báo người dùng không nên chia sẻ những chi tiết cá nhân nhạy cảm với ChatGPT. Ông thừa nhận rằng công ty có thể bị buộc phải cung cấp những thông tin đó nếu có yêu cầu hợp pháp từ tòa án.
Tuy nhiên, đáng chú ý là trong các phát biểu của mình, Altman lại không hề đề cập đến việc các cuộc trò chuyện mà người dùng tự nguyện chia sẻ có thể bị lập chỉ mục công khai trên các công cụ tìm kiếm.
Hơn nữa, đây không phải là lần đầu ChatGPT bị đặt nghi vấn liên quan đến rò rỉ dữ liệu. Các nhà nghiên cứu từng cảnh báo rằng mô hình ngôn ngữ lớn như GPT có thể "vô tình" tái tạo lại dữ liệu cũ nếu người dùng đặt câu hỏi theo cách khéo léo.
Không thể phủ nhận rằng các công cụ như ChatGPT đã cách mạng hóa cách con người tìm kiếm thông tin và sáng tạo nội dung. Tuy nhiên, cùng với sự tiện lợi, người dùng cần nhận thức rõ rằng: không có gì là hoàn toàn riêng tư nếu thiếu rào chắn công nghệ vững vàng và sự cẩn trọng trong thao tác cá nhân.
ĐỨC AN