Chuyên gia an ninh mạng: Cảnh giác khi trò chuyện riêng tư với AI vì AI 'không có nút xóa'

Chuyên gia an ninh mạng: Cảnh giác khi trò chuyện riêng tư với AI vì AI 'không có nút xóa'
7 giờ trướcBài gốc
Nhiều người dùng hiện nay vẫn đồng nhất việc sử dụng khung chat AI với các ứng dụng nhắn tin thông thường, cho rằng khi kết thúc phiên làm việc và xóa lịch sử trò chuyện, dữ liệu cũng sẽ được xóa bỏ khỏi hệ thống. Anh Ngô Minh Hiếu (Hiếu PC) - Giám đốc Tổ chức Chống lừa đảo cho biết, bản chất vận hành của các AI tạo sinh lại không có cơ chế "nút xóa" tuyệt đối đối với dữ liệu đầu vào.
Cụ thể, khi người dùng nhập văn bản hoặc tải tài liệu lên, hệ thống sẽ tự động thu thập và lưu trữ những thông tin này để làm dữ liệu tiếp tục huấn luyện mô hình. Điều này đồng nghĩa với việc, ngay cả khi lịch sử trò chuyện không còn hiển thị trên thiết bị cá nhân, các nội dung đó đã được tích hợp vào cơ sở dữ liệu chung của AI. Từ cơ chế này, rủi ro phát sinh ở chỗ hệ thống có thể vô tình trích xuất và hiển thị chính những thông tin nội bộ của người này trong câu trả lời cung cấp cho một người dùng khác, nếu có những truy vấn tương đồng.
"Cần cảnh giác khi chia sẻ các nội dung riêng tư với AI vì AI không có nút xóa", chuyên gia Ngô Minh Hiếu chia sẻ.
Theo anh Hiếu, thực tế đã ghi nhận một số sự cố rò rỉ dữ liệu đáng chú ý liên quan đến các công cụ AI phổ biến. Vài tháng trước, khi ChatGPT ra mắt tính năng chia sẻ đoạn hội thoại thông qua đường dẫn (link), công cụ tìm kiếm của Google đã tự động lập chỉ mục các đường dẫn này. Sự cố kỹ thuật này khiến nhiều cuộc trò chuyện, trong đó có cả dữ liệu nội bộ và thông tin cá nhân của người dùng, xuất hiện công khai trên kết quả tìm kiếm của Google. Dù OpenAI đã tiến hành khắc phục, sự việc vẫn đặt ra dấu hỏi lớn về tính riêng tư của dữ liệu trên các nền tảng mở.
Bên cạnh các sự cố mang tính hệ thống, bản thân bộ nhớ của AI cũng có thể bị khai thác bởi những cá nhân có mục đích xấu. Thông qua một số nghiên cứu độc lập, các chuyên gia bảo mật chỉ ra rằng khi người dùng lạm dụng một số câu lệnh (prompt) lặp đi lặp lại nhằm đánh lừa hệ thống, mô hình AI có thể rơi vào trạng thái "ảo giác" (hallucination). Trong trạng thái này, AI có khả năng mất kiểm soát bộ lọc và tự động tiết lộ các dữ liệu lưu trữ từ những phiên làm việc trước đó, bao gồm email, tên tuổi và lịch sử truy vấn của người dùng khác.
Hơn nữa, rủi ro không chỉ đến từ các nền tảng AI phổ biến mà còn xuất phát từ những công cụ AI được lập trình chuyên biệt để bỏ qua các bộ lọc đạo đức. Chỉ với những dữ liệu đầu vào cơ bản như số điện thoại hay địa chỉ email, các công cụ này có khả năng tự động quét thông tin từ các nguồn dữ liệu mở (OSINT) trên internet. Khả năng tổng hợp dữ liệu tốc độ cao này dễ dàng bị lợi dụng để vẽ ra sơ đồ mối quan hệ của một cá nhân, từ đó phục vụ cho các hành vi mạo danh hoặc giả mạo hình ảnh, âm thanh (deepfake).
Để giảm thiểu rủi ro, chuyên gia khuyến nghị người dùng cần phân loại mức độ nhạy cảm của thông tin trước khi sử dụng AI hỗ trợ. Các dữ liệu định danh cá nhân, thông tin liên quan đến y tế, tài chính, cũng như các tài liệu nội bộ, bản thảo hoặc thông tin từ nguồn tin chưa được công bố... thuộc nhóm không nên đưa lên các nền tảng AI mở. Việc sử dụng AI chỉ thực sự an toàn với những dữ liệu đã được công khai rộng rãi hoặc mang tính thông tin tham khảo chung.
"Nhiều bạn trẻ hiện nay vô tư nhờ AI 'xem tử vi', gián tiếp phơi bày toàn bộ dữ liệu định danh và đời tư cho chatbot. Thao tác tưởng chừng vô hại này thực chất là hành vi tự tay rò rỉ thông tin cá nhân của chính mình", anh Hiếu nhấn mạnh.
Bên cạnh đó, người dùng có thể áp dụng một số biện pháp kỹ thuật để tự bảo vệ. Khi cần sử dụng công cụ AI cho các văn bản quan trọng, thao tác đầu tiên là cần ẩn danh hóa văn bản bằng cách xóa bỏ tên riêng, số liệu tài chính cụ thể. Hầu hết các nền tảng như ChatGPT hay Gemini hiện nay đều đã cung cấp chế độ trò chuyện tạm thời (Temporary Chat / Incognito Mode) - nơi nhà phát triển cam kết không sử dụng dữ liệu của phiên làm việc đó để huấn luyện mô hình.
Chủ động bật các tính năng này, đặc biệt khi dùng chung tài khoản với nhiều người, là nguyên tắc thiết thực để khai thác lợi ích của công nghệ mà vẫn đảm bảo an toàn thông tin cá nhân và tính bảo mật của tổ chức.
Nguồn SVVN : https://svvn.tienphong.vn/chuyen-gia-an-ninh-mang-canh-giac-khi-tro-chuyen-rieng-tu-voi-ai-vi-ai-khong-co-nut-xoa-post1831028.tpo