Lỗ hổng trong Deep Research của ChatGPT, người dùng có nguy cơ bị rò rỉ dữ liệu

Lỗ hổng trong Deep Research của ChatGPT, người dùng có nguy cơ bị rò rỉ dữ liệu
một ngày trướcBài gốc
Tính năng Deep Research của Chat GPT xuất hiện lỗ hổng gây lộ lọt thông tin.
Deep Research là tính năng cao cấp được OpenAI giới thiệu hồi tháng 2, cho phép ChatGPT tự động phân tích khối lượng thông tin lớn và thực hiện các nghiên cứu trực tuyến theo yêu cầu của người dùng. Đặc biệt, công cụ này có thể kết nối trực tiếp với tài khoản Gmail nếu người dùng cho phép, giúp tìm kiếm và tổng hợp dữ liệu nhanh hơn.
Tuy nhiên, nhóm chuyên gia của Radware cho biết, lỗ hổng bảo mật đã mở đường cho tin tặc gửi email chứa mã ẩn đến tài khoản Gmail của nạn nhân. Khi đó, Deep Research có thể bị lợi dụng để truy xuất thông tin cá nhân như họ tên, địa chỉ, lịch sử trao đổi... và tự động gửi dữ liệu này tới máy chủ của kẻ tấn công.
Đáng chú ý, người dùng không cần bấm vào bất kỳ liên kết nào, dữ liệu vẫn có thể bị đánh cắp mà không hề hay biết.
Giám đốc nghiên cứu mối đe dọa của Radware - Pascal Geenens cảnh báo: “Nếu tài khoản doanh nghiệp bị khai thác, công ty thậm chí sẽ không nhận ra dữ liệu đang bị rò rỉ”.
Dù vậy, Radware cho biết chưa có bằng chứng cho thấy lỗ hổng bị lợi dụng trên thực tế.
Phản hồi trước phát hiện này, OpenAI xác nhận đã vá lỗi và khẳng định “luôn đặt an toàn người dùng lên hàng đầu”. Công ty cũng cho biết họ hoan nghênh các nghiên cứu độc lập nhằm kiểm tra, giám sát và cải thiện bảo mật của công nghệ trí tuệ nhân tạo.
Sự cố này được giới chuyên gia đánh giá là lời cảnh tỉnh trong kỷ nguyên AI, khi chính các công cụ trí tuệ nhân tạo có thể trở thành mục tiêu bị tấn công, thay vì chỉ là công cụ hỗ trợ cho tin tặc.
Hoàng Vũ
Nguồn PL&XH : https://phapluatxahoi.kinhtedothi.vn/lo-hong-trong-deep-research-cua-chatgpt-nguoi-dung-co-nguy-co-bi-ro-ri-du-lieu-434181.html