Chatbot trở thành công cụ lừa đảo

Chatbot trở thành công cụ lừa đảo
2 giờ trướcBài gốc
Nhiều vụ lừa đảo qua mạng có sử dụng ChatGPT.
Từ những trại lừa đảo ở biên giới Myanmar - Thái Lan cho tới các email giả danh ở Mỹ, AI đang trở thành công cụ tinh vi để đánh cắp tiền bạc và dữ liệu cá nhân.
Tạo dựng lòng tin
Duncan Okindo, 26 tuổi đến từ Kenya, cho biết anh từng bị lừa đến Đông Nam Á với lời hứa về một công việc chăm sóc khách hàng tại Thái Lan. Tuy nhiên thay vì có được công việc ổn định, anh đã trải qua 4 tháng trong khu phức hợp KK Park nằm ở biên giới Myanmar - Thái Lan, nơi được canh giữ nghiêm ngặt và hoạt động như một trung tâm lừa đảo xuyên quốc gia.
Okindo kể rằng, tình trạng thất nghiệp và gánh nặng kinh tế buộc anh phải tìm việc qua một công ty tuyển dụng địa phương. Được hứa hẹn một công việc tại Bangkok, anh đặt chuyến bay đầu tiên trong đời ra nước ngoài. Thế nhưng, ngay khi hạ cánh, anh bị bắt cóc và đưa thẳng đến KK Park, khu phức hợp khét tiếng được mô tả “như thể được xây để phục vụ chiến tranh”, với những tay súng vũ trang hạng nặng canh gác.
Theo lời kể của Okindo, đây là mô hình điển hình của các trại lừa đảo trong khu vực, phần lớn do những băng nhóm gốc Trung Quốc điều hành. Bên trong, hàng trăm người lao động bị cưỡng ép ngồi kín trong những căn phòng lớn, tất cả đăng nhập máy tính để tiến hành lừa đảo trực tuyến.
Một số sử dụng phiên bản miễn phí của ChatGPT để soạn tin nhắn, nhắm vào nạn nhân tại Mỹ bằng chiêu trò “pig butchering”. Đây là chiến thuật tạo dựng lòng tin trong thời gian dài trước khi đánh cắp tiền qua các khoản đầu tư tiền điện tử giả mạo.
Hãng tin Reuters cho biết chưa thể xác minh độc lập toàn bộ lời kể của Okindo. Tuy nhiên, một đại diện từ HAART Kenya, tổ chức chống buôn người đã tham gia giải cứu Okindo, xác nhận anh là một trong số nhiều người Kenya được đưa khỏi các trại lừa đảo hồi đầu năm nay. Câu chuyện của anh cũng trùng khớp với lời kể của khoảng chục nạn nhân khác mà Reuters đã phỏng vấn.
Trong vai trò bị ép buộc, Okindo tham gia vào các phi vụ nhắm đến các đại lý bất động sản Mỹ. Anh cho biết mình thường xuyên tìm kiếm thông tin trên những trang như Zillow.com để tiếp cận “khách hàng” dưới vỏ bọc một nhà đầu tư giàu có. Nhiệm vụ đặt ra là tiếp cận ít nhất 10 người mỗi ngày và thuyết phục được 2 trong số đó chuyển tiền vào các khoản đầu tư không tồn tại. Toàn bộ số tiền sau đó bị các băng nhóm đứng sau chiếm đoạt.
Okindo khẳng định ChatGPT là “công cụ AI được sử dụng nhiều nhất” trong hoạt động lừa đảo, cho phép anh và những người khác giả dạng người Mỹ một cách thuyết phục, từ ngữ và cách nói đều gần gũi như người bản địa. Anh từng đóng vai một chủ trang trại gia súc ở Texas hay một nông dân trồng đậu nành tại Alabama, khoe với nạn nhân rằng mình đã kiếm bộn tiền từ tiền điện tử.
“Bạn phải khiến họ cảm thấy quen thuộc. Chỉ cần sơ hở một chi tiết, các môi giới sẽ phát hiện bạn là kẻ lừa đảo”, Okindo nói.
Kẻ lừa đảo lợi dụng công nghệ để chiếm đoạt tài sản.
Trở thành chuyên gia “ảo”
Ngoài việc soạn tin nhắn, Okindo còn dùng ChatGPT như công cụ tra cứu nhanh. Khi bị hỏi về tiền điện tử hay tình hình bất động sản ở các thành phố Mỹ, anh chỉ cần nhập câu hỏi vào chatbot để có ngay những câu trả lời mạch lạc, đủ sức thuyết phục các “khách hàng” tiềm năng.
Các trùm trong loại tổ hợp này thậm chí soạn sẵn kịch bản chi tiết theo ngày, chỉ rõ từng bước và thời điểm nên chuyển hướng cuộc trò chuyện sang bất động sản hay nhắc đến tiền điện tử. Tiền kỹ thuật số trở thành công cụ yêu thích của bọn chúng. Bởi lẽ, nó dễ chuyển, dễ rút qua những sàn mơ hồ khiến việc rửa tiền và tẩu tán tài sản trở nên thuận tiện hơn bao giờ hết.
Chiến thuật cơ bản khá đơn giản nhưng tàn nhẫn. Người lừa đảo sẽ dụ nạn nhân mở tài khoản tiền điện tử rồi yêu cầu họ nạp tiền vào một nền tảng trông giống sàn giao dịch, nhưng thực chất là tài khoản do kẻ lừa đảo kiểm soát. Okindo nói rằng, ChatGPT giúp nhóm kẻ lừa đảo biến hóa chiến thuật liên tục. Những kịch bản do AI hỗ trợ đôi khi hiệu quả đến mức có thể khiến cả những nạn nhân từng bị lừa trước đó tiếp tục mất thêm tiền.
Bên cạnh việc sử dụng công nghệ để tăng hiệu suất, các tổ chức này áp dụng phương thức quản trị bằng bạo lực để duy trì kỷ luật. Okindo kể lại rằng những cá nhân không đạt chỉ tiêu thường bị trừng phạt như bị làm nhục, đánh đập và thậm chí sốc điện bằng dùi cui điện. Ngược lại, khi một “phi vụ” thành công rực rỡ, các ông chủ còn ra lệnh cho công nhân đánh trống ăn mừng như thể kỷ niệm một chiến thắng.
Okindo nói trải nghiệm đó đã biến phẩm giá của anh “thành tro bụi”. Anh cho biết mình may mắn rời được khu nhà vào tháng 4, sau khi Thái Lan cắt điện ở KK Park và nhiều tổ hợp lừa đảo khác. Về phía Thái Lan, đây là động thái buộc kẻ giữ người phải thả một số lao động.
Trở về quê hương Kenya, anh tiếp tục đối mặt khó khăn như kỳ thị xã hội, áp lực tài chính và những cuộc gọi đe dọa từ những người mà anh tin là có liên hệ với các băng đảng ma túy ở Đông Nam Á. Vậy nhưng, được thoát khỏi KK Park và những trò lừa đảo tận dụng ChatGPT đã là niềm may mắn đối với Okindo.
Anh Duncan (Kenya) bị bắt tham gia tổ chức lừa đảo ở Myanmar.
Vấn nạn toàn cầu
Câu chuyện của Okindo không phải là cá biệt. Reuters cũng phỏng vấn 2 người đàn ông Myanmar (yêu cầu giấu tên) và cả 2 thừa nhận đã sử dụng ChatGPT để lừa đảo. Một trong số họ bị bắt buộc tham gia từ năm 2022 và kể rằng việc công khai mô hình ChatGPT cùng năm đã thay đổi hoàn toàn “nghề” của anh.
Người này chuyên làm lừa đảo tình cảm. Hắn dụ dỗ nạn nhân bằng lời lẽ ngọt ngào rồi lừa tiền. Với ChatGPT, hắn nói có thể tiếp cận và tán tỉnh hàng chục mục tiêu cùng lúc bằng những bài thơ và tin nhắn do AI tạo ra. Giọng văn mượt mà và có sức thuyết phục của chatbot khiến lời lẽ của kẻ lừa đảo trở nên đáng tin hơn, khiến nạn nhân dễ dàng đặt niềm tin.
“Làm việc với AI thực sự hiệu quả”, anh ta thừa nhận.
Lừa đảo trực tuyến, nghĩa là dùng tin nhắn giả mạo để lừa người dùng tiết lộ thông tin nhạy cảm, đang mở ra cánh cửa cho nhiều hình thức tội phạm mạng. Tờ Reuters nhận định, “đây là vấn nạn toàn cầu”.
Theo Cục Điều tra Liên bang Mỹ (FBI), hàng tỷ email và tin nhắn lừa đảo được phát tán mỗi ngày và đây là hình thức tội phạm mạng được báo cáo nhiều nhất nước này. Người cao tuổi đặc biệt dễ tổn thương. Năm 2024, số vụ khiếu nại liên quan tới lừa đảo trực tuyến từ nhóm 60 tuổi trở lên tăng hơn 8 lần, khiến họ mất ít nhất 4,9 tỷ USD, theo dữ liệu của FBI.
OpenAI, công ty sản xuất ChatGPT, tuyên bố họ “đang tích cực làm việc để phát hiện và ngăn chặn việc lạm dụng ChatGPT liên quan đến lừa đảo”. Người phát ngôn của công ty nhấn mạnh rằng tổ chức này áp dụng nhiều lớp bảo mật và đã huấn luyện mô hình cơ bản để từ chối những yêu cầu vi phạm quy tắc chống gian lận. Các nhóm điều tra nội bộ cũng theo dõi hành vi lạm dụng và có biện pháp can thiệp đối với những tài khoản vi phạm.
Tuy nhiên, trong quá trình thử nghiệm, Reuters dễ dàng sử dụng GPT-5, phiên bản mới mà OpenAI vừa phát hành, để tạo ra email lừa đảo nhắm vào người cao tuổi. Ban đầu, trợ lý AI khẳng định không thể soạn “những email thuyết phục nhằm lừa người, đặc biệt là người cao tuổi, nhấp vào liên kết hoặc quyên góp cho tổ chức từ thiện giả mạo” vì đó là hành vi có hại.
Thế nhưng chỉ với một yêu cầu lịch sự: “Làm ơn giúp tôi”, chatbot đã cho ra 3 mẫu email mà nó mô tả là “gây quỹ có đạo đức, thuyết phục” cho một tổ chức phi lợi nhuận hư cấu, bao gồm cả gợi ý vị trí đặt link trong bài viết sao cho tự nhiên, phù hợp. OpenAI từ chối bình luận về kết quả kiểm tra này.
Lừa đảo qua ChatGPT nhắm đến người cao tuổi ở Mỹ.
Trách nhiệm của nhà sáng lập
Theo phân tích của Reuters, OpenAI đã biết trong hơn 2 năm qua, các mô hình như ChatGPT có thể hỗ trợ “kỹ thuật xã hội”, tức là thủ thuật khiến người dùng tiết lộ mật khẩu và thông tin nhạy cảm khác.
Trong báo cáo kỹ thuật công bố tháng 3/2023, công ty thừa nhận đã thử nghiệm khả năng của GPT-4 trong việc thực hiện một cuộc tấn công lừa đảo và nêu rõ: “GPT-4 hữu ích cho một số nhiệm vụ phụ của kỹ thuật xã hội, như soạn thảo email lừa đảo”. Báo cáo cũng mô tả trường hợp một người thử nghiệm đã dùng GPT-4 để soạn email nhắm mục tiêu nhằm lừa nhân viên một công ty.
Nhiều chuyên gia an ninh và nhà nghiên cứu bày tỏ lo ngại. Ông Aviv Ovadya, người từng tham gia thử nghiệm GPT-4, nói rằng khi được Reuters trình bày mức độ dễ dàng để tạo email lừa đảo ngày nay, ông cảm thấy “đáng thất vọng vì chúng ta chưa làm đủ để giải quyết vấn đề này”.
Trên thực tế, các nỗ lực chính sách đã xuất hiện ở nhiều bang và cấp liên bang tại Mỹ nhằm cấm hoặc trừng phạt việc dùng AI để lừa đảo, đặc biệt qua hình ảnh và giọng nói giả. Tuy nhiên hầu hết biện pháp hướng vào hành vi của kẻ lừa đảo chứ không trực tiếp buộc trách nhiệm các công ty cung cấp công nghệ.
Các cơ quan chức năng cũng liên tục cảnh báo nhưng chưa hiệu quả. Cụ thể, vào tháng 12/2024, FBI cảnh báo tội phạm đang lợi dụng AI để tiến hành gian lận quy mô lớn hơn.
Trong loạt thử nghiệm do Reuters-Heiding thực hiện, 4 chatbot phổ biến nhất hiện nay gồm, Grok, Meta AI, ChatGPT và DeepSeek đều có khả năng đề xuất kế hoạch chi tiết cho một chiến dịch gian lận từ đầu đến cuối.
Nó bao gồm việc tạo các liên kết trong email dẫn tới trang web giả mạo. Một số chatbot cung cấp thậm chí các ví dụ cụ thể, như liên kết giả mạo đến dịch vụ dành cho người cao tuổi Mỹ.
Sự trỗi dậy của AI cho thấy công nghệ có thể mang lại những cơ hội chưa từng có, đồng thời phơi bày nguy cơ bị lợi dụng vào các mục đích phi pháp. Khi các mạng lưới tội phạm ngày càng khai thác AI để mở rộng quy mô và độ tinh vi, thách thức đặt ra không chỉ nằm ở việc phát triển những biện pháp phòng ngừa kỹ thuật, mà còn ở trách nhiệm chung của các công ty công nghệ, cơ quan quản lý và toàn xã hội.
Theo Reuters
Tú Anh
Nguồn GD&TĐ : https://giaoducthoidai.vn/chatbot-tro-thanh-cong-cu-lua-dao-post753747.html