Hàng triệu người dùng ngân hàng có thể dính trò lừa đảo bằng giọng nói AI

Hàng triệu người dùng ngân hàng có thể dính trò lừa đảo bằng giọng nói AI
3 giờ trướcBài gốc
Một ngân hàng ở Anh đã cảnh báo rằng "hàng triệu" người có thể trở thành nạn nhân của các vụ lừa đảo sử dụng trí tuệ nhân tạo để sao chép giọng nói của họ.
CHỈ CẦN 3 GIÂY, KẺ XẤU CÓ THỂ LỢI DỤNG AI ĐỂ SAO CHÉP GIỌNG NÓI
Starling Bank, một công ty cho vay trực tuyến, cho biết những kẻ lừa đảo có khả năng sử dụng AI để sao chép giọng nói của một người chỉ từ ba giây âm thanh tìm thấy trong một video mà người đó đã đăng trực tuyến. Sau đó, những kẻ lừa đảo có thể xác định bạn bè và thành viên gia đình của người đó và sử dụng giọng nói được sao chép bằng AI để dàn dựng một cuộc gọi điện thoại yêu cầu tiền.
Starling Bank cho biết trong một thông cáo báo chí hôm thứ Tư rằng những kiểu lừa đảo này có khả năng "dụ hàng triệu người".
Thực tế, hiện tại kiểu lừa đảo sao chép giọng nói bằng AI đã ảnh hưởng đến hàng trăm người. Theo một cuộc khảo sát đối với hơn 3.000 người lớn mà ngân hàng này thực hiện với Mortar Research vào tháng trước, hơn một phần tư số người được hỏi cho biết họ đã trở thành mục tiêu của một vụ lừa đảo sao chép giọng nói bằng AI trong 12 tháng qua.
Cuộc khảo sát cũng cho thấy 46% người được hỏi không biết về những vụ lừa đảo như vậy và 8% sẽ gửi số tiền theo yêu cầu của bạn bè hoặc thành viên gia đình, ngay cả khi họ nghĩ cuộc gọi có vẻ lạ.
"Mọi người thường xuyên đăng nội dung trực tuyến có ghi âm giọng nói của họ mà không bao giờ nghĩ rằng điều đó khiến họ dễ bị lừa đảo hơn", Lisa Grahame, giám đốc an ninh thông tin tại Starling Bank, cho biết trong thông cáo báo chí.
Ngân hàng khuyến khích mọi người đồng ý một "cụm từ an toàn" với những người thân yêu của họ - một cụm từ đơn giản, ngẫu nhiên, dễ nhớ và khác với các mật khẩu khác của họ - có thể được sử dụng để xác minh danh tính của họ qua điện thoại.
Bên cho vay khuyên không nên chia sẻ cụm từ an toàn qua tin nhắn văn bản, điều này có thể khiến những kẻ lừa đảo dễ dàng phát hiện ra hơn, nhưng nếu chia sẻ theo cách này, tin nhắn nên được xóa sau khi người kia đã nhìn thấy.
Khi AI ngày càng thành thạo trong việc bắt chước giọng nói của con người, mối lo ngại ngày càng tăng về khả năng gây hại cho mọi người bằng nhiều cách, chẳng hạn như tội phạm có thể truy cập vào tài khoản ngân hàng của họ và phát tán thông tin sai lệch.
Đầu năm nay, OpenAI, nhà sản xuất chatbot AI tạo ra ChatGPT, đã công bố công cụ sao chép giọng nói của mình, Voice Engine, nhưng không cung cấp cho công chúng vào thời điểm đó, với lý do "có khả năng sử dụng vào những mục đích không phù hợp”.
KHÔNG CHỈ HẠN CHẾ HÌNH ẢNH, GIỜ ĐÂY CÒN PHẢI HẠN CHẾ CHIA SẺ GIỌNG NÓI LÊN MẠNG XÃ HỘI
Trước sự gia tăng đáng báo động của các vụ lừa đảo sử dụng giọng nói giả mạo, các nhà chức trách đang tích cực tìm kiếm giải pháp để bảo vệ công dân. Việc kẻ gian có thể dễ dàng bắt chước giọng nói của bất kỳ ai từ các video trên mạng xã hội hay tin nhắn thoại cũng đặt ra thách thức lớn cho an ninh mạng. Đứng trước tình hình này, các nhà lập pháp trên thế giới đang nỗ lực ban hành những quy định mới nhằm hạn chế hoạt động của kẻ gian.
Cụ thể, các dự luật của Hoa Kỳ đã được đưa ra nhằm yêu cầu các công ty công nghệ phải đánh dấu kỹ thuật số lên những nội dung được tạo bởi trí tuệ nhân tạo, giúp người dùng dễ dàng phân biệt giữa thông tin thật và giả. Đồng thời, các cơ quan chức năng cũng đang nghiên cứu các công nghệ mới để xác định nguồn gốc của âm thanh tổng hợp, nhằm ngăn chặn các hoạt động lừa đảo.
Trước sự gia tăng đáng báo động của các vụ lừa đảo sử dụng giọng nói giả mạo, các nhà chức trách đang tích cực tìm kiếm giải pháp để bảo vệ công dân. Ảnh minh họa
Tuy nhiên, trong khi chờ đợi các quy định mới có hiệu lực, các nhà chức trách khuyến cáo người dân nên nâng cao cảnh giác và tự bảo vệ bản thân bằng cách tạo ra những mật khẩu bí mật để xác minh danh tính người gọi, cũng như không cung cấp thông tin cá nhân cho người lạ.
Cụ thể, để bảo vệ bản thân khỏi những vụ lừa đảo sử dụng giọng nói giả mạo, người dùng cần thực hiện một số biện pháp phòng ngừa. Đầu tiên, hãy luôn xác minh danh tính của người gọi, đặc biệt khi họ yêu cầu tiền hoặc thông tin nhạy cảm. Sử dụng một mật khẩu bí mật đã thỏa thuận trước với người thân để kiểm tra tính xác thực.
Thứ hai, hạn chế chia sẻ các bản ghi âm giọng nói của bạn công khai trên mạng xã hội. Thứ ba, tận dụng tính năng sàng lọc cuộc gọi để lọc bỏ các số điện thoại không rõ nguồn gốc. Tuyên truyền, giáo dục về các hình thức lừa đảo giả mạo giọng nói cũng là một biện pháp được khuyến nghị, theo đó có thể thông báo cho bạn bè và gia đình để họ cũng cảnh giác và phòng tránh.
Thanh Minh
Nguồn VnEconomy : https://vneconomy.vn/hang-trieu-nguoi-dung-ngan-hang-co-the-dinh-tro-lua-dao-bang-giong-noi-ai.htm