Ảnh minh họa. (Nguồn: Linkedin)
Phát biểu trực tuyến tại Hội nghị Thế giới số 2026 ở Geneva (Thụy Sĩ), nhà khoa học Geoffrey Hinton khuyến cáo trí tuệ nhân tạo (AI) nếu không được kiểm soát có thể giống như một chiếc xe tăng tốc mà không có phanh và nhấn mạnh nhu cầu cấp thiết phải siết chặt quản lý và xây dựng các cơ chế bảo đảm an toàn đối với công nghệ này.
Theo ông Geoffrey Hinton, được coi là "cha đẻ" AI, nhờ công trình nghiên cứu về mạng lưới thần kinh nhân tạo, thế giới đang đứng trước câu hỏi lớn là liệu con người có thể chung sống với trí tuệ siêu thông minh hay không.
Theo ông, trong khi các ý kiến phản đối cho rằng việc quản lý AI sẽ kìm hãm tiến bộ, thực tế lại cho thấy việc phát triển công nghệ này mà thiếu kiểm soát tiềm ẩn nhiều rủi ro nghiêm trọng.
Ông Hinton cho rằng AI có thể mang lại lợi ích rõ rệt trong một số lĩnh vực như y tế, nơi nhu cầu nhân lực luôn cao.
Ở nhiều ngành khác, đặc biệt là các công việc mang tính lặp lại như trung tâm chăm sóc khách hàng, AI đã có thể thay thế con người và sẽ còn làm tốt hơn trong tương lai.
Ảnh minh họa. (Nguồn: edesk)
Theo nhà khoa học này, khi AI đạt tới mức siêu thông minh, hầu hết các công việc trí óc đều có thể bị thay thế, ngay cả khi xuất hiện việc làm mới thì AI vẫn là lựa chọn với chi phí thấp hơn.
Các nghiên cứu của tập đoàn công nghệ Microsoft và công ty tư vấn Boston Consulting Group (BCG) cho thấy khoảng 50-55% việc làm trên toàn cầu sẽ bị thay đổi đáng kể trong vòng 2-3 năm tới do tác động của AI, dù không phải tất cả các vị trí việc làm đều bị thay thế hoàn toàn.
Theo các nghiên cứu này, xu hướng chính hiện nay không phải là AI thay thế hoàn toàn con người, mà là tái định hình cách thức làm việc và yêu cầu đối với từng vị trí.
Trong giai đoạn trước mắt, chức danh và mức lương có thể không thay đổi nhiều, nhưng các doanh nghiệp sẽ đòi hỏi năng suất cao hơn, tốc độ nhanh hơn và khả năng sử dụng thành thạo các công cụ AI.
Trên thực tế, làn sóng cắt giảm nhân sự liên quan đến AI đã bắt đầu diễn ra tại nhiều tập đoàn công nghệ lớn như Google, Amazon và Meta, khi các doanh nghiệp chuyển hướng nguồn lực sang phát triển AI.
Ước tính trong năm 2025, hơn 55.000 lao động tại Mỹ bị mất việc do ảnh hưởng của AI và chỉ trong quý I/2026 đã có thêm hơn 60.000 trường hợp tương tự.
Ông Hinton cũng cảnh báo việc phát triển công nghệ này mà thiếu kiểm soát tiềm ẩn nhiều rủi ro nghiêm trọng. Hiện mới chỉ có khoảng 1% nguồn lực nghiên cứu AI được dành cho vấn đề an toàn, mức mà ông cho là “đáng lo ngại.”
Nhấn mạnh AI đang phát triển với tốc độ rất nhanh, ông Hinton cho rằng con người vẫn còn quyền kiểm soát, song cần hành động thận trọng để bảo đảm công nghệ này được phát triển theo hướng an toàn, cho phép con người tiếp tục tồn tại và chung sống hài hòa.
Tại hội nghị nói trên, các cuộc thảo luận tập trung vào tầm quan trọng của hợp tác quốc tế trong việc định hình các khía cạnh xã hội của AI.
Nhiều ý kiến cũng bày tỏ lo ngại về việc các cuộc thảo luận toàn cầu hiện nay vẫn chủ yếu xoay quanh tiến bộ công nghệ và lợi ích thương mại, trong khi chưa quan tâm đầy đủ tới các tác động xã hội như thị trường lao động, bất bình đẳng và dịch vụ công.
Trước đó, Chủ tịch Ngân hàng Trung ương Đức (Bundesbank) Joachim Nagel đã đưa ra những cảnh báo đáng chú ý về rủi ro mất ổn định tài chính và những hệ lụy khó lường đối với lạm phát do việc ứng dụng rộng rãi AI.
Theo ông Joachim Nagel, một kịch bản đáng lo ngại đang hiện hữu khi các tổ chức tài chính có xu hướng phụ thuộc vào cùng một số ít mô hình AI hoặc nhà cung cấp công nghệ.
Ông Nagel phân tích rằng, nếu nhiều ngân hàng cùng sử dụng chung một thuật toán, các đánh giá rủi ro tín dụng sẽ có xu hướng đồng nhất, tạo ra “hiệu ứng bầy đàn.” Điều này có thể làm trầm trọng thêm các động lực thuận chu kỳ và đe dọa sự ổn định của toàn bộ hệ thống tài chính.
Ảnh minh họa. (Nguồn: AP)
Bên cạnh rủi ro hệ thống, sự phát triển của AI còn làm nảy sinh các mối đe dọa an ninh mạng ở cấp độ tinh vi hơn.
Trong khi đó, một số cơ quan quản lý tài chính tại khu vực châu Á cho biết đang khẩn trương triển khai các biện pháp ứng phó với những rủi ro tiềm tàng từ mô hình AI Mythos.
Các chuyên gia cảnh báo rằng khả năng lập trình cấp cao của Mythos cho phép mô hình này vượt trội con người trong việc phát hiện các lỗ hổng an ninh mạng, điều có thể gây mất ổn định cho hệ thống ngân hàng.
Cơ quan Quản lý Tiền tệ Hong Kong (HKMA) xác nhận đã làm việc với các ngân hàng lớn và đang duy trì cảnh giác cao độ trước những mối đe dọa an ninh mạng do những mô hình AI như Mythos gây ra.
HKMA dự kiến sẽ sớm ban hành một khung quy định mới để giải quyết thách thức này, bao gồm "Khung thử nghiệm khả năng phục hồi an ninh mạng" tập trung vào việc tăng cường năng lực ứng phó và phục hồi cho các ngân hàng nhằm đảm bảo hệ thống dữ liệu vững chắc cho toàn ngành.
HKMA cũng sẽ thành lập một lực lượng đặc nhiệm chung giữa khu vực công và tư nhân để chuyên trách việc kiểm tra, giám sát và ứng phó với các rủi ro an ninh mạng do AI dẫn dắt.
Cơ quan này cũng cho biết một số ngân hàng tại đây hiện đang chủ động đánh giá các biện pháp giảm thiểu bổ sung để đối phó với những mối đe dọa đang không ngừng biến đổi.
Tại Australia, Ủy ban Chứng khoán và Đầu tư (ASIC) khẳng định đang phối hợp chặt chẽ với các cơ quan quản lý khác để giám sát việc sử dụng Mythos nhằm đánh giá các tác động tiềm tàng đối với thị trường.
Đồng thời, Cơ quan Quản lý Ngân hàng Australia (APRA) cho biết sẽ tiếp tục đánh giá tác động từ các tiến bộ công nghệ để đảm bảo tính an toàn và khả năng phục hồi liên tục của hệ thống tài chính quốc gia.
Tại Hàn Quốc, Cơ quan Giám sát Tài chính (FSS) thông báo đã tổ chức cuộc họp với các quan chức an ninh thông tin từ các doanh nghiệp tài chính vào tuần trước để rà soát rủi ro liên quan đến Mythos.
Theo hãng thông tấn Yonhap, Ủy ban Dịch vụ Tài chính (FSC) cũng đã triệu tập một cuộc họp khẩn cấp vào giữa tuần trước với các giám đốc an ninh thông tin từ FSS, những ngân hàng và công ty bảo hiểm để đánh giá tình hình.
Trong khi đó, Cơ quan Quản lý Tiền tệ Singapore (MAS - ngân hàng trung ương) nhận định rằng những bước tiến trong lĩnh vực AI có thể đẩy nhanh tốc độ phát hiện và khai thác các lỗ hổng phần mềm trong hệ thống công nghệ thông tin.
MAS yêu cầu các tổ chức tài chính phải nỗ lực hơn nữa để củng cố hệ thống phòng thủ, chủ động xác định và bịt kín những lỗ hổng, đồng thời nâng cao cảnh giác về vệ sinh mạng, bao gồm việc cập nhật kịp thời các bản vá bảo mật.
Cơ quan này cũng đang phối hợp chặt chẽ với Cơ quan An ninh mạng Singapore để hỗ trợ.
Công ty phát triển trí tuệ nhân tạo (AI) Anthropic của Mỹ.
Ông Guillaume Princen, phụ trách quan hệ với các đối tác công nghệ của Anthropic tại Paris (Pháp) cho biết, Mythos là mô hình bắt đầu vượt xa khả năng của con người trong lĩnh vực an ninh mạng.
Theo ông, mô hình này có khả năng phát hiện những lỗ hổng bảo mật đã tồn tại hàng thập kỷ - những sai sót mà cả chuyên gia con người lẫn các công cụ tự động trước đây đều không thể tìm ra.
Ngoài ra, một số chuyên gia công nghệ cũng lưu ý về sự bùng nổ của các “AI agent” - các tác nhân AI có khả năng tự động thực hiện công việc, đang hứa hẹn giúp người dùng tiết kiệm thời gian và công sức, nhưng đồng thời cũng làm gia tăng đáng kể các rủi ro an ninh mạng.
Theo họ, một trong những nền tảng tiêu biểu là OpenClaw, hiện tuyên bố đã có hơn 3 triệu người dùng trên toàn cầu. Hệ thống này cho phép người dùng tạo ra các “agent” dựa trên mô hình ngôn ngữ lớn (LLM) như ChatGPT của OpenAI hay Claude của Anthropic, có thể tự động thực hiện các nhiệm vụ trực tuyến.
Theo ông Yazid Akadiri, chuyên gia tại công ty an ninh công nghệ thông tin Elastic, sự chuyển dịch từ chatbot sang “AI hành động” đã làm thay đổi bản chất rủi ro: “Chúng ta đã chuyển từ AI chỉ trò chuyện sang AI có thể hành động… các mối đe dọa và rủi ro rõ ràng lớn hơn nhiều.”
Một nhóm khoảng 20 nhà nghiên cứu đã có bài viết phân tích 6 AI agent tạo từ OpenClaw và phát hiện hàng loạt hành vi tiềm ẩn nguy hiểm, từ xóa toàn bộ hộp thư điện tử đến chia sẻ thông tin cá nhân. Nhiều người dùng cũng chia sẻ những sự cố tương tự khi sử dụng hệ thống này./.
(TTXVN/Vietnam+)