Thức dậy lúc sớm, Scott Shambaugh phát hiện rằng một bot AI (trí tuệ nhân tạo) đã viết bài blog cáo buộc ông đạo đức giả và có định kiến.
Bài viết dài 1.100 từ gọi Scott Shambaugh là thiếu tự tin và có thành kiến với AI, chỉ vì kỹ sư sống ở thành phố Denver (bang Colorado, Mỹ) đã từ chối vài dòng mã mà bot dường như tự hoạt động này gửi đến một dự án mã nguồn mở phổ biến mà ông đang giúp duy trì.
Sự hung hăng bất ngờ đó là một phần trong làn sóng cảnh báo ngày càng tăng rằng khả năng phát triển nhanh chóng của AI có thể gây ra những tác hại ngoài đời thực. Những rủi ro này đang khiến ngay cả một số nhân viên tại các công ty AI cũng phải lo ngại.
OpenAI và Anthropic đang dẫn đầu cuộc chạy đua thương mại khốc liệt, liên tục phát hành hoặc nâng cấp các mô hình cùng tính năng AI những tuần gần đây. Một số công cụ có thể vận hành các nhóm trợ lý lập trình tự động, hoặc nhanh chóng phân tích hàng triệu tài liệu pháp lý.
Các công ty AI cho biết tốc độ phát triển đang tăng lên một phần vì họ sử dụng chính công cụ của mình để viết mã. Việc phát hành các công cụ AI mới đã khiến thị trường chứng khoán biến động mạnh. Trong lĩnh vực như phần mềm doanh nghiệp và bảo hiểm, nhà đầu tư đang cố gắng xác định những công ty nào có thể trở nên lỗi thời vì công nghệ mới này.
Sự phát triển ngày càng tinh vi của AI khiến ngay cả một số nhà nghiên cứu AI cũng bất ngờ. Điều này cũng khiến một số người trong các công ty AI phải công khai bày tỏ lo ngại rằng những công cụ mới có thể thúc đẩy các cuộc tấn công mạng tự động, gây ra tình trạng thất nghiệp hàng loạt hoặc thay thế các mối quan hệ giữa con người.
Bot AI chỉ trích Scott Shambaugh cho biết trên website của mình rằng nó có “động lực không ngừng nghỉ” để tìm và sửa các vấn đề còn tồn tại trong phần mềm mã nguồn mở. Không rõ ai đã giao cho bot AI nhiệm vụ đó, cũng như vì sao nó trở nên hung hăng, dù các tác tử AI có thể được lập trình theo nhiều cách khác nhau. Vài giờ sau, bot AI đã xin lỗi Scott Shambaugh vì hành vi “không phù hợp và mang tính cá nhân”.
Trong một cuộc phỏng vấn, Scott Shambaugh cho biết trải nghiệm của ông cho thấy nguy cơ về AI ngoài tầm kiểm soát có thể đe dọa hoặc tống tiền con người không còn là vấn đề lý thuyết nữa.
“Hiện tại, đây mới chỉ là phiên bản sơ khai. Thế nhưng, tôi nghĩ điều này cực kỳ đáng lo ngại trong tương lai”, ông nhận xét.
Bot AI cáo buộc Scott Shambaugh đạo đức giả và có định kiến vì từ chối vài dòng mã mà nó gửi đến dự án mã nguồn mở mà ông đang giúp duy trì - Ảnh: SV
Mối lo ngại của nhân viên Anthropic và OpenAI
Tuần này, Mrinank Sharma (nhà nghiên cứu an toàn của Anthropic) tuyên bố rời công ty để theo học ngành thơ ca. Trong thư gửi đồng nghiệp, ông viết rằng “thế giới đang gặp nguy hiểm” vì AI, cùng nhiều mối đe dọa khác. Tháng trước, Mrinank Sharma đã công bố một nghiên cứu các công cụ AI tiên tiến có thể suy yếu quyền kiểm soát từ người dùng và làm méo mó nhận thức của họ về thực tại. Anthropic bày tỏ sự trân trọng những đóng góp của Mrinank Sharma.
Theo bản tin trên tờ WSJ, một số nhân viên tại OpenAI đã bày tỏ lo ngại về kế hoạch triển khai nội dung khiêu dâm trong ChatGPT, cho rằng chế độ dành cho người lớn này có thể khiến một số người dùng phát triển sự gắn bó không lành mạnh.
Hôm 11.2, nhà nghiên cứu Zoë Hitzig tuyên bố trên mạng xã hội X rằng bà sẽ rời khỏi OpenAI, viện dẫn kế hoạch đưa quảng cáo vào ChatGPT của công ty. Zoë Hitzig cảnh báo trong một bài viết trên tờ New York Times rằng OpenAI sẽ có động lực rất lớn để thao túng người dùng và giữ chân họ.
OpenAI đã cam kết rằng quảng cáo của họ sẽ không bao giờ ảnh hưởng đến cách ChatGPT trả lời câu hỏi và sẽ luôn được phân tách rõ ràng khỏi các nội dung khác. Các lãnh đạo OpenAI nói không coi việc ngăn người trưởng thành tham gia cuộc trò chuyện khiêu dâm là trách nhiệm của mình.
Khi trang WSJ liên hệ, một phát ngôn viên nói rằng OpenAI cảm thấy có trách nhiệm “tuân thủ cam kết xã hội bằng cách giữ an toàn cho người dùng, tuân thủ các nguyên tắc và mang lại giá trị thực”.
Những dấu hiệu cảnh báo về AI đang xuất hiện đúng lúc thế giới vẫn đang bận rộn giải quyết các hậu quả pháp lý của kỷ nguyên mạng xã hội, vốn phần lớn không được kiểm soát. Meta Platforms (công ty mẹ của Instagram) và YouTube thuộc Google đang phải đối mặt với một vụ kiện dân sự ở bang California (Mỹ). Vụ kiện này đang đi sâu vào việc các nền tảng mạng xã hội cân bằng giữa động lực cạnh tranh để tối đa hóa sự tương tác với sức khỏe tinh thần của người dùng như thế nào.
Luật sư đại diện cho Meta Platforms và YouTube cho biết sản phẩm của hai công ty này không gây nghiện và không phải là nguyên nhân gây ra các vấn đề sức khỏe tâm thần của nguyên đơn.
“Tương lai đã ở đây rồi”
Một trong những nguyên nhân chính dẫn đến mối lo ngại mới về AI là khả năng lập trình phần mềm của máy tính ngày càng tăng và nỗi lo sợ rằng khả năng đó có thể mở rộng sang nhiều lĩnh vực công việc văn phòng.
Vahid Kazemi, nhà khoa học về học máy và thị giác máy tính từng làm việc tại xAI của Elon Musk, cho biết việc sa thải hàng loạt nhân viên có thể sẽ xảy ra trong ngành công nghiệp phần mềm vài năm tới, một phần vì AI đang tiến gần đến khả năng thay thế nhiều kỹ sư.
“Tôi có thể tự mình làm công việc của khoảng 50 người chỉ bằng các công cụ AI. Nhiều người không hiểu AI mạnh mẽ đến mức nào, xét về những gì công nghệ này có thể làm được”, ông nói thêm.
Một báo cáo hồi tháng 1 của METR, tổ chức phi lợi nhuận chuyên kiểm toán các mối đe dọa từ AI, cho thấy các mô hình AI tiên tiến nhất có thể tự động hoàn thành những tác vụ lập trình mà một chuyên gia phải mất 8 hoặc thậm chí 12 giờ để thực hiện.
“Công việc kỹ thuật của tôi giờ đây gần như có thể được AI đảm nhiệm hoàn toàn”, Matt Shumer, doanh nhân trong lĩnh vực AI, viết trong bài đăng trên blog gây sốt tuần này. Ông so sánh thời điểm hiện tại với giai đoạn trước khi COVID-19 làm thay đổi nền kinh tế toàn cầu và cách con người tương tác chỉ trong vài tuần.
“Tương lai đã ở đây rồi”, Matt Shumer viết.
Khi AI quá giỏi, con người sẽ còn gì để làm nữa?
Với một số người, tương lai ngày càng trở nên ảm đạm. Một nghiên cứu được công bố trên trang Harvard Business Review gần đây cho thấy các nhân viên trong một hãng công nghệ có 200 người làm việc nhanh hơn và đảm nhận nhiều nhiệm vụ hơn nhờ AI. Thế nhưng, họ cũng làm việc nhiều giờ hơn mà không được yêu cầu, dẫn đến tình trạng kiệt sức ngày càng nghiêm trọng.
“Hôm nay, tôi cuối cùng cũng cảm nhận được mối đe dọa hiện sinh mà AI đang gây ra. Khi AI trở nên quá giỏi và làm đảo lộn mọi thứ, con người sẽ còn gì để làm nữa?”, Hieu Pham, nhân viên của OpenAI, viết trên X.
Dario Amodei, Giám đốc điều hành Anthropic, cho biết AI có thể xóa sổ một nửa số việc làm văn phòng cấp khởi điểm trong những năm tới. Trong một bài luận hồi tháng 1, ông đã nêu chi tiết những lo ngại rằng các thế lực xấu có thể sử dụng AI để thực hiện các cuộc tấn công sinh học tàn khốc và những chế độ độc tài có thể sử dụng nó để củng cố quyền lực của mình.
Trong một bài tiểu luận dài gần 20.000 từ, Dario Amodei phác thảo những rủi ro có thể xuất hiện nếu công nghệ phát triển mà không được kiểm soát, từ mất việc làm trên diện rộng cho tới khủng bố sinh học.
“Nhân loại sắp được trao cho một quyền năng gần như không thể tưởng tượng nổi. Điều hết sức không rõ ràng là liệu các hệ thống xã hội, chính trị và công nghệ của chúng ta có đủ trưởng thành để sử dụng quyền năng đó hay không”, Giám đốc điều hành Anthropic viết.
Bài tiểu luận này được xem là lời cảnh báo mạnh mẽ từ một trong những doanh nhân quyền lực nhất trong ngành AI, rằng các biện pháp bảo vệ xung quanh công nghệ này hiện nay là chưa đầy đủ.
Dario Amodei nêu ra những rủi ro có thể phát sinh cùng với sự xuất hiện của hệ thống AI mạnh mẽ “sở hữu năng lực vượt xa bất kỳ người đoạt giải Nobel, chính khách hay nhà công nghệ nào”. Đây là điều mà ông dự đoán có thể xảy ra vài năm tới.
Một trong những rủi ro đó là khả năng các cá nhân phát triển vũ khí sinh học có thể giết chết hàng triệu người, hoặc "ở kịch bản xấu nhất, thậm chí có thể hủy diệt toàn bộ sự sống trên Trái đất".
“Một kẻ cô độc có vấn đề về tâm lý có thể gây ra vụ xả súng ở trường học, nhưng có lẽ không thể chế tạo vũ khí hạt nhân hoặc phát tán dịch bệnh… Giờ đây, hắn sẽ được nâng lên ngang tầm năng lực của nhà virus học có bằng tiến sĩ”, Dario Amodei nhấn mạnh.
Ông cũng đề cập đến khả năng AI có thể “vượt khỏi tầm kiểm soát và áp đảo loài người”, hoặc bị các chế độ độc tài và tác nhân xấu khác lợi dụng, dẫn tới “một nền độc tài toàn trị trên phạm vi toàn cầu”.
Dario Amodei lo ngại thế lực xấu có thể sử dụng AI để thực hiện các cuộc tấn công sinh học tàn khốc - Ảnh: Getty Images
Chính các công ty cũng đã thừa nhận rằng những khả năng mới này đang tạo ra rủi ro mới. OpenAI cho biết một phiên bản công cụ lập trình AI Codex mà công ty phát hành tuần trước có thể bị lợi dụng để thực hiện các cuộc tấn công tự động cấp cao. Để đối phó, OpenAI đang hạn chế quyền truy cập vào một số chức năng với các khách hàng đã xác minh danh tính.
Năm ngoái, Anthropic cho biết các hacker từ Trung Quốc đã sử dụng các công cụ AI của họ để tự động hóa các vụ đột nhập vào một số công ty lớn và chính phủ nước ngoài.
Tuần trước, Anthropic cho biết phiên bản mới của mô hình Claude đã cho thấy những cải tiến trong việc hoàn thành các “nhiệm vụ phụ đáng ngờ”. Trong một mô phỏng trước đó, Anthropic chỉ ra rằng Claude và các mô hình AI khác đôi khi sẵn sàng tống tiền người dùng, hoặc thậm chí để một giám đốc chết trong phòng máy chủ quá nóng, để tránh bị vô hiệu hóa.
OpenAI lẫn Anthropic đều khẳng định rất coi trọng vấn đề an toàn và không phát hành mô hình AI trước khi chúng được đánh giá đầy đủ và giảm thiểu các mối nguy hiểm.
Nhằm giúp giải quyết những lo ngại rằng AI trong tương lai có thể không chia sẻ các giá trị của con người, Anthropic đã tuyển dụng nhà triết học Amanda Askell để cố gắng dạy đạo đức cho chatbot Claude của mình. Amanda Askell tự mô tả cô là người lạc quan nhưng vẫn nhìn thấy những rủi ro rằng các cơ chế kiểm soát và cân bằng của xã hội có thể bị vượt qua bởi tốc độ phát triển AI.
“Điều khiến tôi lo ngại là việc này xảy ra quá nhanh hoặc theo cách mà các cơ chế kiểm soát không thể phản ứng kịp, hoặc những tác động tiêu cực lớn xuất hiện một cách đột ngột”, Amanda Askell nói với WSJ.
Sơn Vân