Từ năm 2022, Mỹ đã có một vị thế dẫn đầu vững chắc trong lĩnh vực AI (trí tuệ nhân tạo) nhờ các mô hình tiên tiến từ các công ty hàng đầu như OpenAI, Google DeepMind, Anthropic và xAI. Tuy nhiên, ngày càng nhiều chuyên gia lo ngại Mỹ đang tụt lại trong việc tạo ra các mô hình AI mở, có thể tải xuống, điều chỉnh và chạy cục bộ.
Mô hình mở từ những công ty Trung Quốc như DeepSeek, Alibaba, Kimi, Z.ai đang nhanh chóng được ưa chuộng trong giới nghiên cứu và kỹ sư toàn cầu, khiến Mỹ trở thành kẻ chậm chân trong một lĩnh vực ngày càng quan trọng của đổi mới AI. “Mỹ cần các mô hình mở để củng cố vị thế dẫn đầu ở mọi cấp độ của AI”, Nathan Lambert, nhà sáng lập dự án ATOM (Mô hình mở thực sự của Mỹ), chia sẻ với tạp chí Wired.
Những mô hình tiên tiến nhất của các công ty Mỹ hiện chỉ có thể truy cập thông qua chatbot hoặc gửi truy vấn tới máy chủ qua API (giao diện lập trình ứng dụng). OpenAI và Google đã tung ra một số mô hình trọng số mở, nhưng khả năng còn kém xa các sản phẩm Trung Quốc, vốn dễ tùy chỉnh hơn và được hỗ trợ tốt hơn cho nhà phát triển. Các công ty Trung Quốc cũng hưởng lợi khi mở mã nguồn mô hình AI của họ, vì những ý tưởng và tinh chỉnh xuất sắc từ cộng đồng có thể được đưa vào bản phát hành trong tương lai.
Mỹ đang tụt hậu về mô hình AI mở so với Trung Quốc - Ảnh: Getty Images
Nathan Lambert, nhà nghiên cứu tại Viện AI Allen ở thành phố Seattle (bang Washington, Mỹ), lập ra dự án ATOM để cảnh báo rủi ro nếu Mỹ tụt hậu trong nguồn mở. Theo ông, Mỹ cần các mô hình mở tiên tiến một phần vì việc phụ thuộc vào mô hình nước ngoài có thể trở thành vấn đề nếu nó đột ngột bị ngừng phát triển hoặc đóng mã nguồn.
Ông cho rằng mô hình mở còn thúc đẩy đổi mới và thử nghiệm giữa các công ty khởi nghiệp cùng giới nghiên cứu. Ngoài ra, các công ty có dữ liệu nhạy cảm cần mô hình mở để chạy trên hạ tầng riêng. “Mô hình mở là một thành phần nền tảng của nghiên cứu, lan tỏa, đổi mới AI, và Mỹ nên đóng vai trò dẫn dắt thay vì chạy theo các quốc gia khác”, Nathan Lambert nói.
Dự án ATOM đưa ra lập luận thuyết phục về việc cần nhiều sự cởi mở hơn và cho thấy các mô hình mở của Trung Quốc đã vượt Mỹ vài năm gần đây.
Meta khởi xướng làn sóng AI mở nhưng DeepSeek gây chấn động toàn cầu
Trớ trêu thay, làn sóng AI mở lại được khởi xướng bởi Meta Platforms, khi công ty mẹ Facebook tung ra mô hình trọng số mở tiên tiến Llama vào tháng 7.2023. Thời điểm ấy, Meta Platforms xem Llama là cách để tăng tốc trong cuộc đua AI. Llama nhanh chóng trở nên phổ biến trong giới nghiên cứu và khởi nghiệp.
Kể từ đó, Meta Platforms và nhiều công ty AI Mỹ bị cuốn vào mục tiêu phát triển AGI (loại siêu AI ngang hoặc vượt năng lực con người) trước các đối thủ cạnh tranh, dẫn tới xu hướng ít cởi mở hơn. Những tháng gần đây, Giám đốc điều hành Mark Zuckerberg đại tu bộ phận AI của Meta Platforms với hàng loạt thương vụ tuyển dụng đắt đỏ và một phòng thí nghiệm siêu trí tuệ mới. Mark Zuckerberg cũng tiết lộ Meta Platforms có thể không còn mở mã nguồn những mô hình tốt nhất của hãng.
Theo Mark Zuckerberg, Meta có thể không còn mở mã nguồn những mô hình tốt nhất của mình - Ảnh: Internet
Ngược lại, ngành công nghệ Trung Quốc năm nay lại chuyển hướng sang sự cởi mở lớn hơn. Tháng 1.2025, DeepSeek (lúc đó còn kém tiếng) ra mắt mô hình mã nguồn mở R1 gây chấn động toàn cầu, nhờ hiệu suất vượt trội và chi phí huấn luyện thấp hơn rất nhiều so với các sản phẩm Mỹ. Tiếp đến, nhiều công ty Trung Quốc tiếp tục tung ra các mô hình mở mạnh mẽ với những cải tiến bổ sung.
Một số nhà nghiên cứu AI tin rằng Mỹ cần áp dụng các hình thức cởi mở triệt để hơn nhằm giành lại lợi thế thực sự.
Percy Liang, nhà khoa học máy tính tại Đại học Stanford (Mỹ) và là người ký vào thư ngỏ ủng hộ dự án ATOM, cho biết phần lớn mô hình mở ở Mỹ và Trung Quốc đều là mở trọng số nhưng thiếu tính minh bạch như sản phẩm mã nguồn mở, vì dữ liệu huấn luyện vẫn được giữ bí mật.
Mô hình ngôn ngữ trọng số mở khác với mô hình mã nguồn mở, vốn cho phép truy cập toàn bộ mã nguồn, dữ liệu huấn luyện và phương pháp huấn luyện.
Percy Liang đang dẫn dắt dự án Marin, mô hình ngôn ngữ lớn được huấn luyện hoàn toàn trên dữ liệu mở, với nguồn tài trợ từ Google, Open Athena và Schmidt Sciences.
Open Athena là tổ chức phi lợi nhuận của Mỹ nhằm thúc đẩy AI minh bạch, an toàn và nguồn mở. Dự án tập trung tài trợ cho các mô hình ngôn ngữ lớn được huấn luyện trên dữ liệu mở và các nghiên cứu giúp AI dễ kiểm chứng hơn.
Schmidt Sciences là quỹ khoa học do Eric Schmidt (cựu giám đốc điều hành Google) sáng lập. Quỹ này tài trợ cho các nghiên cứu đột phá về AI, sinh học, khoa học tính toán và nhiều lĩnh vực nền tảng khác.
Percy Liang cho rằng sự thổi phồng xoay quanh AGI phần lớn không có ích. “Quan điểm rằng chỉ một công ty sẽ xây dựng được AGI rồi mang nó ban phát cho mọi người là có phần sai lệch”, ông nhấn mạnh. Theo Percy Liang, chính phủ Mỹ có thể cần vào cuộc để thúc đẩy sự cởi mở.
Ông nói thêm rằng việc ngày càng nhiều nhà nghiên cứu hiểu cách xây dựng và điều chỉnh các mô hình AI sẽ dẫn đến một hệ sinh thái công nghệ lành mạnh hơn. “Tôi nghĩ đây là điều thiết yếu với nhiều công ty. Chúng ta đã biết từ lịch sử những gì xảy ra với các công ty độc quyền”, Percy Liang khẳng định.
“Chi phí để Mỹ cạnh tranh với các mô hình mở của Trung Quốc rất thấp”
Một số người khác cho rằng những cách tiếp cận táo bạo về chia sẻ dữ liệu có thể giúp Mỹ lấy lại đà tiến trong lĩnh vực AI.
Andrew Trask, Giám đốc điều hành OpenMined - công ty phát triển phương pháp huấn luyện AI theo kiểu liên kết liên bang, mới đây kêu gọi chính phủ Mỹ xây dựng chương trình giúp doanh nghiệp tiếp cận các bộ dữ liệu huấn luyện không công khai. Ông ví chương trình này với ARPANET, mạng lưới do Bộ Quốc phòng Mỹ tài trợ và sau đó trở thành nền tảng của internet.
Andrew Trask nói việc tiếp cận lượng dữ liệu đó có thể mang tính quyết định cho bước nhảy vọt tiếp theo của AI. Ở điểm này, Trung Quốc có thể có lợi thế nếu chính phủ buộc nhiều công ty phải chia sẻ dữ liệu cho các nhóm phát triển mô hình.
“Hiện có khoảng 180 zettabyte (1 tỉ TB) dữ liệu ngoài kia”, Andrew Trask nói. Trong khi đó, các mô hình AI mạnh nhất ngày nay chỉ được huấn luyện dựa trên vài trăm TB.
Nathan Lambert cho biết một số công ty đã bắt đầu tỏ ý muốn hỗ trợ nỗ lực xây dựng các mô hình mở tiên tiến. “Điều quan trọng nhất ở đây là chi phí để Mỹ cạnh tranh với các mô hình mở của Trung Quốc thực ra rất thấp”, ông nói. Dự án ATOM ước tính Mỹ cần khoảng 100 triệu USD mỗi năm để xây dựng và duy trì một mô hình AI mã nguồn mở tiên tiến. Trong thế giới AI, con số đó không lớn. Thậm chí, 100 triệu USD chỉ bằng khoản tiền mà Mark Zuckerberg sẵn sàng trả cho một nhân tài AI để tham gia nỗ lực xây dựng siêu trí tuệ mới của ông.
Điểm đáng chú ý là hai mô hình trọng số mở gpt-oss của OpenAI đang được thử nghiệm trên các hệ thống quân sự nhạy cảm của Mỹ.
Khi OpenAI công bố hai mô hình trọng số mở đầu tiên sau nhiều năm (kể từ 2019) vào tháng 8 vừa qua, không chỉ các hãng công nghệ chú ý mà cả Quân đội Mỹ và nhà thầu quốc phòng cũng hào hứng, bởi nhìn thấy cơ hội sử dụng chúng cho hoạt động có độ bảo mật cao.
gpt-oss có hai phiên bản là gpt-oss-120b (117 tỉ tham số, có thể chạy trên một GPU 80GB tiêu chuẩn) và gpt-oss-20b (21 tỉ tham số, chỉ cần GPU 16GB để vận hành), phù hợp cho các thiết bị cục bộ.
OpenAI cho biết gpt-oss-120b và gpt-oss-20b có hiệu năng tương đương mô hình suy luận độc quyền o3-mini và o4-mini, vượt trội về khả năng lập trình, giải toán thi đấu và các truy vấn liên quan đến y tế.
Theo OpenAI, gpt-oss-120b và gpt-oss-20b được huấn luyện trên tập dữ liệu chỉ gồm văn bản, ngoài kiến thức tổng quát thì còn tập trung vào khoa học, toán học và lập trình.
Các trọng số đã được huấn luyện trong gpt-oss là công khai, cho phép nhà phát triển tải xuống công khai, sử dụng để phân tích và tinh chỉnh mô hình cho những tác vụ cụ thể mà không cần dữ liệu huấn luyện gốc.
Một số nhà cung cấp cho Quân đội Mỹ nói với tạp chí Wired rằng gpt-oss hiện vẫn kém các đối thủ ở một số năng lực mong muốn. Tuy vậy, họ vẫn hài lòng khi cuối cùng cũng có thể dùng mô hình từ một công ty hàng đầu trong lĩnh vực AI.
Lilt, công ty dịch thuật AI, hiện ký hợp đồng với Quân đội Mỹ để phân tích thông tin tình báo nước ngoài. Do phần mềm của Lilt xử lý dữ liệu mật nên phải được cài trực tiếp trên máy chủ chính phủ và hoạt động mà không cần kết nối internet. Trước đây, Lilt tự phát triển mô hình AI riêng hoặc dùng các mô hình mã nguồn mở như Llama của Meta Platforms hay Google Gemma. Các mô hình AI của OpenAI từng bị Lilt loại trừ vì là mã nguồn đóng và chỉ có thể truy cập trực tuyến.
gpt-oss-120b và gpt-oss-20b của OpenAI đã thay đổi điều đó. Cả hai có thể chạy cục bộ, nghĩa là người dùng được phép cài đặt và vận hành chúng trên thiết bị riêng mà không cần kết nối đám mây. Việc được truy cập vào trọng số của mô hình AI (những tham số then chốt quyết định cách mô hình phản ứng trước từng gợi lệnh) cho phép người dùng tùy chỉnh cho mục đích cụ thể.
Việc OpenAI quay lại thị trường mở có thể thúc đẩy cạnh tranh và tạo ra những hệ thống mạnh mẽ hơn cho quân đội, công ty chăm sóc sức khỏe và các bên khác làm việc với dữ liệu nhạy cảm. Một khảo sát gần đây của công ty tư vấn quản lý toàn cầu McKinsey trên khoảng 700 lãnh đạo doanh nghiệp cho thấy hơn 50% tổ chức đã dùng công nghệ AI mã nguồn mở. Mỗi mô hình có điểm mạnh riêng dựa vào cách huấn luyện và nhiều tổ chức thường kết hợp cả mô hình trọng số mở để tăng độ tin cậy trong các tình huống đa dạng.
EdgeRunner AI, công ty đang phát triển trợ lý ảo cho Quân đội Mỹ hoạt động mà không cần đám mây, tiết lộ đã đạt hiệu suất đủ tốt với gpt-oss sau khi huấn luyện lại bằng kho tài liệu quân sự nội bộ. Lục quân và Không quân Mỹ sẽ bắt đầu thử nghiệm mô hình này trong tháng 11.
Sơn Vân