OpenAI sắp thiết kế xong chip tùy chỉnh đầu tiên nhờ cựu chuyên gia Google, gửi đến TSMC sản xuất

OpenAI sắp thiết kế xong chip tùy chỉnh đầu tiên nhờ cựu chuyên gia Google, gửi đến TSMC sản xuất
11 giờ trướcBài gốc
Theo nguồn tin từ Reuters, OpenAI (“cha đẻ” ChatGPT) sẽ hoàn tất thiết kế chip đầu tiên trong vài tháng tới và có kế hoạch gửi nó đến TSMC (hãng sản xuất chip theo hợp đồng số 1 thế giới của Đài Loan) để gia công. Quá trình gửi thiết kế đầu tiên đến nhà máy sản xuất chip được gọi là taping out.
OpenAI và TSMC từ chối bình luận về thông tin này.
Nguồn tin cho biết OpenAI đang đi đúng hướng để đạt được mục tiêu tham vọng là sản xuất hàng loạt chip tại TSMC vào năm 2026. Một lần tape-out thường tốn hàng chục triệu USD và mất khoảng 6 tháng để tạo ra chip hoàn chỉnh, trừ khi OpenAI trả nhiều tiền hơn đáng kể để đẩy nhanh quá trình sản xuất.
Không có gì đảm bảo rằng chip sẽ hoạt động ngay từ lần tape-out đầu tiên. Nếu thất bại, công ty sẽ phải chẩn đoán vấn đề và lặp lại bước tape-out.
Bên trong nội bộ OpenAI, chip chuyên đào tạo AI này được xem như một công cụ chiến lược để củng cố vị thế đàm phán của công ty với các nhà cung cấp chip khác, theo các nguồn tin của Reuters. Sau chip ban đầu, các kỹ sư OpenAI có kế hoạch phát triển các bộ xử lý ngày càng tiên tiến hơn với nhiều khả năng mở rộng hơn qua từng thế hệ.
Nếu lần tape-out đầu tiên diễn ra suôn sẻ thì sẽ giúp OpenAI sản xuất hàng loạt chip AI nội bộ đầu tiên của mình và có khả năng thử nghiệm một giải pháp thay thế cho chip Nvidia vào cuối năm 2025. Kế hoạch gửi thiết kế đến TSMC trong năm nay cho thấy OpenAI đã đạt được tiến bộ nhanh chóng trong thiết kế chip đầu tiên của mình. Đây là quá trình mà các nhà thiết kế chip khác có thể mất nhiều năm để hoàn thành.
Các hãng công nghệ lớn như Microsoft và Meta Platforms đã gặp nhiều khó khăn trong việc tạo ra các chip hiệu quả dù đã nỗ lực nhiều năm.
Các mô hình AI nguồn mở của công ty khởi nghiệp DeepSeek (Trung Quốc) có chi phí thấp và hiệu suất mạnh mẽ làm dấy lên nghi ngờ về khoản đầu tư khổng lồ của các gã khổng lồ công nghệ Mỹ, đặc biệt là vào chip AI đắt đỏ. Điều này đã dẫn đến đợt bán tháo lớn cổ phiếu Nvidia hôm 27.1, khiến vốn hóa hãng chip AI hàng đầu của Mỹ giảm gần 600 tỉ USD chỉ trong một ngày.
Sự trỗi dậy của DeepSeek cũng khiến người ta đặt ra câu hỏi về việc liệu có cần nhiều chip để phát triển các mô hình AI mạnh mẽ trong tương lai hay không.
Chip tùy chỉnh đầu tiên của OpenAI sẽ được TSMC sản xuất theo quy trình tiên tiến 3 nanomet - Ảnh: Internet
Cựu chuyên gia Google dẫn đầu nhóm thiết kế chip của OpenAI
Chip đang được thiết kế bởi nhóm nội bộ của OpenAI do Richard Ho dẫn đầu. Nhóm này đã tăng gấp đôi số lượng nhân sự trong những tháng qua, đạt 40 người, và đang hợp tác với Broadcom.
Broadcom là tập đoàn công nghệ đa quốc gia của Mỹ, chuyên sản xuất các loại bán dẫn, linh kiện mạng và phần mềm doanh nghiệp. Công ty này nổi tiếng với việc cung cấp chip cho nhiều lĩnh vực, từ truyền thông, trung tâm dữ liệu, thiết bị di động, AI, đến điện toán đám mây.
Richard Ho gia nhập OpenAI hơn một năm trước từ Google, nơi ông từng giúp dẫn dắt chương trình phát triển chip AI tùy chỉnh của gã khổng lồ tìm kiếm. Reuters lần đầu tiên tiết lộ kế hoạch hợp tác giữa OpenAI và Broadcom vào năm ngoái.
Nhóm của Richard Ho vẫn nhỏ hơn so với các nỗ lực quy mô lớn tại tập đoàn công nghệ như Google hay Amazon. Theo các nguồn tin trong ngành, mỗi đợt thiết kế chip mới cho chương trình AI quy mô lớn có thể tiêu tốn 500 triệu USD chỉ cho một phiên bản chip duy nhất. Chi phí này có thể tăng gấp đôi nếu tính cả phần mềm và hệ sinh thái đi kèm.
OpenAI, Google và Meta Platforms đã chứng minh rằng việc sử dụng ngày càng nhiều chip trong trung tâm dữ liệu giúp cải thiện trí thông minh của mô hình AI, dẫn đến nhu cầu ngày càng cao với các chip. Meta Platforms cho biết sẽ chi 60 - 65 tỉ USD cho hạ tầng AI trong năm 2025, còn Microsoft dự kiến chi 80 tỉ USD cùng kỳ.
OpenAI đã tham gia vào chương trình hạ tầng trị giá 500 tỉ USD mang tên Stargate cùng với Softbank và Oracle, do Tổng thống Mỹ Donald Trump công bố tháng trước.
Hiện tại, chip AI của Nvidia là loại phổ biến nhất và chiếm khoảng 80% thị phần. Chi phí tăng cao và sự phụ thuộc vào một nhà cung cấp duy nhất đã khiến các khách hàng lớn như OpenAI, Microsoft, Meta Platforms tìm kiếm các giải pháp thay thế nội bộ hoặc từ các bên thứ ba khác Nvidia.
Chip AI nội bộ của OpenAI, dù có khả năng vừa đào tạo vừa vận hành các mô hình AI, ban đầu sẽ chỉ được triển khai ở quy mô giới hạn, chủ yếu để chạy các mô hình AI, theo các nguồn tin. Chip này sẽ đóng vai trò hạn chế trong cơ sở hạ tầng của OpenAI.
Để xây dựng chương trình AI chip toàn diện như của Google hoặc Amazon, OpenAI sẽ phải tuyển dụng hàng trăm kỹ sư.
TSMC sẽ sản xuất chip AI của OpenAI bằng công nghệ tiên tiến 3 nanomet. Chip này có kiến trúc mảng systolic phổ biến, bộ nhớ băng thông cao (HBM) – cũng được Nvidia sử dụng cho chip của họ – và những khả năng kết nối mạng tiên tiến, theo các nguồn tin.
Kiến trúc mảng systolic là một dạng thiết kế phần cứng dành cho các bộ xử lý, đặc biệt hiệu quả trong các tác vụ tính toán song song như xử lý ma trận, học sâu và AI.
Đặc điểm chính của kiến trúc mảng systolic
1. Dữ liệu di chuyển tuần hoàn giữa các phần tử xử lý (PE)
Thay vì truy xuất dữ liệu từ bộ nhớ chính liên tục, các phần tử xử lý (PE) giao tiếp trực tiếp với nhau theo mô hình dòng chảy dữ liệu, giúp giảm băng thông bộ nhớ.
2. Tối ưu cho các phép toán ma trận
Các phép nhân ma trận và tích chập (convolution) trong AI và xử lý ảnh có thể thực hiện rất hiệu quả với kiến trúc này.
3. Hiệu suất cao, độ trễ thấp
Vì các phần tử xử lý hoạt động đồng thời và chia sẻ dữ liệu hiệu quả, kiến trúc này giúp tăng tốc đáng kể các tác vụ AI mà không cần tiêu tốn quá nhiều năng lượng.
Ứng dụng của kiến trúc mảng systolic
Được sử dụng trong các bộ gia tốc AI như TPU (Tensor Processing Unit) của Google và các GPU/chip AI từ Nvidia, AMD.
Áp dụng trong các thuật toán xử lý tín hiệu số (DSP), mã hóa/giải mã video, xử lý ảnh và thị giác máy tính.
Với OpenAI, việc sử dụng kiến trúc mảng systolic cho chip AI nội bộ giúp tối ưu hiệu suất khi huấn luyện và chạy mô hình AI.
Cách đây một tuần, OpenAI đã giới thiệu tác tử AI mới có tên Deep Research, được ví như “siêu năng lực”.
Tác tử AI là hệ thống hoặc chương trình máy tính được thiết kế để thực hiện các tác vụ tự động bằng cách sử dụng AI. Các tác tử AI có khả năng tương tác với môi trường, thu thập thông tin, xử lý dữ liệu, ra quyết định và thực hiện các hành động dựa trên mục tiêu được đặt ra.
Deep Research được vận hành bởi mô hình o3 của OpenAI sắp ra mắt, được tối ưu hóa cho duyệt web và phân tích dữ liệu.
Tác tử AI mới này có khả năng thực hiện nghiên cứu nhiều bước trên internet cho các nhiệm vụ phức tạp mà theo OpenAI, "hoàn thành trong vài chục phút những gì con người phải mất nhiều giờ".
Bạn chỉ cần cung cấp một yêu cầu là Deep Research sẽ “tìm kiếm, phân tích và tổng hợp hàng trăm nguồn trực tuyến để tạo ra một báo cáo toàn diện ở cấp độ của nhà phân tích nghiên cứu”.
OpenAI đã trình diễn Deep Research trong một video.
Deep Research phục vụ cho các chuyên gia trong lĩnh vực tài chính, khoa học, chính sách và kỹ thuật, cung cấp những thông tin chi tiết đáng tin cậy và toàn diện. Tính năng này cũng hữu ích với những người mua sắm đang tìm kiếm các đề xuất được cá nhân hóa về giao dịch mua đòi hỏi phải nghiên cứu cẩn thận, chẳng hạn ô tô, đồ gia dụng và đồ nội thất.
Kết quả gồm các trích dẫn và tóm tắt rõ ràng, giúp dễ dàng xác minh. Về cơ bản, Deep Research giúp tinh giản quá trình nghiên cứu tốn thời gian, cung cấp thông tin chuyên sâu hiệu quả chỉ từ một truy vấn.
Trong loạt bài đăng trên mạng xã hội X, Sam Altman (Giám đốc điều hành OpenAI) đã mô tả Deep Research là "giống một siêu năng lực, hoạt động như nhóm chuyên gia sẵn sàng hỗ trợ bạn".
Sam Altman cho biết Deep Research có thể "sử dụng internet, thực hiện nghiên cứu, lập luận phức tạp và trả về cho bạn một báo cáo", xử lý các nhiệm vụ "mất nhiều giờ/ngày và tốn hàng trăm USD".
Dù rất tốn nhiều tài nguyên tính toán và hoạt động còn chậm, ông tuyên bố "Deep Research là hệ thống AI đầu tiên có thể thực hiện nhiều nhiệm vụ phức tạp, có giá trị như vậy".
Deep Research mất từ 5 đến 30 phút để hoàn thành công việc và bạn sẽ nhận được thông báo khi nghiên cứu xong. Kết quả cuối cùng là một báo cáo được gửi qua ChatGPT.
Hiện báo cáo chỉ có văn bản nhưng OpenAI cho biết trong những tuần tới, họ sẽ thêm hình ảnh nhúng, biểu đồ dữ liệu và các kết quả phân tích khác để tăng thêm độ rõ ràng và ngữ cảnh.
Deep Research hiện có sẵn như một phần gói Pro của OpenAI (giá 200 USD/tháng), với 100 truy vấn có sẵn mỗi tháng trên web. Nó sẽ có trên ứng dụng dành cho thiết bị di động và PC vào cuối tháng 2. Tính năng này cũng sẽ sớm khả dụng với khách hàng Plus, Team và Enterprise trước khi đến với gói miễn phí của OpenAI.
Sam Altman kêu gọi mọi người "hãy thử nghiệm Deep Research với công việc khó khăn nhất mà bạn phải giải quyết bằng cách sử dụng internet và xem điều gì sẽ xảy ra".
Tuy nhiên, OpenAI cảnh báo rằng Deep Research “có thể gặp khó khăn trong việc phân biệt thông tin có thẩm quyền với tin đồn và đang có điểm yếu trong việc hiệu chỉnh độ tin cậy (chưa thể đánh giá chính xác mức độ đáng tin cậy của thông tin đưa ra – PV), không thể hiện rõ thông tin chưa chắc chắn khiến người dùng có thể hiểu nhầm".
Theo OpenAI, khi Deep Research mới ra mắt, người dùng cũng có thể thấy các lỗi định dạng nhỏ trong báo cáo và trích dẫn, với các nhiệm vụ có thể mất nhiều thời gian hơn để bắt đầu.
"Chúng tôi kỳ vọng tất cả những vấn đề này sẽ nhanh chóng được cải thiện khi có thêm người dùng và thời gian", OpenAI cho hay.
Deep Research trình làng một tuần sau khi OpenAI giới thiệu một tác tử AI khác có tên Operator, hoạt động như trợ lý cho con người, thực hiện các tác vụ dựa trên web như đặt chỗ, chuyến đi và hàng tạp hóa theo yêu cầu của bạn.
Sơn Vân
Nguồn Một Thế Giới : https://1thegioi.vn/openai-sap-thiet-ke-xong-chip-tuy-chinh-dau-tien-nho-cuu-chuyen-gia-google-gui-den-tsmc-san-xuat-229164.html