'Thiên tài tài chính Trung Quốc' Liang Wenfeng cung cấp một con đường khả thi cho các nhà nghiên cứu AI toàn cầu

'Thiên tài tài chính Trung Quốc' Liang Wenfeng cung cấp một con đường khả thi cho các nhà nghiên cứu AI toàn cầu
8 giờ trướcBài gốc
Vào ngày 8/12, theo giờ địa phương, tạp chí quốc tế danh tiếng Nature đã công bố danh sách 10 nhà khoa học có ảnh hưởng nhất năm 2025.
Liang Wenfeng, 40 tuổi, được chọn vì những đóng góp của mình cho việc ứng dụng rộng rãi công nghệ trí tuệ nhân tạo (AI). Nature mô tả Liang Wenfeng là "thần đồng tài chính người Trung Quốc đã gây chấn động thế giới, với mô hình AI DeepSeek của mình". Vào tháng Một năm nay, DeepSeek bất ngờ tung ra mô hình R1 mạnh mẽ nhưng chi phí thấp, chứng minh rằng vị thế dẫn đầu của Mỹ trong lĩnh vực trí tuệ nhân tạo không rộng lớn như nhiều chuyên gia dự đoán. DeepSeek có trụ sở tại Hàng Châu, một công ty tách ra từ Quỹ Định lượng High-Flyer của Liang thậm chí cũng gây chú ý vào đầu năm nay vì làm chao đảo thị trường chứng khoán Mỹ. Vào ngày 27/1, một đợt bán tháo lớn đã xóa sổ gần 1.000 tỷ đô la Mỹ cổ phiếu công nghệ, bao gồm 600 tỷ đô la Mỹ chỉ riêng từ Nvidia.
R1 là một mô hình ngôn ngữ lớn dựa trên suy luận, có khả năng giải quyết các nhiệm vụ phức tạp như tính toán toán học và lập trình bằng cách chia nhỏ các bước. Đây là mô hình có trọng số mã nguồn mở đầu tiên trên thế giới thuộc loại này, được cung cấp miễn phí để tải xuống và phát triển thêm bởi bất kỳ ai. Thành công của DeepSeek dường như đã thúc đẩy các công ty khác ở Trung Quốc và Mỹ làm theo, cho ra mắt các mô hình mã nguồn mở của riêng họ.
Tòa nhà ở Hàng Châu, thủ phủ của tỉnh Chiết Giang, phía Đông Trung Quốc, là trụ sở chính của DeepSeek, một công ty khởi nghiệp nổi tiếng về trí tuệ nhân tạo của Trung Quốc.
Các chuyên gia trí tuệ nhân tạo cho rằng, trong khi khả năng của R1 tương đương với các mô hình hàng đầu của Mỹ (bao gồm cả mô hình nền tảng hỗ trợ ChatGPT), chi phí đào tạo của nó thấp hơn đáng kể so với các đối thủ cạnh tranh. Ví dụ, mô hình Llama 3 405B của Meta có chi phí đào tạo cao hơn gấp mười lần so với R1.
Vào tháng 8/2025, DeepSeek đã phát hành DeepSeek-V3.1, một bản cập nhật lớn, kết hợp những ưu điểm của V3 và R1 thành một mô hình lai duy nhất. Tháng 9/2025, các kỹ sư của DeepSeek đã công bố trên tạp chí Nature chi tiết về cách xây dựng và huấn luyện R1. Điều đó đã khiến R1 trở thành mô hình ngôn ngữ lớn đầu tiên trải qua quá trình xem xét của các chuyên gia, theo tạp chí khoa học. Nature tin rằng, bằng việc công bố các giải pháp kỹ thuật của mình, DeepSeek đã cung cấp một con đường khả thi cho các nhà nghiên cứu AI toàn cầu để huấn luyện các mô hình dựa trên suy luận.
Nguồn SVVN : https://svvn.tienphong.vn/thien-tai-tai-chinh-trung-quoc-liang-wenfeng-cung-cap-mot-con-duong-kha-thi-cho-cac-nha-nghien-cuu-ai-toan-cau-post1804552.tpo