'Khoảnh khắc DeepSeek' của Google làm cổ phiếu Samsung và chip nhớ Trung Quốc lao dốc

'Khoảnh khắc DeepSeek' của Google làm cổ phiếu Samsung và chip nhớ Trung Quốc lao dốc
9 giờ trướcBài gốc
TurboQuant - một thuật toán AI (trí tuệ nhân tạo) mới do Google phát triển - làm dấy lên lo ngại rằng nhu cầu chip nhớ có thể giảm, khiến cổ phiếu ngành này trên toàn cầu lao dốc. Tuy nhiên, các nhà phân tích cho rằng đây lại là cơ hội để nhà đầu tư “mua cổ phiếu chip nhớ khi giá giảm”.
Cổ phiếu các hãng chip nhớ hàng đầu như Samsung Electronics và SK Hynix giảm sau khi Google cho biết trong bài đăng blog mới đây rằng TurboQuant giúp giảm nhu cầu bộ nhớ của các bộ đệm khóa - giá trị (KV cache) xuống 6 lần nhờ “nén cực mạnh” thông tin. Các nhà đầu tư lo ngại rằng những cải thiện về hiệu quả của TurboQuant sẽ làm giảm nhu cầu chip nhớ.
Đà giảm cổ phiếu trên thị trường nhanh chóng lan sang các công ty sản xuất chip nhớ lớn Trung Quốc như GigaDevice Semiconductor và Montage Technology.
Tuy nhiên, các nhà phân tích cho rằng TurboQuant thực chất lại là cú hích cho cả ngành bộ nhớ và AI nói chung. Bằng cách tăng khả năng xử lý dữ liệu của mỗi chip, TurboQuant sẽ giúp giảm chi phí suy luận, theo Shawn Kim - Giám đốc nghiên cứu công nghệ châu Á của tập đoàn tài chính Morgan Stanley (Mỹ).
Quan điểm trái chiều này phản ánh sự bất định rất lớn về nhu cầu của thị trường trong làn sóng xây dựng hạ tầng AI chưa từng có, giữa bối cảnh vẫn tồn tại lo ngại về bong bóng AI đã đẩy định giá các công ty chip nhớ và bán dẫn toàn cầu lên cao.
Nghịch lý Jevons
Song thay vì làm giảm nhu cầu chip nhớ, TurboQuant có thể tạo ra hiệu ứng ngược lại do Nghịch lý Jevons, trong đó việc tăng hiệu quả khiến tổng nhu cầu tăng khi các dịch vụ trở nên rẻ hơn, thu hút nhiều người dùng và trường hợp sử dụng hơn, Shawn Kim cho biết. Nghịch lý Jevons được đặt theo tên của nhà kinh tế học William Stanley Jevons ở thế kỷ 19.
Shawn Kim nhận định: “TurboQuant không chỉ là cải tiến nhỏ để tối ưu hiệu suất, mà là bước thay đổi lớn giúp giảm mạnh chi phí triển khai AI. Nhờ đó, những mô hình trước đây phải chạy trên các cụm máy chủ đám mây giờ có thể hoạt động ngay trên phần cứng cục bộ, giúp việc triển khai AI ở quy mô lớn trở nên dễ dàng hơn.
Khi chi phí và rào cản giảm xuống, sẽ có nhiều ứng dụng AI khả thi hơn, nhiều mô hình tiếp tục được sử dụng và hạ tầng hiện có cũng được tận dụng hiệu quả hơn”.
Ông cho rằng TurboQuant là “khoảnh khắc DeepSeek” của Google, ám chỉ việc mô hình suy luận DeepSeek R1 ra mắt vào tháng 1.2025 từng gây chấn động toàn cầu vì hiệu suất ngang ngửa các sản phẩm Mỹ như của OpenAI, Google và Anthropic nhưng chi phí huấn luyện thấp hơn rất nhiều.
Sự kiện này đã kích hoạt đợt bán tháo cổ phiếu công nghệ trị giá khoảng 1.000 tỉ USD trên thị trường toàn cầu. Riêng Nvidia - công ty Mỹ chuyên cung cấp chip tiên tiến đắt đỏ để huấn luyện các mô hình AI - mất gần 600 tỉ USD vốn hóa thị trường chỉ trong ngày 27.1.2025.
Tuy vậy, cổ phiếu Nvidia đã phục hồi trong năm qua, tăng gần 60% vì nhà đầu tư nhận ra rằng Nghịch lý Jevons cũng áp dụng cho các chip AI cao cấp của hãng, ngay cả khi các mô hình mã nguồn mở Trung Quốc như DeepSeek tiếp tục giảm nhu cầu tính toán cho việc huấn luyện và vận hành AI.
TurboQuant làm dấy lên lo ngại rằng nhu cầu với chip nhớ có thể giảm - Ảnh: Google
Lennart Heim - chuyên gia bán dẫn từng làm việc tại Rand Corporation - nhận định rằng, nhu cầu bộ nhớ và bán dẫn toàn cầu vẫn tiếp tục tăng dù hiệu quả công nghệ được cải thiện với tốc độ theo cấp số nhân.
Rand Corporation là tổ chức nghiên cứu phi lợi nhuận có trụ sở tại Mỹ, chuyên phân tích và tư vấn chính sách dựa trên dữ liệu và khoa học. Tổ chức này được thành lập sau Thế chiến II, ban đầu phục vụ nghiên cứu cho quân đội Mỹ, đặc biệt là Không quân Mỹ. Theo thời gian, Rand Corporation mở rộng sang nhiều lĩnh vực như quốc phòng, kinh tế, công nghệ, y tế, giáo dục và chính sách công.
GigaDevice Semiconductor và Montage Technology gần đây đã hoàn tất niêm yết thứ cấp tại Hồng Kông (Trung Quốc) trong bối cảnh chu kỳ siêu tăng trưởng của ngành bộ nhớ toàn cầu, được thúc đẩy bởi tình trạng thiếu hụt nguồn cung nghiêm trọng.
Hai công ty này đã chứng kiến cổ phiếu niêm yết tại thành phố Thượng Hải (Trung Quốc) tăng lần lượt 124,01% và 83,14% trong vòng một năm qua.
KV cache quan trọng như thế nào?
KV cache là cơ chế lưu trữ tạm thời trong các mô hình AI nhằm tăng tốc quá trình sinh văn bản, bằng cách không phải tính toán lại những gì đã xử lý trước đó. Hiểu đơn giản, trong mỗi bước tạo ra một từ mới, mô hình AI sẽ phải nhìn lại toàn bộ chuỗi từ đã có trước đó để quyết định từ tiếp theo. Nếu mỗi lần đều tính lại từ đầu thì sẽ rất tốn thời gian và tài nguyên. KV cache giải quyết vấn đề này bằng cách lưu lại các thông tin trung gian quan trọng.
Bạn có thể hình dung KV cache giống như việc ghi nhớ các ghi chú quan trọng trong một cuộc họp. Thay vì nghe lại toàn bộ bản ghi từ đầu mỗi lần muốn phát biểu, bạn chỉ cần xem lại các ghi chú đã lưu.
Vai trò của KV cache rất quan trọng vì giảm đáng kể độ trễ khi AI phản hồi, tiết kiệm tài nguyên tính toán, nhưng lại tiêu tốn nhiều tài nguyên RAM/VRAM, đặc biệt với các mô hình ngôn ngữ lớn và chuỗi văn bản dài.
Đây chính là lý do vì sao các cải tiến như TurboQuant (nén KV cache) có thể gây ảnh hưởng lớn đến ngành chip nhớ. Nếu giảm được dung lượng KV cache, chi phí vận hành AI sẽ giảm mạnh, nhưng đồng thời cũng có thể làm thay đổi nhu cầu chip nhớ.
Sơn Vân
Nguồn Một Thế Giới : https://1thegioi.vn/khoanh-khac-deepseek-cua-google-lam-co-phieu-samsung-va-chip-nho-trung-quoc-lao-doc-249393.html