Thị trường phần cứng đang cạnh tranh quyết liệt
Động thái này nhằm giành lại vị thế dẫn đầu trong thị trường bộ nhớ băng thông cao (HBM) trước đối thủ SK Hynix, vốn đang chiếm ưu thế nhờ hợp tác chặt chẽ với Nvidia. Samsung đã khởi động dự án mở rộng sản xuất tại nhà máy Pyeongtaek và dự kiến sẽ thiết lập một dây chuyền sản xuất hàng loạt khác tại Yongin, với mục tiêu bắt đầu sản xuất HBM4 từ quý 3 năm 2025, sớm hơn dự kiến ban đầu là đầu năm 2026.
HBM4, với tốc độ truyền dữ liệu lên đến 1,6 TB/giây nhờ giao diện 2048-bit, là bước tiến lớn so với HBM3E. Điều này giúp đáp ứng nhu cầu ngày càng tăng từ các ứng dụng AI và trung tâm dữ liệu. SK Hynix hiện đang dẫn đầu thị trường HBM, với hơn 90% thị phần HBM3 và đã cung cấp HBM4 cho Nvidia. CEO Nvidia Jensen Huang từng ca ngợi HBM4 của SK Hynix là “mãn nhãn” tại Computex, nhưng Samsung đang quyết tâm lấy lại vị thế bằng cách cải thiện năng suất chip và tận dụng các công nghệ tiên tiến như NCF (phim không dẫn điện - một loại vật liệu polyme dạng phim được sử dụng rộng rãi trong công nghệ đóng gói chip bán dẫn NFC) và NBC (liên kết đồng lai).
Động thái của Samsung không chỉ nhằm cạnh tranh với SK Hynix mà còn đáp ứng nhu cầu ngày càng tăng từ các khách hàng lớn như Oracle, công ty vừa đặt mua 40 tỉ USD chip Nvidia cho trung tâm dữ liệu của OpenAI. Bên cạnh đó, Samsung cũng đang đối mặt với áp lực từ cuộc chiến giá DRAM với các nhà sản xuất Trung Quốc, buộc công ty phải cắt giảm sản xuất DRAM truyền thống và chuyển sang sản xuất bộ nhớ thế hệ mới.
Cuộc đua HBM4 giữa Samsung và SK Hynix đang nóng lên, hứa hẹn mang lại những bước tiến mới cho ngành công nghiệp bộ nhớ, đồng thời định hình tương lai của các ứng dụng AI và tính toán hiệu năng cao trên toàn cầu.
HBM4 tăng gấp đôi số lượng kênh độc lập trên mỗi "stack" (ngăn xếp) từ 16 kênh (trong HBM3) lên 32 kênh. Độ rộng giao diện dữ liệu cũng được tăng lên từ 1024-bit lên 2048-bit.
Với tốc độ truyền dữ liệu lên tới 8 Gb/giây mỗi pin, HBM4 có thể đạt tổng băng thông lên đến 2 TB/giây (Terabyte mỗi giây) cho mỗi stack HBM4, gấp đôi so với HBM3 (khoảng 819 GB/giây). Điều này cực kỳ quan trọng cho các mô hình AI lớn (LLM) và các tác vụ tính toán phức tạp.
HBM4 hỗ trợ cấu hình stack với số lớp DRAM cao hơn, lên đến 16 lớp (16-high) so với 12 lớp của HBM3E. Mật độ từng khuôn DRAM (die density) cũng được tăng lên (ví dụ: 24 Gb hoặc 32 Gb), cho phép dung lượng mỗi stack có thể đạt tới 64 GB (với cấu hình 32Gb 16-high) hoặc thậm chí 128 GB trở lên theo các dự kiến.
HBM4 hỗ trợ các tùy chọn điện áp VDDQ thấp hơn (0.7V, 0.75V, 0.8V, 0.9V) và VDDC (1.0V hoặc 1.05V), giúp giảm mức tiêu thụ điện năng. Các cải tiến về kiến trúc và tản nhiệt cũng góp phần tăng cường hiệu quả năng lượng.
Anh Tú