Q & A
Online support
Hotline
090 888 3630
Email
info@wi-mesh.com.vn

Micron gia nhập cuộc đua HBM4: Đột phá Bộ nhớ băng thông cao cho AI và Trung tâm dữ liệu

Micron gia nhập cuộc đua HBM4: Đột phá Bộ nhớ băng thông cao cho AI và Trung tâm dữ liệu

Micron Technology đã bắt đầu gửi mẫu sản phẩm bộ nhớ băng thông cao (HBM4) 36GB 12 lớp mới nhất của mình đến các khách hàng chủ chốt, đánh dấu một bước tiến quan trọng trong việc tăng tốc phát triển các nền tảng AI thế hệ tiếp theo, đặc biệt trong các trung tâm dữ liệu và môi trường đám mây. Động thái này giúp Micron trở thành đối thủ mạnh mẽ trong thị trường bộ nhớ băng thông cao cho AI tổng quát, nơi SK Hynix đang dẫn đầu và Samsung có vẻ đang chậm lại.

HBM4 của Micron: Nâng tầm hiệu suất AI

Được xây dựng trên quy trình DRAM 1-beta tiên tiến của Micron và sử dụng công nghệ đóng gói đã được chứng minh, bộ nhớ HBM4 của Micron nổi bật với giao diện 2048-bit và tốc độ vượt quá 2.0 terabyte mỗi giây trên mỗi chồng bộ nhớ. Công ty tuyên bố rằng HBM4 36GB 12 lớp này vượt trội hơn HBM3E DRAM của họ tới hơn 60% về băng thông và 20% về hiệu quả năng lượng.

“Giao diện mở rộng này tạo điều kiện giao tiếp nhanh chóng và thiết kế thông lượng cao, đẩy nhanh hiệu suất suy luận của các mô hình ngôn ngữ lớn và hệ thống suy luận chuỗi tư duy. Đơn giản hơn, HBM4 sẽ giúp các bộ tăng tốc AI phản hồi nhanh hơn và suy luận hiệu quả hơn.”

- Micron

HBM4: Giải pháp cho các thách thức về băng thông và hiệu quả năng lượng của AI

Khi các khối lượng công việc AI – đặc biệt là huấn luyện và suy luận quy mô lớn – ngày càng bị giới hạn bởi băng thông bộ nhớ và hiệu quả năng lượng, sự ra đời của HBM4 sẽ đánh dấu một thời điểm then chốt trong bối cảnh bộ nhớ AI. HBM4 đại diện cho bước tiến mới nhất trong công nghệ DRAM xếp chồng 3D, mang lại những cải tiến lớn về băng thông, mật độ và hiệu quả được thiết kế riêng cho AI và điện toán hiệu suất cao.

Nó cải thiện đáng kể so với các thế hệ trước như HBM2E (~410 GB/s) và HBM3E (~819 GB/s), mang lại tới 1.5 TB/s mỗi chồng bộ nhớ. HBM4 giải quyết những thách thức này bằng cách cung cấp băng thông cao hơn đáng kể (lên tới 1.5 TB/s mỗi chồng) và dung lượng bộ nhớ tăng lên (lên tới 64GB hoặc hơn mỗi chồng), đồng thời cải thiện hiệu quả năng lượng.

Hình ảnh ba con chip bán dẫn được cách điệu, đại diện cho Micron, SK Hynix và Samsung, đang chạy đua trên đường đua dữ liệu phát sáng, hướng tới mục tiêu 'AI Thế hệ Tiếp theo'.

Cuộc đua HBM4 đang nóng lên giữa các ông lớn trong ngành bán dẫn.

HBM4: Động lực cho AI tổng quát và Mô hình ngôn ngữ lớn (LLMs)

Manish Rawat, một nhà phân tích tại TechInsights, cho biết: “Sự ra mắt của HBM4 đánh dấu một cột mốc quan trọng cho AI tổng quát và các mô hình ngôn ngữ lớn (LLM), đặc biệt khi các mô hình này mở rộng đến hàng trăm tỷ hoặc thậm chí hàng nghìn tỷ tham số. Ở quy mô như vậy, băng thông và dung lượng bộ nhớ trở thành nút thắt cổ chai về hiệu suất chính, hơn cả sức mạnh tính toán.”

Rawat nói thêm rằng những cải tiến này cho phép huấn luyện mô hình nhanh hơn, hỗ trợ các kích thước lô lớn hơn và mang lại hiệu suất suy luận hiệu quả hơn, điều này rất quan trọng đối với các mô hình tiên tiến như GPT-5, Gemini và Claude. HBM4 cũng tạo điều kiện tích hợp chặt chẽ hơn giữa các bộ tăng tốc AI và bộ nhớ, giảm độ trễ và tăng thông lượng, cho phép các kiến trúc sư hệ thống xây dựng các chồng tính toán được tối ưu hóa hơn, đặc biệt quan trọng đối với các ứng dụng AI đa phương thức và thời gian thực.

Những điểm chính cần lưu ý

  • Hiệu suất vượt trội: HBM4 của Micron đạt tốc độ vượt 2.0 TB/s mỗi chồng, nhanh hơn HBM3E 60% và cải thiện 20% về hiệu quả năng lượng.
  • Giao diện rộng hơn: Sử dụng giao diện 2048-bit, tối ưu hóa cho thông lượng cao.
  • Dung lượng lớn: Mẫu 36GB 12 lớp, với tiềm năng mở rộng lên 64GB hoặc hơn mỗi chồng.
  • Giải quyết nút thắt AI: HBM4 là chìa khóa để vượt qua các giới hạn về băng thông và hiệu quả năng lượng của các khối lượng công việc AI quy mô lớn.
  • Động lực cho AI tổng quát: Đặc biệt quan trọng cho việc mở rộng các mô hình ngôn ngữ lớn (LLMs) như GPT-5, Gemini, Claude.
  • Cải thiện tích hợp hệ thống: Giảm độ trễ và tăng thông lượng, cho phép các kiến trúc sư xây dựng các hệ thống AI hiệu quả hơn.
  • Cuộc đua nóng bỏng: Micron chính thức gia nhập cuộc đua HBM4, cạnh tranh trực tiếp với SK Hynix và Samsung.
“Sự ra mắt của HBM4 đánh dấu một cột mốc quan trọng cho AI tổng quát và các mô hình ngôn ngữ lớn (LLM), đặc biệt khi các mô hình này mở rộng đến hàng trăm tỷ hoặc thậm chí hàng nghìn tỷ tham số.”

- Manish Rawat, chuyên gia phân tích tại TechInsights

Cuộc đua cung cấp năng lượng cho AI thế hệ tiếp theo

Bằng cách gửi mẫu HBM4 cho các khách hàng chủ chốt, Micron đã chính thức gia nhập cuộc đua HBM4 cùng với SK Hynix. Vào tháng 3 năm nay, SK Hynix đã gửi mẫu HBM4 12 lớp đến các khách hàng. SK Hynix tuyên bố HBM4 của họ có khả năng xử lý hơn 2TB dữ liệu mỗi giây, tương đương với việc xử lý dữ liệu của hơn 400 bộ phim Full-HD (mỗi phim 5GB) trong một giây.

HBM4 12 lớp (hoặc 12-high) đề cập đến một cấu hình cụ thể của tiêu chuẩn đó. Trong khi Micron gọi sản phẩm HBM4 của mình là bộ nhớ xếp chồng 12-high, SK Hynix gọi đó là HBM4 12 lớp – cả hai đều đề cập đến số lượng chip DRAM được xếp chồng lên nhau trong một module bộ nhớ HBM4 duy nhất.

Vị thế của các “Ông lớn” trong cuộc đua HBM4

Danish Faruqui, CEO của Fab Economics, cho biết: “Trong bối cảnh cạnh tranh HBM, SK Hynix đã gửi mẫu và nhận được sự chấp thuận của bộ nhớ HBM4 12-high stack vào đầu Q1/2025 cho dòng sản phẩm Rubin thế hệ tiếp theo của NVIDIA và dự kiến sản xuất hàng loạt HBM4 vào nửa cuối năm 2025.”

“Tiếp theo sát, Micron đang chờ các bài kiểm tra của Nvidia cho các mẫu HBM4 mới nhất của mình, và Micron có kế hoạch sản xuất hàng loạt HBM4 vào nửa đầu năm 2026. Mặt khác, đối thủ cuối cùng là Samsung đang gặp khó khăn trong việc tăng tỷ lệ sản phẩm (yield ramp) ở giai đoạn phát triển công nghệ HBM4, và do đó phải trì hoãn các mốc gửi mẫu cho Nvidia và các đối tác khác trong khi trước đó họ đã chia sẻ mốc cuối năm 2025 cho sản xuất hàng loạt HBM4.”

Điểm khác biệt chính: Base Die

Faruqui lưu ý một yếu tố khác biệt chính khác giữa SK Hynix, Micron và Samsung: base die – khuôn đế neo giữ chồng DRAM 12-high. Lần đầu tiên, cả SK Hynix và Samsung đã giới thiệu một base die tích hợp logic trên công nghệ quy trình 3nm và 4nm để hỗ trợ sản phẩm HBM4 cho hiệu suất sản phẩm hiệu quả và nhanh hơn thông qua quản lý bộ nhớ dựa trên logic.

Cả Samsung và SK Hynix đều dựa vào TSMC để sản xuất base die tích hợp logic của họ. Tuy nhiên, vẫn chưa rõ liệu Micron có đang sử dụng base die tích hợp logic hay không, vì công ty này thiếu khả năng tự sản xuất ở quy trình 3nm.

Kết luận

Việc Micron gửi mẫu HBM4 36GB 12-high đã chính thức định hình một cuộc đua Tam mã đầy gay cấn trong thị trường bộ nhớ AI. Với những cải tiến đáng kể về băng thông và hiệu quả năng lượng, HBM4 không chỉ là một bước tiến công nghệ mà còn là yếu tố then chốt giúp mở khóa tiềm năng to lớn của các mô hình AI tổng quát và trung tâm dữ liệu thế hệ tiếp theo.

Mặc dù SK Hynix đang có lợi thế dẫn đầu về thời gian và Samsung đang đối mặt với những thách thức, sự cạnh tranh này hứa hẹn sẽ thúc đẩy đổi mới liên tục, mang lại những giải pháp bộ nhớ hiệu quả hơn nữa cho ngành công nghiệp AI đang phát triển nhanh chóng.

RELATED ARTICLES