Viện Khoa học và Công nghệ Tiên tiến Hàn Quốc (KAIST) đã công bố một nghiên cứu chi tiết về lộ trình phát triển của công nghệ bộ nhớ băng thông cao (HBM) cho đến năm 2038, dự báo HBM8 sẽ có giao diện 16.384-bit và tích hợp NAND, mở ra kỷ nguyên mới về hiệu suất và khả năng lưu trữ. Mặc dù đầy hứa hẹn, việc đạt được những mục tiêu này sẽ đi kèm với nhiều thách thức về kỹ thuật và tiêu thụ điện năng.
Viện Khoa học và Công nghệ Tiên tiến Hàn Quốc (KAIST), một trong những viện nghiên cứu hàng đầu của Hàn Quốc, đã công bố một tài liệu dày 371 trang phác thảo chi tiết sự phát triển của công nghệ bộ nhớ băng thông cao (HBM) cho đến năm 2038. Tài liệu này dự báo những bước tiến vượt bậc về băng thông, dung lượng, độ rộng I/O và khả năng quản lý nhiệt. Lộ trình trải dài từ HBM4 đến HBM8, với các cải tiến về đóng gói, xếp chồng 3D, kiến trúc tập trung vào bộ nhớ với bộ nhớ NAND nhúng, và thậm chí cả các phương pháp dựa trên học máy để kiểm soát mức tiêu thụ điện năng.
HBM sẽ nhanh chóng, nhưng đầy thách thức để đạt được.
Theo lộ trình của KAIST, dung lượng HBM trên mỗi stack sẽ tăng đáng kể, từ 288 GB – 348 GB cho HBM4, lên đến 5.120 GB – 6.144 GB cho HBM8. Cùng với sự gia tăng hiệu suất này là yêu cầu về điện năng, dự kiến sẽ tăng từ 75W mỗi stack với HBM4 lên 180W với HBM8. Đây là một thách thức lớn đòi hỏi các giải pháp làm mát tiên tiến.
Trong khoảng thời gian từ năm 2026 đến năm 2038, băng thông bộ nhớ được dự kiến sẽ tăng từ 2 TB/s lên 64 TB/s, trong khi tốc độ truyền dữ liệu sẽ tăng từ 8 GT/s lên 32 GT/s. Độ rộng I/O trên mỗi gói HBM cũng được thiết lập để tăng từ giao diện 1.024-bit của HBM3E hiện tại lên 2.048 bit với HBM4 và sau đó là 16.384 bit cho HBM8 – một sự nhảy vọt đáng kinh ngạc về khả năng truyền dữ liệu.
Dự kiến các thế hệ HBM tương lai sẽ đạt được những bước nhảy vọt ấn tượng về hiệu suất và khả năng.
Chúng ta đã có khá nhiều thông tin về HBM4 và HBM4E sẽ bổ sung khả năng tùy chỉnh cho các đế cơ bản để HBM4E phù hợp hơn với các ứng dụng cụ thể (AI, HPC, mạng, v.v.). HBM5, dự kiến ra mắt vào năm 2029, được kỳ vọng sẽ kế thừa và phát triển các khả năng này. Mặc dù giữ nguyên tốc độ dữ liệu của HBM4, HBM5 dự kiến sẽ tăng gấp đôi số lượng I/O lên 4.096, từ đó nâng băng thông lên 4 TB/s và dung lượng trên mỗi stack lên 80 GB. HBM5 cũng sẽ triển khai các tụ điện tách rời xếp chồng và bộ nhớ đệm 3D, cùng với việc tích hợp bộ nhớ đệm L3, LPDDR và giao diện CXL trên đế cơ bản, kèm theo giám sát nhiệt.
Nhu cầu điện năng cho mỗi stack dự kiến sẽ tăng lên 100W, đòi hỏi các phương pháp làm mát tiên tiến hơn. Điều thú vị là KAIST dự kiến HBM5 sẽ tiếp tục sử dụng công nghệ microbump (MR-MUF), mặc dù ngành công nghiệp được cho là đã tìm kiếm giải pháp liên kết trực tiếp với HBM4. KAIST cũng dự kiến các công cụ AI sẽ bắt đầu đóng vai trò trong việc tối ưu hóa bố cục vật lý và giảm jitter với thế hệ HBM5.
Trong khi HBM7 và HBM8 vẫn chính thức thuộc họ các giải pháp bộ nhớ băng thông cao, kiến trúc của chúng được kỳ vọng sẽ khác biệt đáng kể so với những gì chúng ta biết về HBM ngày nay.
HBM6 được dự kiến sẽ tiếp quản vào năm 2032, tăng tốc độ truyền lên 16 GT/s và băng thông trên mỗi stack lên 8 TB/s. Dung lượng trên mỗi stack được kỳ vọng đạt 120 GB, và công suất tiêu thụ sẽ tăng lên 120W. Các nhà nghiên cứu tại KAIST tin rằng HBM6 sẽ áp dụng công nghệ liên kết trực tiếp không bump, cùng với interposer lai kết hợp silicon và thủy tinh – một bước tiến lớn trong công nghệ đóng gói.
Những thay đổi kiến trúc đáng chú ý bao gồm các stack bộ nhớ đa tầng (multi-tower memory stacks), chuyển mạch mạng nội bộ (internal network switching), và phân phối TSV (through-silicon via) rộng rãi. Các công cụ thiết kế AI sẽ mở rộng phạm vi, kết hợp các phương pháp tạo sinh cho mô hình tín hiệu và năng lượng, cho phép tối ưu hóa chưa từng thấy trong quá trình phát triển.
HBM7 và HBM8 sẽ tiếp tục đẩy ranh giới hơn nữa, với HBM8 đạt tốc độ 32 GT/s và băng thông 64 TB/s trên mỗi stack. Dung lượng dự kiến sẽ mở rộng lên 240 GB. Công nghệ đóng gói được cho là sẽ áp dụng xếp chồng 3D hoàn chỉnh và interposer hai mặt với các kênh chất lỏng nhúng – một giải pháp sáng tạo để quản lý nhiệt cho các thiết bị công suất cao này.
Mặc dù HBM7 và HBM8 vẫn chính thức thuộc họ các giải pháp bộ nhớ băng thông cao, kiến trúc của chúng được kỳ vọng sẽ khác biệt đáng kể so với những gì chúng ta biết về HBM ngày nay. Trong khi HBM5 sẽ bổ sung bộ nhớ đệm L3 và giao diện cho bộ nhớ LPDDR, các thế hệ này được dự kiến sẽ tích hợp giao diện NAND, cho phép di chuyển dữ liệu từ bộ nhớ lưu trữ sang HBM với sự can thiệp tối thiểu của CPU, GPU hoặc ASIC. Điều đó sẽ đi kèm với chi phí tiêu thụ điện năng, dự kiến là 180W trên mỗi stack, một mức năng lượng khổng lồ đòi hỏi sự quản lý cực kỳ hiệu quả. Các tác nhân AI sẽ quản lý việc đồng tối ưu hóa nhiệt, năng lượng và đường tín hiệu theo thời gian thực, theo KAIST.
Điều quan trọng cần lưu ý là KAIST là một tổ chức nghiên cứu, không phải một công ty có lộ trình thực tế. Do đó, tài liệu này chỉ mô phỏng những gì có thể xảy ra dựa trên kiến thức về các đổi mới hiện có. Có nhiều viện nghiên cứu đáng kính khác trong ngành công nghiệp bán dẫn, bao gồm Imec ở Bỉ, CEA-Leti ở Pháp, Fraunhofer ở Đức và MIT ở Hoa Kỳ. Những viện này cũng đưa ra các dự đoán tương tự về các node quy trình bán dẫn, vật liệu chip và các chủ đề liên quan khác.
Một số dự đoán có vẻ không thực tế ở thời điểm hiện tại, nhưng ngành công nghiệp có xu hướng phát triển các cách thức sản xuất sản phẩm theo những cách bất ngờ. Do đó, nhiều dự đoán này trở thành sự thật và đôi khi thậm chí còn vượt quá mong đợi của các nhà sản xuất thực tế như Intel hoặc TSMC. Điều này nhấn mạnh tầm quan trọng của các nghiên cứu như của KAIST trong việc định hình tầm nhìn và thúc đẩy sự đổi mới trong tương lai của ngành công nghiệp bán dẫn.
Sự phát triển của HBM đến các thế hệ như HBM8 với giao diện 16.384-bit và NAND tích hợp sẽ có tác động sâu rộng đến nhiều lĩnh vực công nghệ. Nó sẽ mở ra những khả năng mới cho trí tuệ nhân tạo (AI), tính toán hiệu năng cao (HPC), trung tâm dữ liệu và các ứng dụng đòi hỏi băng thông cực lớn. Với khả năng xử lý và lưu trữ dữ liệu khổng lồ ngay trên chip nhớ, HBM sẽ giảm thiểu độ trễ và tắc nghẽn dữ liệu, vốn là những rào cản lớn đối với hiệu suất của các hệ thống hiện đại.
Tuy nhiên, những tiến bộ này cũng đặt ra những thách thức lớn về kỹ thuật, đặc biệt là trong việc quản lý nhiệt và năng lượng. Việc phát triển các hệ thống làm mát tiên tiến và các phương pháp quản lý năng lượng hiệu quả sẽ là chìa khóa để hiện thực hóa những lộ trình đầy tham vọng này. Sự hợp tác giữa các viện nghiên cứu và các nhà sản xuất chip sẽ là yếu tố quyết định để biến những dự đoán này thành hiện thực.
Lộ trình phát triển HBM của KAIST cung cấp một cái nhìn sâu sắc và đầy hứa hẹn về tương lai của công nghệ bộ nhớ. Từ HBM4 đến HBM8, chúng ta đang chứng kiến sự dịch chuyển mạnh mẽ hướng tới bộ nhớ siêu băng thông, dung lượng khổng lồ và tích hợp sâu hơn với các chức năng lưu trữ.
Mặc dù đây chỉ là một lộ trình nghiên cứu giả định, nhưng nó là kim chỉ nam quan trọng cho các nhà sản xuất chip và các nhà phát triển hệ thống, chỉ ra những hướng đi tiềm năng cho đổi mới. Với những thách thức về công suất và nhiệt, HBM tương lai sẽ không chỉ là một thành phần bộ nhớ mà còn là một hệ sinh thái phức tạp, được tối ưu hóa bởi AI, định hình lại cách chúng ta thiết kế và sử dụng máy tính trong những thập kỷ tới.