Jesteś tutaj

Samsung wykorzystał targi NVIDIA GTC 2026 do pokazania pamięci HBM4E, która ma celować w najbardziej wymagające systemy AI nowej generacji. Nowy układ osiąga 16 Gb/s na pin, oferuje 4 TB/s przepustowości na stos i w konfiguracji 16-Hi zapewnia 48 GB pojemności. To bardzo mocny sygnał, że rywalizacja na rynku pamięci dla akceleratorów AI wchodzi w kolejną fazę, a Samsung chce odzyskać pozycję po trudniejszym okresie w segmencie HBM3E.

Samsung HBM4E Rubin Ultra

Samsung HBM4E debiutuje na NVIDIA GTC 2026

Najważniejszą informacją z prezentacji Samsunga jest publiczny debiut HBM4E, czyli rozwinięcia pamięci High Bandwidth Memory przeznaczonego dla infrastruktury AI o bardzo dużej skali. Producent podkreśla, że równolegle rozwija również klasyczne HBM4, które od połowy lutego 2026 roku są już wytwarzane masowo w procesie 1c. Sama obecność HBM4E na targach ma jednak większe znaczenie strategiczne, bo pokazuje kierunek rozwoju kolejnej generacji akceleratorów i serwerów przeznaczonych do trenowania modeli oraz zadań inferencyjnych o bardzo dużej przepustowości danych.

Samsung HBM4E oferuje 16 Gb/s i 4 TB/s na stos

Z technicznego punktu widzenia HBM4E wygląda bardzo ambitnie. Samsung deklaruje transfer 16 Gb/s na pin oraz 4 TB/s przepustowości na pojedynczy stos pamięci. Dodatkowo w konfiguracji 16-Hi pojemność jednego stosu ma wynosić 48 GB. Oznacza to istotny skok względem obecnych rozwiązań HBM4 i jeszcze większy zapas dla platform, które będą musiały obsługiwać coraz większe modele AI oraz ogromne zbiory danych roboczych. W praktyce taka pamięć ma ograniczać wąskie gardła związane z dostępem do danych po stronie akceleratorów klasy serwerowej.

Samsung HBM4E i Rubin Ultra mogą stworzyć bardzo wydajną platformę AI

Najciekawiej robi się wtedy, gdy parametry HBM4E zestawi się z planowaną platformą NVIDIA Rubin Ultra. Według ujawnionych założeń konfiguracja oparta na czterech układach GPU i szesnastu slotach HBM mogłaby zaoferować łącznie do 384 GB pamięci oraz nawet 64 TB/s przepustowości. To skala, która pokazuje, jak duże znaczenie dla rozwoju akceleratorów AI ma dziś sama technologia pamięci. W nowoczesnych systemach nie liczy się już wyłącznie moc obliczeniowa GPU, lecz także zdolność do błyskawicznego zasilania ich ogromnymi porcjami danych.

Samsung stawia na Hybrid Copper Bonding w pamięci HBM4E

Za możliwością tworzenia 16-warstwowych stosów stoi technologia Hybrid Copper Bonding. Samsung wskazuje, że pozwala ona obniżyć rezystancję cieplną o ponad 20 procent względem wcześniejszej metody TCB. Z perspektywy centrów danych jest to kluczowe, ponieważ pamięci HBM pracują bardzo blisko najbardziej energochłonnych układów GPU, a każda poprawa odprowadzania ciepła i gęstości integracji wpływa na stabilność, taktowanie oraz ogólną efektywność energetyczną platformy. To właśnie takie detale decydują dziś o przewadze w segmencie AI, gdzie liczy się każdy wat i każdy dodatkowy gigabajt na stos.

Samsung HBM4E może pomóc firmie wrócić do gry z SK Hynix

Debiut HBM4E ma również wymiar czysto rynkowy. Samsung w ostatnich latach pozostawał w cieniu SK Hynix w segmencie pamięci HBM dla AI, dlatego nowa generacja może być dla firmy próbą odbudowania pozycji u największych partnerów. Pokaz na GTC 2026 nie oznacza jeszcze natychmiastowej komercjalizacji, ale daje czytelny sygnał, że producent nie zamierza oddać tego rynku bez walki. Jeśli wdrożenia dla platform pokroju Rubin Ultra rzeczywiście ruszą zgodnie z planem, HBM4E może okazać się jednym z najważniejszych produktów Samsunga dla infrastruktury AI nowej generacji.

Samsung HBM4E dane techniczne

Parametr Wartość
Producent Samsung
Typ pamięci HBM4E
Miejsce prezentacji NVIDIA GTC 2026
Szybkość na pin 16 Gb/s
Przepustowość na stos 4 TB/s
Konfiguracja stosu 16-Hi
Pojemność na stos 48 GB
Technologia łączenia Hybrid Copper Bonding
Redukcja rezystancji cieplnej Ponad 20 proc.
Docelowa platforma NVIDIA Rubin Ultra

Podsumowanie

Samsung pokazał na GTC 2026, że nie zamierza odpuszczać wyścigu o pamięci dla AI. HBM4E wygląda na projekt o bardzo dużym znaczeniu technologicznym, bo łączy wysoką przepustowość, dużą pojemność i nową metodę integracji warstw. Jeśli platforma Rubin Ultra rzeczywiście wykorzysta taki typ pamięci na dużą skalę, nowa generacja serwerów AI może otrzymać wyraźnie mocniejsze zaplecze pamięciowe niż obecne konstrukcje.