AMD i Celestica ogłosiły współpracę przy platformie Helios, która ma stać się jedną z najciekawszych otwartych propozycji dla rynku rack-scale AI. Projekt zakłada połączenie akceleratorów AMD Instinct MI450 z infrastrukturą sieciową opracowywaną przez Celesticę, a cały system ma bazować na standardach Open Compute Project oraz Ultra Accelerator Link over Ethernet. To ważny sygnał dla sektora centrów danych, bo AMD coraz wyraźniej buduje odpowiedź na zamknięte, silnie zintegrowane środowisko NVIDII.

AMD Helios ma postawić na otwartą architekturę AI
Najważniejszym wyróżnikiem platformy Helios jest otwarty charakter całej architektury. Celestica ma odpowiadać za badania, projekt i produkcję przełączników scale-up dla środowiska opartego na formacie Open-Rack-Wide zgodnym z Open Compute Project. W praktyce oznacza to próbę zbudowania infrastruktury, która nie będzie uzależniona od jednego, własnościowego standardu komunikacji między akceleratorami. Dla operatorów dużych klastrów AI ma to znaczenie strategiczne, bo elastyczność w doborze komponentów i dostawców może obniżyć ryzyko kosztowe oraz uprościć planowanie rozbudowy.
AMD Instinct MI450 i UALoE są fundamentem platformy Helios
Warstwa obliczeniowa ma bazować na akceleratorach AMD Instinct MI450 nowej generacji. Z kolei komunikacja scale-up zostanie oparta na UALoE, czyli Ultra Accelerator Link over Ethernet. To podejście różni się od zamkniętego modelu NVLink, ponieważ wykorzystuje otwarty standard zaprojektowany z myślą o dużych wdrożeniach AI. Z technicznego punktu widzenia chodzi o zapewnienie bardzo szybkiej wymiany danych pomiędzy wieloma układami GPU w jednej domenie obliczeniowej, ale bez konieczności zamykania klienta w jednym ekosystemie sprzętowym. Taki kierunek może być szczególnie atrakcyjny dla firm budujących klastry na dużą skalę i szukających większej swobody projektowej.
AMD Helios celuje w segment rack-scale z 72 GPU w jednej domenie
Z dotychczas ujawnionych informacji wynika, że Helios będzie platformą klasy rack-scale o podwójnej szerokości, zdolną pomieścić do 72 układów GPU w jednej domenie scale-up. Taka konfiguracja ma konkurować z największymi gotowymi systemami AI klasy hyperscale, ale zamiast kopiować zamknięty model integracji, AMD próbuje zbudować bardziej otwarty ekosystem dla partnerów infrastrukturalnych i klientów centrów danych. To może okazać się ważne zwłaszcza dla firm, które chcą zachować większą kontrolę nad projektowaniem własnych klastrów i nad cyklem życia infrastruktury.
AMD i Celestica chcą dostarczyć Helios jeszcze w 2026 roku
W oficjalnych komunikatach podkreślono, że Helios ma trafić do klientów pod koniec 2026 roku. To oznacza, że obecna zapowiedź nie jest jedynie koncepcją marketingową, lecz elementem konkretnego planu wdrożeniowego. Dodatkowo platforma ma znaleźć zastosowanie w środowiskach chmurowych, korporacyjnych i badawczych. Taki zakres wdrożeń pokazuje, że AMD chce budować pełną alternatywę dla dominującej dziś infrastruktury AI, a nie tylko pojedynczy pokaz technologiczny. Z biznesowego punktu widzenia ruch jest logiczny, bo rynek akceleratorów AI rośnie bardzo szybko, a dostępność otwartych standardów może okazać się dla wielu klientów realną przewagą.
AMD Helios dane techniczne
| Parametr | Wartość |
| Platforma | AMD Helios |
| Partner infrastrukturalny | Celestica |
| Typ systemu | Rack-scale AI |
| Akceleratory | AMD Instinct MI450 |
| Łączność scale-up | UALoE |
| Format | Open-Rack-Wide |
| Podstawa projektowa | Open Compute Project |
| Maksymalna liczba GPU | Do 72 w jednej domenie scale-up |
| Deklarowana przepustowość | Do 260 TB/s |
| Planowana dostępność | Koniec 2026 roku |
Podsumowanie
Współpraca AMD i Celestiki przy Heliosie może mieć znaczenie większe niż sama premiera kolejnej platformy serwerowej. To próba zbudowania otwartego modelu dla infrastruktury AI nowej generacji, w którym ważną rolę odgrywają zarówno wydajne akceleratory Instinct MI450, jak i standard UALoE oraz podejście OCP. Jeśli harmonogram zostanie dotrzymany, Helios może stać się jedną z najważniejszych premier w segmencie rack-scale AI pod koniec 2026 roku.