Elon Musk ujawnił ambitne plany zbudowania potężnego superkomputera nazwanego „Gigafactory of Compute”. Konstrukcja miałaby zasilać xAI – startup Muska zajmujący się sztuczną inteligencją. Celem sprzętu jest także przyspieszenie rozwoju chatbota Grok oraz bezpośrednia konkurencja z innymi gigantami takimi, jak OpenAI i Google.
Według prezentacji dla inwestorów z maja 2024, superkomputer budowany dla xAI ma składać się z klastrów najnowszych procesorów graficznych NVIDIA H100. Docelowo ma zawierać aż 100 000 tych GPU. Nie trzeba nikomu przypominać, iż to właśnie procesory H100 są obecnie najbardziej pożądanymi układami do wykorzystania oraz rozwoju AI w centrach danych. NVIDIA boryka się z tak dużym popytem, że nie jest w stanie go zaspokoić.
Pomimo tych problemów, Musk chce, aby jego Gigafactory of Compute było gotowe do działania już jesienią 2025 roku. Miliarder osobiście zobowiązał się do dotrzymania tego terminu (a jak wiemy u Elona naprawdę różnie z tym bywa).
Do czego posłuży ten superkomputer?
Głównym celem „Gigafactory of Compute” jest trenowanie i rozwijanie kolejnych wersji chatbota Grok, który został zintegrowany z platformą X. Trenowanie obecnej wersji modelu, Grok 2 wymagało około 20000 procesorów NVIDIA H100. Kolejne wersje takie, jak Grok 3, będą potrzebować nawet do 100000 tych układów. Musk pozycjonuje xAI jako konkurenta dla gigantów AI takich jak OpenAI (które to współzakładał w 2015) czy Google. Opisywany superkomputer ma umożliwić xAI dorównanie lub prześcignięcie możliwości obliczeniowych swoich bezpośrednich rywali.
Jeśli zastanawiacie się, ile kosztuje taka infrastruktura, to niestety nie da się tego jednoznacznie policzyć. NVIDIA wycenia zamówienia na H100 GPU indywidualnie. W największym możliwym przybliżeniu, za 100000 takich kart, Musk może zapłacić około 3,5 miliarda dolarów.
Niektórzy krytycy argumentują, że tak potężne zasoby obliczeniowe powinny być wykorzystywane do innych dziedzin. Chodzi tu oczywiście o ochronę zdrowia czy badania środowiskowe – a nie tworzenie chatbotów takich, jak ChatGPT. W ostatnim czasie pojawia się także sporo obaw o ślad węglowy generowany przez tak ogromne centra danych.
Koszty są ogromne, ale Musk ma kasę
W maju tego roku, xAI ogłosiło pozyskanie $6 miliardów w rundzie finansowania Serii B. I to przy wycenie przed inwestycją na poziomie $18 miliardów. W finansowaniu udział wzięli m.in. Andreessen Horowitz, Sequoia Capital, Fidelity czy saudyjski książę Alwaleed Bin Talal. Pozyskane środki mają zostać bezpośrednio przeznaczone na wprowadzenie na rynek pierwszych produktów xAI (w tym chatbota Grok). Oprócz tego mają służyć za fundament do budowy infrastruktury (w tym zapewne „Gigafactory of Compute”) oraz przyśpieszyć prace badawczo-rozwojowych nad technologiami przyszłości.
Patrząc na to, jak bardzo Musk krytykuje swoją konkurencję w sferze AI, to możemy być pewni jednego: będzie się działo.
Źródło: The Information / fot. NVIDIA