Tegoroczne targi Computex na Tajwanie przebiegają pod znakiem AI. Nikogo nie powinno dziwić to, że AMD, NVIDIA, a teraz także Intel na Computex 2024, skupiły się podczas swoich prezentacji właśnie na sztucznej inteligencji. Intel zaprezentował nowe technologie mające na celu przyspieszenie rozwoju ekosystemu sztucznej inteligencji (AI) – od centrów danych, chmury i sieci po urządzenia brzegowe i komputery osobiste. Podkreślano kwestie większej mocy obliczeniowej, wiodącej energooszczędności i niski całkowity koszt posiadania (TCO).
AI, wszędzie AI. Nowe procesory Intel Xeon 6
Podczas swojego wystąpienia na Computex, Pat Gelsinger, dyrektor generalny firmy Intel, podkreślał korzyści płynące z otwartych standardów i ekosystemu firmy, które przyczyniają się do przyspieszenia rozwoju AI. Dołączyli do niego przedstawiciele firm takich jak Acer, ASUS, Microsoft i Inventec, wyrażając swoje poparcie.
Pierwszą z nowości jest rodzina procesorów serwerowych Intel Xeon 6. Zaprojektowano ją tak, aby sprostała szerokiemu zakresowi zastosowań i obciążeń, od AI i innych potrzeb obliczeniowych o wysokiej wydajności po skalowalne aplikacje natywne dla chmury. Zagwarantować to mają zawarte w nich rdzenie E-core (Efficient-core) i P-core (Performance-core).
Pierwszym z procesorów Xeon 6, który zadebiutował, jest Intel Xeon 6 E-core (o nazwie kodowej Sierra Forest), który jest już dostępny. Xeon 6 P-cores (o nazwie kodowej Granite Rapids) mają zostać wprowadzone na rynek w następnym kwartale. Producent chwali się poprawioną wydajnością na wat i poprawioną gęstością. Xeon 6 E-core umożliwi konsolidację szaf serwerowych w stosunku 3 do 1, co zapewni z kolei wzrost wydajności na poziomie szafy do 4,2x i wzrost wydajności na wat do 2,6x w porównaniu z procesorami Intel Xeon drugiej generacji w przypadku obciążeń związanych z transkodowaniem mediów.
Akceleratory Intel Gaudi AI
Wykorzystanie mocy generatywnej sztucznej inteligencji (GenAI) staje się coraz szybsze i tańsze. Jako dominujący wybór infrastrukturalny, architektura x86 działa na dużą skalę w prawie wszystkich środowiskach centrów danych, służąc jako podstawa do integracji mocy AI. Zapewnia przy tym interoperacyjność i korzyści płynące z otwartego ekosystemu programistów i klientów.
Procesory Intel Xeon współpracują w systemie z akceleratorami Intel Gaudi AI, które są specjalnie zaprojektowane dla obliczeń związanych ze sztuczną inteligencją. Razem stanowią rozwiązanie, które płynnie integruje się z istniejącą infrastrukturą.
Jako jedyna alternatywa dla Nvidia H100 przetestowana w benchmarku MLPerf pod kątem uczenia i wnioskowania dużych modeli językowych (LLM), architektura Gaudi zapewniać ma wydajność GenAI z przewagą w stosunku ceny do wydajności, gwarantując szybki czas wdrożenia przy niższym całkowitym koszcie eksploatacji.
Standardowy zestaw AI zawierający osiem akceleratorów Intel Gaudi 2 z uniwersalną płytą bazową (UBB) oferowany dostawcom systemów za 65 000 dolarów ma stanowić trzecią część kosztu porównywalnych konkurencyjnych platform. Zestaw zawierający osiem akceleratorów Intel Gaudi 3 z UBB będzie kosztował 125 000 dolarów, co stanowi około dwie trzecie kosztu porównywalnych konkurencyjnych platform.
Akceleratory Intel Gaudi 3 zapewnią znaczną poprawę wydajności w zakresie zadań uczenia i wnioskowania na wiodących modelach GenAI. Intel Gaudi 3 w klastrze 8192 akceleratorów ma skrócić czas uczenia nawet o 40% w porównaniu z równoważnym klastrem GPU Nvidia H100 i zwiększyć przepustowość uczenia nawet o 15% dla klastra 64 akceleratorów w porównaniu z Nvidia H100 na modelu Llama2-70B. Ponadto, Intel Gaudi 3 ma oferować średnio do 2 razy szybsze wnioskowanie w porównaniu z Nvidia H100, działając na popularnych LLM, takich jak Llama-70B i Mistral-7B.
Intel na Computex 2024: Lunar Lake i komputery z AI
Przewiduje się, że do 2027 roku komputery osobiste z AI będą stanowić prawie 60% wszystkich nowych komputerów. W związku z tym Intel na Computex 2024 zaprezentował swoją nową architekturę Lunar Lake, flagowych procesorów dla nowej generacji komputerów z AI. Lunar Lake ma zapewnić wzrost mocy obliczeniowej dotyczącej AI i wyświetlania grafiki w segmencie ultralekkich laptopów. Oczekuje się, że Lunar Lake zmniejszy zużycie energii SoC nawet o 40% i zapewni ponad 3 razy większą moc obliczeniową AI.
Ta premiera planowana jest dopiero na trzeci kwartał 2024 roku, ale już teraz poznaliśmy garść konkretów na jej temat:
- Nowe rdzenie Performance (P-cores) i Efficient (E-cores), które zapewniają poprawę wydajności i efektywności energetycznej.
- Czwartą generację jednostki neuronowej Intel (NPU) z wydajnością AI do 48 teraoperacji na sekundę (TOPS). NPU zapewnia do 4 razy większą moc obliczeniową AI w porównaniu z poprzednią generacją układów, umożliwiając rozwój generatywnej AI.
- Nowy projekt GPU o nazwie kodowej Battlemage, łączący rdzenie Xe2 GPU dla grafiki i macierze Xe Matrix Extension (XMX) dla AI. Rdzenie Xe2 GPU poprawiają wydajność gier i grafiki o 1,5x w porównaniu z poprzednią generacją, a nowe macierze XMX umożliwiają drugiemu akceleratorowi AI osiągnięcie wydajności do 67 TOPS, co zapewnia niezwykłą przepustowość w tworzeniu treści AI.
- Zaawansowany układ o niskim poborze mocy, nowy klaster obliczeniowy i innowacja Intela, która obsługuje zadania w tle i zwiększa produktywność z wyjątkową wydajnością, zapewniając dłuższy czas pracy baterii laptopa.
Źródło: Intel