Microsoft rozpoczął wdrażanie do centrów danych Azure nowej generacji własnych akceleratorów AI. Układ Maia 200 został zaprojektowany z myślą o inferencji duzych modeli językowych i ma poprawić zarówno wydajność, jak i opłacalność usług generatywnej sztucznej inteligencji w chmurze Microsoftu.
Pierwsze systemy oparte na Maia 200 pojawiają się w regionach Azure w USA. Nowy akcelerator ma stanowić fundament infrastruktury dla takich usług jak Microsoft 360 Copilot oraz platforma Microsoft Foundry, a w kolejnych etapach trafić również do kleintów chmurowych.
Maia 200 powstaje w 3-nanometrowym procesie technologicznym TSMC i zawiera ponad 100 miliardów tranzystorów. Układ został zoptymalizowany pod obliczenia niskiej precyzji, kluczowe dla inferencji nowoczesnych modeli AI. Oferuje ponad 10 petaFLOPS wydajności w FP4 oraz około 5 petaFLOPS w FP8, co pozwala obsługiwać bardzo duże modele językowe na pojedynczym węźle obliczeniowym.
Istotnym elementem konstrukcji jest rozbudowany podsystem pamięci. Maia 200 dysponuje 216 GB pamięci HBM3e o przepustowości 7 TB/s oraz 272 MB wbudowanej pamieci SRAM. Taka konfiguracja umozliwia lokalneprzechowywanie większej części wag modeli, ograniczając konieczność skalowania poziomego i poprawiając efektywność energetyczną centrów danych.
Według Microsoftu nowy akcelerator zapewnia trzykrotnie wyższą wydajnoość FP4 niż Amazon Trainium trzeciej generacji oraz wyższą wydajność FP8 od TPU siódmej generacji Google. Firma deklaruje także około 30% lepszy stosunek wydajnośći do cecny w porównaniu z dotychczas stosowanymi rozwiązaniami interferencyjnymi w Azure.
Na poziomie systemowym Maia 200 wykorzystuje dwupoziomową architekturę skalowania opartą na Ethernet, zamiast zamkniętych, zastrzeżonych interkonektów. Każdy akceclerator oferuje do 1,4 TB/s przepustowości sieciowej, a klastry mogą skalować się do 6144 układów przy zachowaniu przewidywalnej wydajności operacji zbiorczych.
W pierwszej kolejności Maia 200 zasili projekty Microsoft Superintelligence oraz produkcyjne obciążenia AI, w tym Copilota. Microsoft zapowiada, że nie jest to jednorazowy projekt, lecz początek wielogeneracyjnego programu rozwoju własnych ackeleratorów AI dla platformy Azure.

