Rynek układów scalonych dla sztucznej inteligencji rośnie jak na drożdżach, i nic nie wskazuje, żeby miał zwolnić. Według prognoz MarketsandMarkets jego wartość ma zwiększyć się niemal trzykrotnie z 203,24 miliardów dolarów w 2025 roku do 564,8 miliarda dolarów w 2032 roku. To oznacza średnioroczny wzrost na poziomie 15,7%.
Pod parasolem „chipów AI” mieszczą się dziś nie tylko GPU i CPU, ale też FPGA, NPU, TPU, autorskie ackeleratory pokroju Trainium, Inferentia czy MTIA, a także pamięci HBM i DDR oraz infrastruktura sieciowa. Do tego dochodzą zastosowania obejmujące zarówno uczenie modeli jak i wnioskowanie. Głównym motorem napędowym pozostają serwery AI, ale swoje trzy grosze dorzucają też robotyka przemysłowa i automatyka, coraz mocniej oparta na algorytmach sztucznej inteligencji.
Jednym z najszybciej rosnących segmentów będzie przetwarzanie języka naturalnego. Chatboty, wirtualni asystenci czy systemy tłumaczeń potrzebują coraz większej mocy obliczeniowej, zwłaszcza odkąd na scenę weszły wielkie modele językowe w stylu GPT-4 czy BERT. Im większe i bardziej złożone modele, tym większy apetyt na wydajne układy AI.
Efekt domina widać też na rynku pamięci. Rosnące wykorzystanie AI oznacza lawinowy przyrost danych, a to wunduje popyt na szybkie pamięci HBM i DDR5. Skutki? Ceny DRAM i NAND Flash idą w górę nie tylko w segmencie AI, ale również w zastosowaniach ogólnych. TrendForce szacował, że w IV kwartale 2025 roku ceny DRAM wzrosły o około 50% kwartał do kwartału, a drożeją także korporacyjne SSD. Analitycy są zgodni, to jeszcze nie koniec tej historii.
