Trudno o miesiąc, który tak wyraźnie pokazałby, jak bardzo sztuczna inteligencja przejęła stery w świecie technologii. Giganci branży inwestują miliardy, zacieśniają sojusze i prezentują układy, które wyznaczają nowe granice wydajności. Jednocześnie coraz mocniej widać, że AI przestaje być domeną laboratoriów, wchodzi w codzienną pracę firm, stając się kluczowym elementem ich cyfrowej strategii.
Wrzesień 2025 to nie był czas spokojnych premier. To moment, w którym układ sił w branży zmienia się na naszych oczach. Od chipów i infrastruktury po oprogramowanie i usługi w chmurze. Przedsiębiorstwa muszą dziś podejmować decyzje szybciej niż kiedykolwiek: jakie technologie wybrać, komu zaufać i jak zintegrować sztuczną inteligencję z własnym ekosystemem IT.
Clearwater, Jaguar Shores i Apple: nowa układanka Intela
Choć przez ostatnie miesiące to NVIDIA dyktowała tempo w świecie sztucznej inteligencji, Intel nie zamierza opuszczać pola gry. Mimo restrukturyzacji i presji finansowej firma pokazuje, że potrafi działać strategicznie, zarówno w obszarze technologii, jak i partnerstw.
Podczas konferencji Hot Chips 2025 zaprezentowano Clearwater Forest, następną generację procesorów serwerowych Xeon opartych wyłącznie na rdzeniach E-core. Flagowy model ma oferować 288 rdzeni, a zastosowany proces Intel 18A i technologia pakowania 3D Foveros mają zapewnić imponujący skok wydajności o 17% w IPC (SPECint 2017) i nawet 3,5-krotny wzrost efektywności energetycznej względem poprzedniej generacji Sierra Forest. To wyraźny sygnał, że Intel koncentruje się na segmentach, gdzie kluczowa jest gęstość obliczeń i zużycie energii. Czyli obsługa i wdrażanie modeli AI oraz zadania sieciowe, zamiast bezpośrednio rywalizować z GPU w treningu największych modeli.
Równolegle pojawiły się informacje o nowym GPU o nazwie Jaguar Shores, będącym duchowym następcą anulowanego projektu Falcon Shores. Intel planuje stworzyć pełnoprawne akceleratory AI na poziomie całych szaf serwerowych, a jednocześnie rozwijać energooszczędną linię GPU dla centrów danych. Celem jest obsługa mniej wymagających zadań obliczeniowych przy znacząco niższym poborze energii. To segment, w którym firma może skutecznie konkurować efektywnością kosztową, a nie wyłącznie mocą obliczeniową.
Na dodatek świat obiegły doniesienia o rozmowach z Apple, które miałoby rozważać inwestycję kapitałową w Intela. Choć szczegóły pozostają niejawne, samo pojawienie się takiej możliwości pokazuje, że firma wciąż postrzegana jest jako kluczowy partner technologiczny i nie zamierza schodzić z głównej sceny branży półprzewodników.
Z perspektywy rynku wszystkie te ruchy pokazują Intela w nowym świetle, jako gracza, który, choć w defensywie, szuka mądrych sojuszy i nowych źródeł finansowania. I właśnie w tym kontekście należy postrzegać niespodziewaną inwestycję NVIDII w Intela, krok, który dla jednych jest gestem wsparcia, a dla innych początkiem zupełnie nowej ery współzależności między dwoma gigantami półprzewodników.
NVIDIA rozgrywa wszystko – inwestycje, sojusze i Rubin CPX
Zaledwie kilka dni po pojawieniu się informacji o rozmowach Intela z Apple, NVIDIA uderzyła z zupełnie innej strony. Firma ogłosiła inwestycję o wartości 5 miliardów dolarów w Intela, obejmując ok. 4% udziałów. To decyzja, która jeszcze niedawno wydawała się niemożliwa. Dominujący gracz na rynku akceleratorów AI wspiera swojego największego rywala z segmentu CPU. W rzeczywistości nie chodzi jednak o sentyment, lecz o strategiczny sojusz. Intel ma produkować część układów NVIDII w ramach swoich usług foundry, a w zamian zyskuje finansowe wzmocnienie i gwarancję stabilnego popytu na moce produkcyjne.
Jeszcze ciekawszy jest kontekst technologiczny tego porozumienia. Obie firmy mają współpracować nad procesorami Intela zintegrowanymi z grafiką RTX, co może całkowicie zmienić sposób działania lokalnej sztucznej inteligencji w komputerach osobistych i stacjach roboczych. Takie rozwiązanie dałoby użytkownikom natywną, sprzętową akcelerację AI o wydajności znacznie wyższej niż obecne układy NPU w procesorach Intela czy AMD. W tle wciąż pojawiają się spekulacje o możliwej sprzedaży działu Network & Edge (NEX) przez Intela. Gdyby ten trafił w ręce NVIDII, firma Sama Altmana zyskałaby pełną kontrolę nad całym łańcuchem, od GPU i CPU, przez interconnect, po kompletne rozwiązania serwerowe.
Na tym jednak ofensywa NVIDII się nie kończy. Kilka dni później firma ogłosiła strategiczne porozumienie z OpenAI, warte nawet 100 miliardów dolarów. Zgodnie z umową OpenAI w kolejnych latach zakupi co najmniej 10 GW mocy obliczeniowej w postaci serwerów GPU, a NVIDIA obejmie mniejszościowy pakiet udziałów w firmie. To największy sojusz w historii branży AI, jeden partner dostarcza modele, drugi infrastrukturę, wspólnie tworząc duopol, który coraz bardziej zamyka rynek na konkurencję.
W tym samym czasie NVIDIA zaprezentowała też Rubin CPX AI Superchip, akcelerator zaprojektowany do pracy z gigantycznymi modelami LLM, sięgającymi ponad miliona tokenów. Układ umożliwia analizę całych repozytoriów kodu czy ogromnych zbiorów danych w jednym przebiegu, a jego pojawienie się wymusza kolejne modernizacje w centrach danych, od wdrażania sieci 800 GbE po przystosowanie infrastruktury do nowej generacji układów z pamięcią HBM4.
Z perspektywy rynku te trzy ruchy tworzą spójną układankę. NVIDIA przestaje być jedynie producentem GPU, staje się inwestorem, integratorem i architektem całego ekosystemu AI. Inwestuje w konkurencję, definiuje relacje z największymi twórcami modeli i jednocześnie przesuwa granice technologiczne, do których reszta rynku musi się dopasować.
Infrastruktura gotowa na AI – nowa rola producentów OEM
Na rynku infrastruktury IT zachodzi wyraźna zmiana. Producenci OEM, tacy jak Dell, HPE i Lenovo, coraz rzadziej oferują serwery jako „surowy” sprzęt. Zamiast tego prezentują kompletne, zintegrowane środowiska AI, w których sprzęt, oprogramowanie i usługi zarządzane tworzą gotowy ekosystem, od centrum danych po chmurę.
Dell Technologies wyraźnie lideruje w tym segmencie. Firma podniosła prognozę rocznych przychodów ze sprzedaży serwerów AI do 20 miliardów dolarów, co pokazuje, jak gwałtownie rośnie popyt na infrastrukturę zoptymalizowaną pod sztuczną inteligencję. Dell zaprezentował też odświeżone portfolio dla chmur prywatnych oparte na zdezintegrowanej architekturze, w której zasoby obliczeniowe, pamięć i sieć można skalować niezależnie. Platformy Dell Automation Platform i Dell NativeEdge wzbogacono o funkcje automatyzacji wspierane przez AI i rozszerzone mechanizmy cyberodporności. Jednocześnie to właśnie Dell jako pierwszy wprowadził do oferty serwery z układami Intel Gaudi 3, otwierając drogę do masowego wdrożenia alternatywy dla GPU NVIDII.
Hewlett Packard Enterprise z kolei przedstawiło własną wizję autonomicznej infrastruktury, „Agentic AI”. Jej centrum stanowi platforma HPE GreenLake Intelligence, wykorzystująca agentów AI do proaktywnego zarządzania i optymalizacji całego stosu IT. Uzupełnieniem oferty są nowe serwery ProLiant Gen12, przygotowane pod akceleratory NVIDIA Blackwell Ultra, oraz system pamięci masowej Alletra Storage MP X10000, wspierający przepływy pracy AI dzięki obsłudze Model Context Protocol (MCP). W praktyce to gotowy zestaw do budowy hybrydowych środowisk, od lokalnych centrów danych po chmurę publiczną.
Lenovo natomiast umacnia swoją pozycję w regionie Azji i Pacyfiku. Wraz z Nutanix firma ogłosiła pogłębienie strategicznego partnerstwa, obejmującego lokalną produkcję serwerów w Indiach i wykorzystanie chłodzenia cieczą Lenovo Neptune. Nowe rozwiązania, takie jak ThinkAgile HX i pakiet „GPT-in-a-Box”, pozwalają firmom budować własne, skalowalne „fabryki AI”, dostosowane do wymagań energetycznych i lokalnych regulacji.
Wspólny mianownik tych trzech inicjatyw jest jasny: producenci OEM przestają konkurować wyłącznie parametrami sprzętu. Zamiast tego oferują gotowe, przetestowane „receptury” na wdrożenie sztucznej inteligencji, zintegrowane, zabezpieczone i skalowalne. To przesunięcie w stronę modeli usługowych i subskrypcyjnych, w których klient płaci za efekt, a nie za sam serwer. Efekt? Adopcja AI w przedsiębiorstwach nabiera tempa, a infrastruktura staje się kluczowym elementem strategii biznesowej, nie tylko technicznej.
Od kodu po Copilota – jak AI zmienia software biznesowy
Świat oprogramowania nie pozostaje w tyle za sprzętowym wyścigiem. Wrzesień przyniósł kilka zapowiedzi, które jasno pokazują, że AI staje się integralną częścią codziennych narzędzi pracy, od środowisk deweloperskich po biurowe pakiety produktywności.
OpenAI zaprezentowało wyspecjalizowaną wersję swojego flagowego modelu, GPT-5 Codex, stworzoną z myślą o inżynierach oprogramowania i tzw. agentowym kodowaniu. Nowy model potrafi nie tylko generować kod, ale też autonomicznie realizować złożone zadania, takie jak refaktoryzacja dużych repozytoriów czy przeprowadzanie przeglądów kodu z wykrywaniem błędów logicznych. GPT-5 Codex działa jak samodzielny asystent programisty, który potrafi analizować projekt godzinami bez udziału człowieka, dostosowując swoje działania do kontekstu i trudności zadania. Model został już udostępniony w narzędziach OpenAI Codex i GitHub Copilot, co otwiera przed zespołami developerskimi zupełnie nowy poziom automatyzacji.
Kilka dni później OpenAI i Databricks ogłosiły strategiczne partnerstwo o wartości 100 milionów dolarów, które ma przynieść realną zmianę w sposobie pracy z danymi korporacyjnymi. Modele OpenAI, w tym GPT-5, zostaną zintegrowane bezpośrednio z platformą Databricks Data Intelligence i narzędziem Agent Bricks. Dzięki temu ponad 20 000 klientów Databricks zyska dostęp do LLM-ów w ramach własnych, zarządzanych środowisk danych, bez potrzeby przesyłania wrażliwych informacji do zewnętrznych API. Kluczowe jest to, że model zostaje „przeniesiony do danych”, a nie odwrotnie, co rozwiązuje największy problem bezpieczeństwa i zgodności w firmowych wdrożeniach AI.
Równie istotny ruch wykonał Anthropic, wprowadzając do swojego modelu Claude funkcję trwałej pamięci. Dzięki niej Claude potrafi zapamiętywać kontekst rozmów i projektów, co eliminuje konieczność powtarzania tych samych informacji i pozwala na prowadzenie dłuższych, wieloetapowych procesów. Nowością jest też tryb Incognito, umożliwiający prowadzenie rozmów bez zapisywania historii, rozwiązanie kluczowe dla poufnych projektów korporacyjnych. Równolegle Anthropic ogłosił, że Claude został zintegrowany z Microsoft 365 Copilot, co natychmiast otworzyło mu drzwi do milionów użytkowników biznesowych.
Miesiąc zakończyła kolejna prezentacja od OpenAI, tym razem z zupełnie innego obszaru. Sora 2, nowa wersja generatora wideo AI, zadebiutowała 30 września i z miejsca wywołała poruszenie w branży kreatywnej. Model potrafi tworzyć hiperrealistyczne, kilkuminutowe filmy na podstawie krótkiego opisu tekstowego, odwzorowując fizykę ruchu, oświetlenie i perspektywę z dokładnością, jakiej dotąd nie oferował żaden system generatywny. Pokazane nagrania wyglądały bardziej jak fragmenty prawdziwych produkcji niż animacje AI, to kolejny dowód, że granica między treściami tworzonymi przez człowieka i algorytm staje się coraz cieńsza.
Te cztery ogłoszenia łączy jeden wniosek: AI przestaje być osobnym narzędziem, a staje się warstwą integrującą cały ekosystem pracy i kreatywności. OpenAI rozwija rozwiązania dla twórców kodu i wideo, Databricks otwiera bezpieczny dostęp do danych korporacyjnych, a Anthropic skupia się na prywatności i ciągłości kontekstu. Razem tworzą nowy model oprogramowania, inteligentnego, kontekstowego i działającego w tle, które nie tylko wspiera, ale realnie rozszerza ludzkie możliwości.
Wrzesień 2025 był miesiącem, w którym granica między sprzętem, oprogramowaniem i twórczością praktycznie się zatarła. Giganci półprzewodników, dostawcy infrastruktury i twórcy modeli AI budują wspólny ekosystem, w którym każda warstwa technologii wzmacnia pozostałe. Od procesorów i akceleratorów, przez gotowe platformy serwerowe, aż po oprogramowanie, które samo uczy się pracy użytkownika, AI stała się punktem odniesienia dla całej branży IT.
Firmy nie zastanawiają się już, czy wdrażać sztuczną inteligencję, lecz z kim i na jakich warunkach. To właśnie te decyzje, strategiczne, partnerskie i inwestycyjne, będą definiować przewagi konkurencyjne w kolejnych latach. Bo w świecie, w którym technologia uczy się nas szybciej, niż my uczymy się jej, zdolność do adaptacji staje się nową walutą w biznesie.
