reklama

Rynek chmurowy, od lat zdominowany przez dwóch głównych graczy, może stać u progu istotnego przetasowania. Najnowsze prognozy finansowe Google Cloud wskazują na potężne przyspieszenie. Firma ogłosiła, że w ciągu najbliższych dwóch lat spodziewa się zrealizować przychód w wysokości co najmniej 58 miliardów dolarów z już podpisanych kontraktów. Ta liczba to nie tylko imponujący wynik finansowy. To bezpośredni rezultat strategicznego postawienia na infrastrukturę zoptymalizowaną pod rewolucję AI. Analizujemy, jakie konkretne technologie stoją za tym wzrostem i co oznacza on dla całej branży IT.

Miliardy z przyszłości, czyli o co chodzi w tym backlogu?

Zacznijmy od liczb, bo te robią wrażenie. Thomas Kurian, CEO Google Cloud, podczas konferencji Goldman Sachs, podzielił się niezwykle ciekawą informacją. Firma ma obecnie w „szufladzie” podpisane, ale jeszcze niezrealizowane kontrakty (tzw. backlog) o wartości aż 106 miliardów dolarów. Z tej ogromnej kwoty, około 55%, czyli wspomniane 58 miliardów, ma zostać przekształcone w realny przychód w ciągu najbliższych 24 miesięcy.

Oznacza to, że Google ma już zakontraktowanych klientów i projekty gwarantujące potężny zastrzyk gotówki. Co więcej, tempo podpisywania nowych umów jest szybsze niż tempo ich realizacji, co pokazuje, że popyt na usługi Google Cloud rośnie lawinowo.

reklama

Sztuczna Inteligencja – silnik rakietowy Google

Pytanie brzmi: co tak nagle napędza ten wzrost? Odpowiedź jest prosta i składa się z dwóch liter: AI. Sztuczna inteligencja przestała być marketingowym hasłem, a stała się realnym, zasobożernym narzędziem, które zmienia biznes. A do trenowania i uruchamiania zaawansowanych modeli AI potrzeba gigantycznej mocy obliczeniowej. I tu właśnie Google wchodzi do gry ze swoją kluczową przewagą.

Autorska infrastruktura Google, rozwijana od ponad dekady na własne potrzeby, jest idealnie skrojona pod zadania związane z AI. Mowa tu nie tylko o globalnej sieci centrów danych, ale przede wszystkim o specjalistycznych układach scalonych. Chipy TPU (Tensor Processing Unit) dają Google przewagę w wydajności i efektywności kosztowej przy przetwarzaniu zadań związanych z uczeniem maszynowym. Dzięki optymalizacji stosu technologicznego, od sprzętu po oprogramowanie, Google jest w stanie zaoferować środowisko, które przyciąga największych graczy. Jak dużych? Aż dziewięć z dziesięciu największych laboratoriów badawczych AI na świecie, w tym takie tuzy jak OpenAI czy Anthropic, korzysta dziś z infrastruktury Google Cloud.

Ten ruch Google to jasny sygnał, firma stawia wszystko na chmurę i AI, widząc w nich główny motor napędowy dla całego Alphabetu, zwłaszcza w obliczu rosnących wyzwań regulacyjnych dla ich biznesu reklamowego.

Dla profesjonalistów IT oznacza to kilka rzeczy. Po pierwsze, rosnąca popularność Google Cloud to większe zapotrzebowanie na specjalistów znających tę platformę. Po drugie, wojna cenowa i technologiczna między wielką trójką (AWS, Azure, GCP) będzie się tylko zaostrzać, co może przełożyć się na lepsze oferty i bardziej innowacyjne usługi. Wreszcie, pokazuje to, że kompetencje związane z AI i data science nie są już niszą, a absolutnym mainstreamem, którego znajomość będzie kluczowa na rynku pracy.

Share.

Cześć! W redakcji 3D-Info będę odpowiadał za większość testów podzespołów komputerowych m.in: procesorów, płyt głównych, kart graficznych, ale także urządzeń sieciowych. Możecie spodziewać się również licznych tekstów okołosprzętowych, omówień bieżących wydarzeń i premier, rankingów czy porównań. Z góry przepraszam za mocno techniczny język. Jestem typowym geekiem komputerowym, który uwielbia zagłębiać się w szczegółach budowy podzespołów. Uwielbiam spędzać godziny na testach, a okno 3DMarka znam już chyba na pamięć. Lubię też wyszukiwać promocje na te najważniejsze i najdroższe komponenty komputerowe. I choć nie mam wieloletniego doświadczenia dziennikarskiego, mam nadzieję, że 3D-info to kolejny etap mojego rozwoju zawodowego.   Swoją przygodę z dziennikarstwem zaczynałem na 3D-Info niemal 10 lat temu. Jednak wtedy nie był to portal technologiczny, a bardziej blog teamu overclokingowego. Nasze wpisy skupiały się na raportowaniu naszych osiągnięć, czy podsumowania zawodów, w których braliśmy udział. Niestety, nie przetrwaliśmy próby czasu, a ekipa rozeszła się do „normalnej” pracy. Sam przez lata pracowałem w kilku sklepach ze sprzętem RTV i AGD. Mój powrót do dziennikarstwa nastąpił w 2019 roku, w sumie to z przypadku, na łamach portalu PCWorld.pl. Zaczynałem skromnie od pojedynczych testów pamięci RAM czy dysków. To opór Piotrka Opulskiego, naszego wydawcy spowodował, że zdecydowałem się w 2021 całkowicie zmienić swoją drogę kariery zawodowej i zostałem redaktorem na stałe.   Nie będzie raczej niespodzianką, jak powiem, że mimo upływu lat moje zamiłowanie do podkręcania nie ustąpiło. Obecnie pomału wracam do świata ekstremalnego overclockingu, by jeszcze bardziej poszerzyć swoją wiedzę technologiczną. Idealne popołudnie dla mnie to dewar pełen ciekłego azotu i odpalone na komputerze liczne benchmarki.

Exit mobile version