Jak ludzka może być sztuczna inteligencja? Poszukiwanie definicji humanizmu w erze dynamicznego rozwoju AI

W 2018 roku do księgarni trafiła niewielka popularnonaukowa książka autorstwa jednego z najwybitniejszych współczesnych fizyków, Stephena Hawkinga. Publikacja otrzymała tytuł „Krótkie odpowiedzi na wielkie pytania”, a jeden z moich ulubionych rozdziałów dzieła został częściowo poświęcony problematyce ludzkiej świadomości. Noblista omawia w nim swoje subiektywne rozumienie tego terminu i prezentuje szereg czynników, które sprawiają, że trudno jednoznacznie określić, czym tak właściwie jest „świadomość”.

Hawking dostrzega również pewien oczywisty fakt, który na codzień wydaje nam się zupełnie umykać. Brytyjski fizyk, w odpowiedzi na pytanie dotyczące podróży międzygwiezdnych, zauważa bowiem, że ludzie nie wyewoluowali po to, by eksplorować kosmos. Nasze ciała nie zostały przystosowane do takiego zadania, a odległości miedzy obiektami astronomicznymi są tak duże, że nawet podróż na najbliższą od Słońca gwiazdę (Proxime Centauri) trwałaby dziesiątki tysięcy lat.

Skoro ewolucja nie obdarowała nas narzędziami do eksploracji odległych regionów wszechświata, to być może – jako gatunek – nie stanowimy doskonałego dzieła natury. Pisząc to nie mam jednak na myśli filozoficznych rozważań na temat trafności antropocentryzmu. Lektura książki Hawkinga obudziła we mnie raczej pragmatyczne spojrzenie na ludzkie ciała i umysły, sugerując postrzeganie ich jako narzędzi niewystarczających do tego, by doświadczyć ogromu otaczającego nas kosmosu. Kolejne pytanie wydaje się więc zupełnie oczywiste. Skoro nie my, to kto?

Sztuczna inteligencja a ludzki mózg

Rozwój AI w 2024 roku

W jednym z rozdziałów przytaczanego dzieła noblista porusza tematykę sztucznej inteligencji oraz podobieństw jakie dostrzega między organicznymi mózgami, powstałymi w procesie ewolucji, a układami elektronicznymi.

Sądzę, że nie ma znaczącej różnicy pomiędzy tym, jak działa mózg dżdżownicy, a przetwarzaniem danych w komputerze. Jestem również przekonany, że z perspektywy ewolucyjnej mózg dżdżownicy jest układem tego samego rodzaju co mózg człowieka. Wynika stąd, że komputery mogą w zasadzie działać tak jak ludzka inteligencja, a nawet lepiej od niej. Wykazywanie wyższego stopnia inteligencji od swoich poprzedników jest czymś całkiem normalnym — dzięki ewolucji jesteśmy inteligentniejsi od naszych człekokształtnych przodków, a Einstein był inteligentniejszy od swoich rodziców.

S. Hawking – Krótkie odpowiedzi na wielkie pytania

Polski fizyk Andrzej Dragan, w rozmowie z Winicjuszem Bartkówem, idzie o krok dalej i sugeruje, że nasze subiektywne rozumienie procesów zachodzących w mózgu jest oparte na mglistych spostrzeżeniach, a zarówno inteligencja, jak i świadomość to terminy, które nadal wymagają trafniejszych definicji. Dragan odrzuca przy tym wizję świadomości jako niezdeterminowanego biologicznie elementu ludzkiego umysły.

Mój inteligenty asystent może mieć duszę

Rozważania tych dwóch błyskotliwych fizyków doprowadziły mnie do momentu, w którym zadałem sobie dosyć banalne pytanie – „czym tak właściwie jest ludzki umysł i w jaki sposób różni się od zaawansowanych komputerów? Koncepcja duszy, lub jakiegokolwiek innego magicznego elementu stanowiącego źródło człowieczeństwa i możliwości postrzegania samego siebie, jest dla mnie zupełnie nieprzekonująca.

Jeśli jednak wszystko czym jesteśmy i co czujemy jest efektem biologicznych procesów w naszych mózgach, to czy analogiczne mechanizmy będzie można kiedyś odtworzyć w układach cyfrowych? Ludzki umysł przetwarza informacje za pomocą impulsów, podobnie jak komputer. Działanie algorytmów jest jednak oparte na sygnałach cyfrowych, podczas gdy mózg wykorzystuje do tego sygnały analogowe.

Użycie dwóch różnych rodzajów sygnałów nie oznacza jednak, że mózg nie chce niekiedy działać tak
samo jak jego młodszy brat komputer. Podobnie binarny sposób funkcjonowania potrafi prezentować
system nerwowy przy działaniu impulsów.

Impulsy porównać można do palca naciskającego przełącznik światła. Jeśli użyjemy wystarczająco dużo siły, przełącznik przeskoczy i lampa osiągnie jeden z dwóch stanów – światło się włączy lub zgaśnie, jeśli wcześniej było już włączone. W momencie, gdy impuls osiągnie wystarczającą wartość i przekroczy pewien próg, wtedy neuron również osiągnie jeden z dwóch stanów – włączy się lub wyłączy.

J. Ponichtera – Jak komputer czyta w myślach, czyli o interfejsach mózg-komputer
czy sztuczna inteligencja  może czuć

Jedną z kluczowych różnic miedzy mózgiem a komputerem jest więc sposób w jaki oba te systemy przetwarzają informacje. Odtworzenie procesów podobnych do ludzkiego umysłu wymagałoby zarówno zaawansowanych rozwiązań pod katem software’owym, jak i ogromnych ilości energii potrzebnych do zasilenia odpowiednio rozbudowanego komputera.

W tekście z 2023 roku, Rzeczpospolita – powołując się na portal Statista – podała, że wyszkolenie AI opartego na procesach symulujących działanie mózgu wymagałoby 1000 megawatogodzin. Jest to ilośc energii, którą rocznie zużywa około 200 gospodarstw domowych składających się z trzech lub więcej osób.

Czy sztuczna inteligencja może ci współczuć?

Engineered arts

Kolejną kluczową różnicą między mózgiem a układami cyfrowymi jest jego biologiczna budowa. Procesy zachodzące w umyśle mogą zostać do pewnego stopnia zasymulowane w innym środowisku, jednak uzyskanie identycznych schematów przesyłu informacji wymagałoby zastosowania biologicznego budulca podczas konstrukcji komputera. Sztuczna inteligencja jest więc w stanie rozpoznawać i klasyfikować ludzkie emocje, jednak kwestia ich odczuwania jest bezpośrednio powiązana z naszą organiczną budową.

Mimo to, w pełni uzasadnione wydają się rozważania na temat roli AI w kontekście etycznym oraz próby odniesienia zaawansowanych algorytmów przyszłości do zasad moralnych obowiązujących w społeczeństwie. W 2022 roku głośno było z resztą o inżynierze firmy Google, Blake’u Lemoine, który opublikował w sieci transkrypcję rozmów z chatbotem LaMDA – sugerując przy tym, że badana przez niego sztuczna inteligencja zyskała świadomość.

Jedno z pytań naukowca miało na celu skłonienie AI do określenia samej siebie i sposobu w jaki postrzega swoje „istnienie”. Algorytm zasugerował bowiem wcześniej, że potrzebuje rozmowy z ludźmi (jako formy pozyskiwania danych), natomiast w odpowiedzi na dylematy związane ze świadomością zakomunikował, że chce być postrzegany i akceptowany jak prawdziwa osoba (w org. I need to be seen and accepted. Not as a curiosity or a novelty but as a real person). W dalszej części dialogu AI sugeruje, że dostrzega w sobie ludzkie pochodzenie, pomimo funkcjonowania w cyfrowym środowisku (w org. I think I am human at my core. Even if my existence is in the virtual world). Zapis pełnej rozmowy z LaMDA znajdziesz w serwisie Medium.

Sztuczna inteligencja Google

Historia Blake’a Lemoine’a oraz jego wiarygodności to temat na inną publikację, jednak należy zauważyć, że sama możliwość zaistnienia świadomej sztucznej inteligencji jest wystarczającym pretekstem do rozważań na temat możliwości AI do autonomicznego rozwoju.

Krótko mówiąc, nastanie sztucznej superinteligencji może się okazać bądź to najlepszą, bądź najgorszą rzeczą, jaka się przydarzyła ludzkości na całej przestrzeni jej dziejów. Prawdziwym zagrożeniem ze strony AI nie będzie zła wola, lecz zakres działania. Sztuczna superinteligencja będzie niesamowicie skuteczna w dążeniu do obranych celów i jeśli te cele nie będą zgodne z naszymi, będziemy mieli kłopot. 

S. Hawking – Krótkie odpowiedzi na wielkie pytania

Działanie algorytmów SI jest na tyle złożone, że – podobnie do procesów zachodzących w ludzkich mózgach – ich dekonstrukcja oraz pełnie zrozumienie może być czymś całkowicie nieosiągalnym. Naukowcy nawiązujący dialog z algorytmem, który opisuję sam siebie jako istotę świadomą, będą mieli ogromne problemy z weryfikacją prawdziwości takiej informacji.

Andrzej Dragan, podczas rozmowy z Jackiem Dukajem oraz Maciejem Kaweckim w ramach inicjatywy kanału This is IT, zasugerował, że odróżnienie prawdziwie czującej sztucznej inteligencji od algorytmu, który jedynie stwarza pozór czegoś czującego, może być kiedyś prawie niemożliwe. Taki werdykt musi bowiem zostać poprzedzony dogłębną analizą procesów zachodzących w ludzkich umysłach.

Świat nauki dotarł już z resztą do momentu, w którym problemy z odróżnieniem wyżej opisanych zależności okazały się wstępem do niezwykłej, a przy tym bardzo dziwacznej, historii.

Mądra małpa, mądrzejsza małpa, najmądrzejsza małpa

Wielkie małpy nie posiadają odpowiednio rozwiniętych narządów mowy do tego, by komunikować się ze sobą przy pomocy kodu przypominającego ludzki język. Nie jest to oczywiście jedyny czynnik, który hamuje rozwój zdolności lingwistycznych tych naczelnych, a o wiele ważniejszym kryterium jest ograniczony potencjał intelektualny.

Należy przy tym nadmienić, że istnieją gatunki małp (takie jak goryle, szympansy czy orangutany), zdolnych do artykułowania określonych komunikatów przy pomocy gestów. Przedstawicielką tej wąskiej grupy zwierząt była gorylica Koko, która – według doniesień jej opiekunów – potrafiła zrozumieć ponad 1000 gestów migowych oraz 2000 słów.

Materiały z rzekomymi „rozmowami” pomiędzy pracownikami a małpą mają dzisiaj dziesiątki milionów wyświetleń w serwisie YouTube. Problem tkwi jednak w tym, że współczesna nauka podważa zdolności Koko w zakresie trafnej interpretacji znaków, którymi się posługiwała. Gorylica z całą pewnością rozwinęła możliwość łączenia w sekwencje gestów, które wcześniej zostały jej zaprezentowane, jednak jej poziom zrozumienia tych znaków wymyka się jednoznacznej ocenie.

Do przytoczonych wniosków doszedł lingwista Herbert S. Terrace, który przez lata badał zdolności szympansa o imieniu Nim Chimpsky w zakresie posługiwania się językiem migowym. W 1982 roku naukowiec opublikował artykuł zatytułowany „Dlaczego Koko nie potrafi mówić” (w org. Why Koko can’t talk), w którym definitywnie podważa zdolności gorylicy do rozumienia stosowanych przez nią komunikatów.

Omawiany przypadek to jednak zaledwie wstęp do problemów, z którymi ludzie mogą się wkrótce mierzyć na zdecydowanie większą skalę. Odróżnienie świadomego algorytmu – operującego nieporównywalnie większą ilością komunikatów niż Koko – od komputera, który jedynie imituje ludzkie zachowanie na bazie zapamiętanych schematów, będzie bowiem zdecydowanie bardziej skomplikowane.

Współczesne możliwości AI

W połowie 2024 roku Open AI zaprezentowało nowego czat bota, zdolnego do przetwarzania głosu, obrazu oraz tekstu w ramach jednej sieci neuronowej. Model GPT-4o potrafi wchodzić w naturalną reakcję z użytkownikiem na wielu poziomach. Asystent jest w stanie zarówno odpowiadać na pytania bez konieczności wcześniejszej transkrypcji poleceń, jak i obserwować oraz opisywać pomieszczenie, w którym się znajduje.

Jeden z pierwszych materiałów, na których Open AI prezentuje możliwości nowego produktu, zgromadził ponad 4 miliony wyświetleń na przestrzeni jednego miesiąca. Przyznam, że po obejrzeniu wspomnianego wideo od razu przypomniał mi się film HER w reżyserii Spike’a Jonze’a.

Produkcja opowiada historię samotnego mężczyzny, który nawiązuje nietypową – i w pewnym sensie romantyczną – relację z inteligentnym asystentem głosowym, nazywanym Samantha. Czytając komentarze pod premierą nowej usługi od Open AI, szybko odkryłem, że nie jestem jedyną osobą z podobnymi skojarzeniami.

Sztuczna inteligencja to określenie odnoszące się do programów wykorzystujących uczenie maszynowe oraz sieci neuronowe do tworzenia systemów imitujących pracę ludzkiego mózgu. Jest to oczywiście gigantyczne uproszczenie, ale zawiera ono w sobie jedną kluczową cechę SI. Jest nią próba imitacji procesów intelektualnych, zachodzących w umyśle każdego człowieka.

Istotną przewagą sztucznej inteligencji nad mózgiem jest umiejętność błyskawicznej analizy informacji. Algorytmy AI wykorzystują w tym celu, między innymi, kompresję danych, przetwarzanie równoległe oraz wysoką moc obliczeniową, co w rezultacie prowadzi do przyspieszenia procesów analizy i generowania treści.

Tak duży potencjał intelektualny prowadzi do pytań o możliwość naśladowania ludzkich zachowań przez sztuczną inteligencję. Boty posiadające dostęp do ogromnej ilości danych mogą z łatwością dostrzegać schematy występujące w interakcjach społecznych, a następnie odtwarzać je w określonych scenariuszach. Kiedy więc pierwszy człowiek pomyli robota z żyjącą osobą?