Jeśli mnie coś martwi, to nie rozwój sztucznej inteligencji, ale ludzie, którzy wciąż mordują się tysiącami – mówi prof. Aleksandra Przegalińska, filozofka i futurolożka.
Newsweek: Jest pani życiową optymistką?
Aleksandra Przegalińska: Większość przyjaciół określiłaby mnie jako optymistkę, ale ci, którzy mnie znają lepiej, doskonale wiedzą, że jest też we mnie „ciemna strona księżyca”. Jakiś głęboki rdzeń apokaliptyczny.
Rewolucja technologiczna daje nadzieję na przyszłość czy powinniśmy się bać?
– Sztuczna inteligencja od lat ma złą prasę. Także w popkulturze utrwalił się obraz technologii, która budzi strach, bo przejmuje panowanie nad ludzkością, a człowiek musi walczyć o przetrwanie. Jeśli jednak porozmawia się z praktykami, to oni mają zupełnie inne spojrzenie. Na przykład ktoś, kto musiał codziennie wysyłać setki maili, a teraz robi to za niego ChatGPT, albo naukowiec farmaceuta szukający nowych leków i terapii. Im sztuczna inteligencja pomaga.
W tworzeniu szczepionek też miała duży udział sztuczna inteligencja, więc praktyka jest często bardziej optymistyczna niż katastroficzny obraz serwowany nam przez Hollywood. Co nie znaczy, że jestem kompletnie ślepa na wyzwania czy problemy z nią związane.
A może problemem nie jest sztuczna inteligencja jako taka, ale my? Wszystko zależy od tego, co z nią zrobimy. Zupełnie jak z energią atomową – można zbudować elektrownie albo bomby.
– Sztuczna inteligencja nie ma żadnych problemów, ponieważ nie ma stanów afektywnych, emocji, uczuć. To po prostu model statystyczny. Oczywiście bardzo dojrzały, ale w porównaniu z tą elegancką galaretką, którą mamy pod czaszką i która zużywając tak mało energii, tak dobrze pracuje, to naprawdę jeszcze nijak do nas nie przystaje.
Często cytuje się Stephena Hawkinga, który na koniec życia przestrzegał przed sztuczną inteligencją. Ale on stwierdził, że to nie sztuczna inteligencja jest największym zagrożeniem dla człowieka, tylko system kapitalistyczny, który może być przez tę sztuczną inteligencję multiplikowany. Czyli to jest po prostu narzędzie, którym możemy multiplikować najróżniejsze zjawiska niepożądane, takie jak skrajna polaryzacja, także ekonomiczna.
Podziały klasowe?
– Tak, dokładnie. Jakkolwiek brzmi to trochę jak z poprzedniego wieku, ale tak właśnie może być.
Sztuczna inteligencja uczy się dzisiaj od każdego użytkownika.
– Nie od każdego tak samo, ale uczy się cały czas, jak prezydent Duda.
Swego czasu Microsoft miał problem z botem, który wiedzę o świecie czerpał z mediów społecznościowych.
– Miał uczyć się poprzez rozmowy, ale nie potrafił krytycznie podchodzić do źródła informacji. Różne internetowe trolle nafaszerowały go wiedzą, która uczyniła go nazistą, hejterem i szowinistą.
Czy ze sztuczną inteligencją nie jest jak z genialnym dzieckiem, które trafiło na wychowanie do patologicznej rodziny?
– Trochę tak jest. Wręcz bym powiedziała, że skoro sztuczna inteligencja multiplikuje to, co zna, a my jesteśmy pełni stereotypów, mamy jakieś niefajne nawyki i one są w jakiś sposób w sieci odzwierciedlone, to ona też siłą rzeczy się ich uczy. Te złe modele kompletnie nieświadomie replikuje i replikuje.
Jak bardzo modele sztucznej inteligencji, na których pani pracuje, są do przodu przed tymi, do których my, zwykli śmiertelnicy, mamy dostęp?
– To są te same algorytmy. Ja tylko potrafię z nimi robić większą magię. Ale są modele, których do tej pory nie udało się testować naukowcom: schowane w armii. Być może trwają tam prace nad sztuczną inteligencją jeszcze bardziej zaawansowaną, nad jakimiś alternatywnymi algorytmami, o których po prostu nie wiemy. Nad tą przestrzenią wisi jakaś omerta, absolutna zmowa milczenia. Nikt nie wie, jakie to są technologie, ale z doświadczenia powinniśmy wszyscy wiedzieć, że wojsko ma różne wynalazki wcześniej niż reszta.
Autonomiczne maszyny bojowe to przerażająca wizja, która spełnia się na naszych oczach. Zmiany technologiczne, nie tylko w armii, zachodzą tak szybko, że trudno za nimi nadążyć.
– To jest niesamowite, że rewolucja zaczęła się w 2022 r. i od tamtej pory co dwa-trzy miesiące jest jakiś update, który sprawia, że model jeszcze więcej potrafi i w zasadzie od razu jest skalowalny do wszystkich użytkowników. Jesteśmy świadkami eksperymentu społecznego na gigantyczną skalę. Oto dwa lata temu kolosalny model językowy ChatGPT trafił za darmo do każdego, kto się zalogował na stronę. Bach i w trzy dni miliony, a potem dziesiątki i setki milionów użytkowników za darmo mają dostęp do technologii przyszłości.
Jednocześnie jest to chytry sposób na pozyskanie danych i uczenie się interakcji z żywymi użytkownikami.
– Jasna sprawa, że to w ich interesie, ale był to ryzykowny ruch, bo nikt tego wcześniej nie zrobił, a jest to bardzo droga technologia. Kiedyś przyjdzie za to zapłacić jakiś rachunek. Przetwarzanie tego na jakichś ogromnych serwerowniach w Idaho czy nie wiem gdzie wiąże się przecież z kolosalnymi kosztami. Codzienna praca z milionami ludzi, którzy mają co sekundę do niego jakieś zapytania, też kosztuje. Jeden chce, żeby odpowiadać za niego na maila, bo mu się już nie chce, a ktoś inny, żeby mu raport biznesowy wygenerować. Kto za to zapłaci i jak? Ta odroczona płatność? Tego jeszcze nie wiem, ale to jest dosyć tajemnicze, że tak droga technologia poszła tak szeroko i w dużej mierze za darmo.
Jesteśmy świadkami eksperymentu społecznego na gigantyczną skalę. Bach i w trzy dni miliony, a potem dziesiątki i setki milionów użytkowników za darmo mają dostęp do technologii przyszłości
Sztuczna inteligencja zyska w przyszłości samoświadomość?
– Gdyby tak się stało, to byłby już koniec, po wszystkim. Mielibyśmy nowych członków społeczeństwa. Na bazie tego, co widzimy, to są wyłącznie spekulacje. Spotka pan ludzi, którzy zjedli zęby na tej sztucznej inteligencji i będą mówić, że absolutnie to się nie wydarzy w ciągu najbliższych 100-200 lat. Ale spotka pan też takich, którzy powiedzą, że to zajmie 10-15 lat.
Wśród naukowców konsensus jest zachowawczy, że raczej to nie stanie się szybko. Co innego mówią gorące głowy z Doliny Krzemowej. Reprezentując naukę, też uważam, że dzisiejsze modele statystyczne nie są w stanie rozwinąć świadomości. Nie odczuwają niczego, ani bólu, ani emocji. I na razie jest to tylko odtwarzanie pewnych wzorców kondensacyjnych, jakkolwiek wygląda to jak perfekcyjna symulacja.
Co jest potrzebne, żeby sztuczna inteligencja zyskała samoświadomość?
– Jakieś X, którego jeszcze nie znamy. Po pierwsze, nie wiemy do końca, czym jest ta świadomość i samoświadomość. Mamy luki w wiedzy, jeśli chodzi o działanie naszego mózgu. To, co wiadomo, to to, że świadomość jest prawdopodobnie „setupem” czy stanem mentalnym, który się bardzo późno w ewolucji rozwinął. I że wymagał on wcześniejszych bardzo wielu pokładów, jakby różnych innych form inteligencji, żeby się mógł wytworzyć. Więc nawet jeśli ta ewolucja miałaby być krótsza w przypadku maszyn, to trochę zajmie.
Niektórzy mówią, że musielibyśmy przestać programować na krzemie, żeby to się wydarzyło. Musielibyśmy doprowadzać do jakiegoś połączenia biologii, biologii syntetycznej, przetwarzania informacji na białku i może tam rzeczywiście mogłaby się pojawić taka hybryda: trochę sztuczna, trochę biologiczna istota, która nie wiem na jakim etapie swojego rozwoju wykazywałaby cechy świadomości, jakąś podmiotowość itd.
Rozwój komputerów kwantowych może być tym X dla sztucznej inteligencji?
– To bardzo ciekawe zagadnienie. Wydaje się, że to będzie niesamowite zwielokrotnienie możliwości obliczeniowych maszyn, które mamy. Ale nikt nie powie panu, czy to się przełoży na rozwój takich cech jak świadomość. To może być po prostu coś nieskończenie szybszego, co szybciej będzie rozwiązywać pewne problemy, ale pozostanie w wielkiej statystyce, czyli nadal bez tych wyższych funkcji mentalnych. Niektórzy powiedzieliby, że do rozwijania świadomości potrzebne jest ciało, ono jest wehikułem. Do tego percepcja i doświadczenia w czasie. Tutaj tego nie ma. Modele nie żyją w czasie, nie starzeją się itd. Bardzo dużo jest zagadek.
Pytałam kiedyś księdza, co on myśli o sztucznej inteligencji obdarzonej świadomością, i co na to współczesna teologia. Usłyszałam, że jeśli SI miałaby świadomość, to znaczy, że ma duszę i jest dzieckiem Bożym, tak jak wszyscy. Może trzeba będzie w przyszłości uznać takie inkluzywne podejście i myśleć o SI jak o naszych braciach mniejszych czy większych.
Pytanie, czy sztuczna inteligencja z samoświadomością nie wyrasta tak ponad człowieka, że ten człowiek przestaje wtedy być jej potrzebny?
– Może okaże się wielkoduszna, wyrozumiała i wspaniałomyślna. To jest inny punkt widzenia. My, ludzie, cały czas się z czymś zmagamy, żeby jakoś przetrwać z dnia na dzień, zabezpieczyć sobie byt. Jesteśmy pochłonięci instynktownie tym, żeby zabezpieczać bazę. Jeśli sztuczna inteligencja nie będzie musiała zabezpieczać bazy, będzie miała dużo więcej czasu i będzie jakoś eksplorowała te najbardziej wzniosłe rzeczy, to może zostanie dla nas fajnym nauczycielem. A może się z nią jakoś połączymy? To też można sobie wyobrazić. Są takie nurty, na przykład humanistyczne, które mówią, że człowiek, który nie musi już gonić za tym, żeby przetrwać, który ma do dyspozycji możliwość wydłużenia swojego życia, to jest ostatecznie człowiek bardziej empatyczny. Nie wiem, czy tak jest, ale niektórzy mają nadzieję, że jak się pozbędziemy zmartwień o byt, to będziemy bardziej wielkoduszni i sztuczna inteligencja nas tego nauczy.
A może będzie potrzebny transfer naszej świadomości do sztucznej inteligencji?
– Tak by chciał Elon Musk. Od wielu lat przedstawia pogląd, że jedyną dla niego ciekawą drogą rozwoju sztucznej inteligencji jest właśnie zbudowanie interfejsu mózg-maszyna, który pozwoliłby nam się ze sztuczną inteligencją połączyć, czyli że to my byśmy byli do niej jakby podpięci, korzystalibyśmy z jej zasobów, przekroczyli dzięki temu swoje ograniczenia i stali się jakimś nowym pewnie gatunkiem, w pewnym sensie hybrydą.
Albo ludzie stworzą nową religię i zaczną się modlić do SI?
– Krzyż na drogę, jak chcą się modlić, niech się modlą. To się już dzieje. Na razie są to ruchy totalnie peryferyjne. Ale byłam na konferencji technologicznej organizowanej przez mormonów i jeden z nich przekonywał mnie, że mormoni jako formacja ideowa, religijna, są bardzo transhumanistyczni. Technologia ma być środkiem do tego, żeby się z powrotem spotkać z Bogiem i mu dorównać. W Danii ostatnio był taki pomysł, że liderem politycznym ma być sztuczna inteligencja, ale partia, która to głosiła, dostała tylko dwa procent w wyborach. Jej program był napisany przez sztuczną inteligencję: taki groch z kapustą, wszystko szalenie eklektyczne, dla każdego coś miłego. Połączenie lewicy, Konfederacji z PO i PiS jeszcze.
Natomiast sam ruch, żeby wykorzystać AI do tworzenia idei pociągającej za sobą ludzi, to już się dzieje i myślę, że będzie tego więcej.
Zastanawia się pani czasem, czy nasz świat jest rzeczywisty, czy może raczej żyjemy w komputerowej symulacji?
– Czasem o tym rozmyślam. Pracuję bardzo dużo z algorytmami i z moimi studentami robimy dużo takich ćwiczeń. Ja im każę myśleć algorytmicznie o różnych rzeczach, które im niekoniecznie wydają się algorytmiczne. Na przykład mówię im: wchodzisz na portal randkowy, czy zdajesz sobie sprawę, że tak naprawdę algorytm optymalizuje twój wybór potencjalnego partnera lub partnerów ze względu na jakieś parametry? Czyli aktywność, która jest intymna, de facto jest szalenie algorytmiczna pod wieloma względami. Sam fakt, że ty chcesz się mocować z innymi ludźmi, jest już jakby algorytmiczny.
Ja tych algorytmów strasznie dużo widzę – skrypty powitania, pożegnania, rozstania, skrypt wchodzenia w nową relację, skrypt tego czy tamtego. Jak się patrzy na świat przez pryzmat algorytmów, które nim rządzą, to można mieć trochę poczucie, że to jest jakiś wielki model, w którym my się jakoś po prostu mieścimy.
Ostatnio facet zrobił na YouTubie świetny pokaz na przykładzie botów w grach wideo. Wchodzą one w proste interakcje z graczem, powiedzą jedno zdanie, coś podadzą. Gdy pod te boty w grze podpięto Chat GPT – to znaczy duży model językowy – zamiast opowiadać tylko to, co zostało zaprogramowane, zaczynały prowadzić swobodną konwersację. Facet z YouTube’a grał w tę grę, podchodził do tych botów i rozpoczynał z nimi bardzo interesujące rozmowy. Ale w pewnym momencie wrzucał im taki wątek: „Czy ty wiesz, że jesteś tylko botem w grze?”. Po drugiej stronie była jakaś totalna konfuzja i zaprzeczenie: „Nie jestem botem, nazywam się Norman, stoję na tym rogu ulicy, a tak naprawdę to czeka na mnie żona w domu” – i tak dalej, i tak dalej. Model językowy pozwalał im realizować jakieś wzorce komunikacji i właśnie negować to, że one są botami w grze. To było strasznie dziwne.
Aż mnie dreszcze przeszły.
– Jak to zobaczyłam, to pomyślałam: o kurde, może do mnie kiedyś ktoś tak podejdzie i mi powie, że jestem tylko botem w grze. To trochę „ryje beret”. Ale z drugiej strony dużo osób w świecie gier i rozrywki mówi, że to jest wielka rewolucja, bo zamiast grać w sposób ustrukturyzowany, bo to jest droga do zwycięstwa w grze, nagle te gry będą mogły być kompletnie ożywione. To znaczy, że dzięki sztucznej inteligencji te gry będą mogły mieć nieskończoną liczbę możliwych scenariuszy. To, jak rozmawiam z takim bohaterem, może wpływać potem na dalszą trajektorię gry i ją generować na bieżąco.
Jest takie stare chińskie przekleństwo: Obyś żył w ciekawych czasach.
– Mam wrażenie, że żyjemy w bardzo ciekawych. I jeśli mnie coś martwi, to nie rozwój sztucznej inteligencji, ale ludzie, którzy wciąż toczą bezsensowne wojny i mordują się tysiącami. Chciałabym, żebyśmy rozwijali nie tylko technologię, ale także siebie. Bo my tu rozmawiamy o sztucznej inteligencji i przyszłości cywilizacji, a tuż obok w Ukrainie giną dzieci i niewinni cywile. Ja tego nie mogę zrozumieć.
Aleksandra Przegalińska jest filozofką, futurolożką, badaczką rozwoju nowych technologii i zrównoważonej, humanoidalnej sztucznej inteligencji. Doktorka nauk humanistycznych i doktorka habilitowana nauk społecznych. Prorektorka ds. współpracy z zagranicą Akademii Leona Koźmińskiego w Warszawie