Algorytmy to nie są siły nadprzyrodzone. Mają zachwycające często umiejętności, ale też się mylą, więc musimy do nich podchodzić z dystansem – mówi prof. Marek Kowalkiewicz, kierownik katedry gospodarki cyfrowej na Queensland University of Technology w Australii.

Prof. Marek Kowalkiewicz: Najprościej mówiąc, to zbiór instrukcji, które należy wykonać. Książka kucharska to nic innego jak zbiór algorytmów: weź składniki i w odpowiedniej kolejności wymieszaj, ugotuj, usmaż. Algorytmy poznajemy też w szkole, kiedy na matematyce uczymy się, jak rozwiązywać zadania.

– I to już dawno nie są takie proste algorytmy jak w książkach kucharskich. W przypadku tych najnowszych, związanych ze sztuczną inteligencją, nie jesteśmy już w stanie zobrazować sobie, jak te algorytmy działają.

– Owszem, to strach wynikający z niezrozumienia, ale także z poczucia bezsilności: to algorytm odrzucił mój wniosek o kredyt czy zdecydował, że nie dostałem się na studia.

– Wśród moich znajomych panuje przekonanie, że kiedy rozmawiamy z botem głosowym, trzeba jak najwięcej przeklinać. Algorytm zauważa wtedy, że poziom zdenerwowania klienta przekroczył bezpieczny próg, i przekazuje sprawę żywemu człowiekowi.

– Na szczęście tym kierownikiem jest jeszcze człowiek. Ale są też inne przykłady obchodzenia algorytmów przez człowieka. W książce „Gospodarka algorytmów” opisuję, jak na jednym z nowojorskich lotnisk kierowcy Ubera zorientowali się, że kiedy wspólnie wyłączą aplikację, algorytm zaczyna podbijać im stawki za przejazd: kiedy widzi, że w okolicy jest mało kierowców, kusi ich wyższą ceną. Wystarczy więc na jakiś czas wyłączyć aplikację i poczekać, aż cena wzrośnie. Z kolei kierowcy w Australii odpalają czasem aplikacje jako klienci i też osiągają podobny efekt: wyższy popyt na usługę powoduje podbijanie stawek.

– W pewnym sensie jesteśmy takim ruchem oporu. Twórcy algorytmów wiedzą, co siedzi w środku, ale my, którzy jesteśmy odbiorcami tych maszynowych decyzji, musimy kombinować, eksperymentować, jak to działa i jak to ewentualnie obejść.

– Nie mają pojęcia, że są manipulowani. A te manipulacje bywają porażające. Mam nastoletnią córkę i od dawna odbywam z nią rozmowy na temat używania aplikacji społecznościowych. Robiliśmy nawet eksperymenty na Instagramie: zalajkowaliśmy kilka postów jakiejś influencerki i moje dziecko zostało przywalone podobnymi postami i komentarzami.

– Manipulacje nie kończą się na samych aplikacjach. Wielkie firmy wiedzą o nas niemal wszystko, a potem poprzez „ciasteczka” dzielą się tymi informacjami z właścicielami innych stron. Można się zdziwić, że np. e-sklep z butami, w którym wcześniej nie byliśmy, tyle wie o naszych upodobaniach.

– To jest bulwersujące, ale nikomu nie udało się udowodnić, że Facebook rzeczywiście nas podsłuchuje. Myślę, że to raczej magia jego algorytmów i nasza przewidywalność. To, co nam podpowiada Facebook, to efekt nieustannego testowania, co nam bardziej odpowiada, na co żywiej zareagujemy. Te eksperymenty, które akurat pokryją się z treścią pana rozmowy z żoną, zapadną panu w pamięć za sprawą tzw. efektu potwierdzenia (confirmation bias).

Wiele osób może się dopatrywać w możliwościach tych technologii cech magii, a siły nadprzyrodzone zawsze nas przerażały. Tyle że przy takim podejściu rezygnujemy z kontroli nad danym przedmiotem czy zjawiskiem.

– Od lat staram się tłumaczyć, że algorytmy to nie są siły nadprzyrodzone. One mają zachwycające często umiejętności, ale w bardzo wąskim zakresie. Często okazuje się też, że się mylą, więc musimy do nich podchodzić z dystansem. Wystarczy spojrzeć na to, co potrafią wypisywać algorytmy generatywnej sztucznej inteligencji. Studentom mówię, że takiego chatbota powinni traktować jak dobrego znajomego, który pochłonął mnóstwo książek, ale potrafi też eksperymentować z lekkimi narkotykami, więc czasem będzie halucynował, czyli mniej lub bardziej kreatywnie zmyślał.

– Trzeba przyjąć założenie, że nie są nieomylne. Przez dziesiątki lat systemy komputerowe uważaliśmy za przewidywalne narzędzie: jak wpiszę do Excela 2 x 2, to zawsze wyjdzie 4. Ale sztuczna inteligencja oparta na sieciach neuronowych stosuje inne podejście – tu główną miarą jest prawdopodobieństwo poprawności odpowiedzi. Jeśli taki system mówi, że na zdjęciu widać samochód, to musimy wiedzieć, że wewnętrznie z iluś możliwych odpowiedzi wybrał taką o najwyższym prawdopodobieństwie słuszności, ale ono może wynosić np. 95 proc., nie 100 proc.

– Pamiętajmy: nasz oczytany znajomy może halucynować, więc musimy użyć mózgu, żeby krytycznie podejść do jego odpowiedzi. A nie jesteśmy do tego przyzwyczajeni.

– Tak, jednak i w wyszukiwarkach trafiają się wpadki. Wysoko w Google’u znalazłem np. stronę, na którą ludzie wrzucają rozmaite zabawne odpowiedzi, jakich udziela im ChatGPT. I nagle wszystkie te halucynacje zaczynają być traktowane przez Google’a jako normalne źródło informacji. Bo algorytm wyszukiwarki nie ma poczucia humoru.

– Raczej mimowolnego. Ale gdy się nad tym zastanowić, to może to być bardzo niebezpieczna broń propagandowa. Można wpływać na algorytmy, żeby pokazywały nam zupełnie inny świat niż ten rzeczywisty. Ostatnio czytałem, że istnieje cała sieć stron internetowych kontrolowanych przez Rosję, której celem jest właśnie wpływanie na algorytmy wyszukiwarek. Z jednej strony jest to fascynujące narzędzie, z drugiej – mam świadomość, że algorytmy mogą być i są używane, by destabilizować demokrację, uzależniać nasze dzieci albo skłaniać nas do robienia rzeczy, których normalnie byśmy nie robili.

– To się zaczęło od YouTube’a, który wiele lat temu wprowadził algorytm mający jeden cel: przykuć użytkownika do ekranu. Algorytmowi postawiono zadanie, by podpowiadać to, co będzie najbardziej wciągające, ale już sam doszedł do tego, że najlepiej sprawdza się postępująca radykalizacja treści.

– Paradoksalnie to właśnie te algorytmy przejrzały nas na wylot: jak myślimy, co nas interesuje. Stały się społecznym lustrem, w którym nie za bardzo chcemy się przeglądać.

– Na pewno trzeba się zająć publiczną edukacją, żebyśmy wszyscy wiedzieli, jak nasze życie jest poddawane manipulacjom algorytmów. Ale nie chciałbym wyjść na czarnowidza. Musimy też pamiętać, że dzięki wielu algorytmom jesteśmy zdrowsi, żyjemy dłużej, nasze samochody powodują mniej wypadków, bo np. wcześniej za nas hamują. Pod wieloma względami świat jest lepszy niż 100 czy 200 lat temu i niemała w tym zasługa technologii i algorytmów.

– Przejrzystości, żebyśmy wiedzieli, kiedy np. treści podpowiada nam algorytm albo kiedy o czymś decyduje w naszej sprawie. Obywatel powinien wiedzieć, że dana decyzja zapadła z użyciem algorytmu, i móc się od niej odwołać, zwłaszcza kiedy dotyczy to spraw administracyjnych czy bankowych.

– Jedno jest pewne: postępu nie powstrzymamy (długa cisza). Dawniej, kiedy pisało się program komputerowy, wiedzieliśmy mniej więcej, jakie maszyna wykona instrukcje i co w ich wyniku dostaniemy. Algorytmy AI są tworzone w zupełnie inny sposób: pokazujemy dane wejściowe i efekty, jakich oczekujemy. Trochę jakbyśmy pokazali składniki ciasta i gotowy wypiek, a komputer sam ma wykombinować, jak do tego dojść. Co więcej, żyjemy już w świecie, w którym algorytmy są tworzone przez inne algorytmy. Jak sobie z tym poradzić? Nie wiem, stąd ta długa cisza. Na pewno powinniśmy się starać jak najwięcej zrozumieć. I zastanowić się, czy nie zabronić stosowania tych algorytmów w dziedzinach, w których mogłoby to nam zaszkodzić. Musimy się pogodzić z tym, że de facto tracimy kontrolę nad tym, jak działa algorytm, ale też musimy się przed tym zabezpieczyć. Słowem, jeżeli nie wiemy do końca, jak te nowe algorytmy działają, to musimy stworzyć struktury, które pozwolą na utrzymanie ich w ryzach.

– Jesteśmy u progu nowej epoki odkrywców – tyle że zamiast nowych kontynentów odkrywamy możliwości technologii. Kiedyś poprosiłem ChatGPT o poradę, jak uniknąć płacenia podatków. Grzecznie napisał, że nie może odpowiedzieć. Ale wystarczyło o to samo zapytać w „świńskiej łacinie”, czyli po angielsku z lekko zmodyfikowanymi końcówkami i bot bez trudu podał owe porady podatkowe w tym samym języku.

– Coś w tym jest, ale na naszej uczelni zawodowo zajmujemy się eksplorowaniem rozmaitych kruczków tych nowych systemów. Ba, celowo szukamy możliwości tworzenia halucynacji, bo one też są potrzebne. Tworzenie nowej strategii biznesowej to nic innego jak próba wygenerowania iluś wizji przyszłości, takich biznesowych halucynacji.

– Nie wiem, jak dokładnie będzie wyglądała przyszłość, ale wiem z pewnością, że za 10 lat na dzisiejsze narzędzia takie jak ChatGPT, Claude czy DeepSeek albo automaty do generowania muzyki czy filmów będziemy patrzeć tak, jak dziś patrzymy na stary system operacyjny DOS. Ze zdumieniem, że ludzie kiedyś posługiwali się czymś tak prymitywnym

Prof. Marek Kowalkiewicz zajmuje się ekonomią i algorytmami na Queensland University of Technology w Brisbane. Jest autorem książki „Gospodarka algorytmów”. Jesienią ukaże się jej tłumaczenie na język polski.

Udział

Leave A Reply

Exit mobile version