W ubiegłym tygodniu Center for Humane Technology wezwało ponad 100 liderów w finansach, filantropii, przemyśle, rządzie i mediach do Kissinger Room w Paley Center for Media w Nowym Jorku, aby wysłuchali, jak sztuczna inteligencja może zniszczyć ludzkość. Dwóch mówców, Tristan Harris i Aza Raskin, rozpoczęło swoją prezentację o zagładzie od slajdu to czytać: „Czym atomówki są dla świata fizycznego… AI jest dla wszystkiego innego”.
Powiedziano nam, że to spotkanie było historyczne i będziemy o nim pamiętać w nadchodzących latach, ponieważ prawdopodobnie czterech jeźdźców apokalipsy w przebraniu chatbotów Bing zstąpi, by zastąpić naszą inteligencję własną. Przywodził na myśl scenę ze starych filmów science fiction — lub nowszą farsę Nie patrz w górę— gdzie naukowcy odkrywają zagrożenie i próbują potrząsnąć drzemiącą populacją za ramiona, aby to wyjaśnić to śmiertelne zagrożenie zmierza prosto do nas i zginiemy, jeśli czegoś nie zrobicie TERAZ.
Przynajmniej tak wydaje się, że Harris i Raskin doszli do wniosku po tym, jak według ich relacji niektórzy ludzie pracujący w firmach rozwijających sztuczną inteligencję zwrócili się do Centrum z obawami, że tworzone przez nich produkty są fenomenalnie niebezpieczne, mówiąc, że do zapobieżenia katastrofie potrzebna jest siła zewnętrzna. Współzałożyciele Centrum wielokrotnie cytowali statystyki z ankiety, z której wynika, że połowa naukowców zajmujących się sztuczną inteligencją uważa, że istnieje co najmniej 10 procent szans, że sztuczna inteligencja doprowadzi ludzi do wyginięcia.
W tej chwili szumu i niepewności związanej ze sztuczną inteligencją Harris i Raskin rozbijają szybę i wszczynają alarm. To nie pierwszy raz, kiedy włączają syreny. Projektanci technologii, którzy stali się medialnymi komunikatorami, współtworzyli Centrum, aby informować świat, że media społecznościowe stanowią zagrożenie dla społeczeństwa. Ostatecznym wyrazem ich obaw było zaangażowanie w popularny film dokumentalny Netflix smar horror pt Dylemat społeczny. Chociaż film jest pozbawiony niuansów i nieco histeryczny, zgadzam się z wieloma jego skargami na przyciąganie uwagi mediów społecznościowych, zachęty do dzielenia nas i wykorzystywanie prywatnych danych jako broni. Zostały one przedstawione za pomocą wywiadów, statystyk i wykresów. Ale doktor storpedował własną wiarygodność, przechodząc do nagłośnionej fikcyjnej narracji prosto z Lodowe szaleństwopokazujący, jak (zmyślona) zdrowa rodzina z centrum miasta zostaje doprowadzona do ruiny – jedno dziecko zradykalizowane i uwięzione, inne w depresji – przez posty na Facebooku.
Ta jednostronność charakteryzuje również nową kampanię Centrum, zgadnij co, Dylemat AI. (Centrum jest nieufne co do tego, czy trwają prace nad kolejnym dokumentem Netflix). Podobnie jak w przypadku poprzedniego dylematu, wiele punktów przedstawionych przez Harrisa i Raskina jest uzasadnionych — na przykład nasza obecna niezdolność do pełnego zrozumienia, w jaki sposób boty, takie jak ChatGPT, wytwarzają swoje dane wyjściowe. Dali również ładne podsumowanie tego, jak sztuczna inteligencja tak szybko stała się wystarczająco potężna, aby odrabiać lekcje, zasilać wyszukiwanie Bing i wyrażać miłość do New York Times felietonista Kevin Roose, między innymi.
Nie chcę całkowicie odrzucić najgorszego scenariusza, na który powołują się Harris i Raskin. Ta alarmująca statystyka dotycząca ekspertów od sztucznej inteligencji, którzy wierzą, że ich technologia może zabić nas wszystkich, faktycznie się sprawdza. W sierpniu 2022 roku organizacja tzw Wpływ AI skontaktował się z 4271 osobami, które były autorami lub współautorami artykułów przedstawionych na dwóch konferencjach AI i poprosił je o wypełnienie ankiety. Tylko około 738 odpowiedziało, a niektóre wyniki są nieco sprzeczne, ale z pewnością 48 procent respondentów widziało co najmniej 10 procent szans na wyjątkowo zły wynik, a mianowicie wyginięcie człowieka. Powinienem wspomnieć, że AI Impacts jest częściowo wspierany przez Center for Effective Altruism i inne organizacje, które wykazały zainteresowanie odległymi scenariuszami AI. W każdym razie w ankiecie nie zapytano autorów, dlaczego, jeśli uważają, że katastrofa jest możliwa, piszą artykuły, aby rozwinąć tę rzekomo destrukcyjną naukę.