Za każdym razem ty opublikuj zdjęcie, odpowiedz w mediach społecznościowych, stwórz stronę internetową, a nawet wyślij e-mail, Twoje dane są zbierane, przechowywane i wykorzystywane do szkolenia technologii generatywnej sztucznej inteligencji, która może tworzyć tekst, dźwięk, wideo i obrazy za pomocą zaledwie kilku słów . Ma to realne konsekwencje: badacze OpenAI badający wpływ ich modeli językowych na rynek pracy oszacowali, że wprowadzenie dużych modeli językowych (LLM), takich jak ChatGPT, może mieć wpływ na co najmniej 10 procent zadań roboczych około 80 procent siły roboczej w USA, podczas gdy około 19 procent pracowników może zauważyć, że dotyczy to co najmniej połowy ich zadań. Obserwujemy również natychmiastowe zmiany na rynku pracy związane z generowaniem wizerunku. Innymi słowy, dane, które utworzyłeś, mogą pozbawić cię pracy.
Kiedy firma buduje swoją technologię w oparciu o zasób publiczny — Internet — rozsądne jest stwierdzenie, że technologia ta powinna być dostępna i otwarta dla wszystkich. Jednak krytycy zauważyli, że GPT-4 nie zawierał żadnych jasnych informacji ani specyfikacji, które umożliwiłyby komukolwiek spoza organizacji powielenie, przetestowanie lub zweryfikowanie dowolnego aspektu modelu. Niektóre z tych firm otrzymały ogromne sumy funduszy od innych dużych korporacji na tworzenie produktów komercyjnych. Dla niektórych członków społeczności sztucznej inteligencji jest to niebezpieczny znak, że firmy te będą dążyć do zysków przewyższających pożytek publiczny.
Sama przejrzystość kodu raczej nie zapewni, że te generatywne modele sztucznej inteligencji będą służyły dobru publicznemu. Nie można sobie wyobrazić natychmiastowych korzyści dla dziennikarza, analityka polityki lub księgowego (wszystkie zawody „wysoce narażone” zgodnie z badaniem OpenAI), jeśli dostępne są dane leżące u podstaw LLM. Coraz częściej mamy przepisy, takie jak ustawa o usługach cyfrowych, które wymagają, aby niektóre z tych firm otworzyły swój kod i dane do przeglądu biegłych rewidentów. Otwarty kod źródłowy może czasami umożliwiać złośliwym podmiotom, umożliwiając hakerom podważanie środków ostrożności, które firmy budują. Przejrzystość jest chwalebnym celem, ale sama w sobie nie zapewni wykorzystania generatywnej sztucznej inteligencji do lepszego społeczeństwa.
Aby naprawdę tworzyć pożytek publiczny, potrzebujemy mechanizmów odpowiedzialności. Świat potrzebuje generatywnego globalnego organu zarządzającego sztuczną inteligencją, aby rozwiązać te społeczne, gospodarcze i polityczne zakłócenia wykraczające poza to, do czego zdolny jest pojedynczy rząd, co może wdrożyć jakakolwiek grupa akademicka lub społeczeństwo obywatelskie lub jakakolwiek korporacja jest chętna lub zdolna zrobić. Istnieje już precedens globalnej współpracy firm i krajów w celu pociągnięcia ich do odpowiedzialności za wyniki technologiczne. Mamy przykłady niezależnych, dobrze finansowanych grup eksperckich i organizacji, które mogą podejmować decyzje w imieniu dobra publicznego. Istota taka jak ta ma za zadanie myśleć o korzyściach dla ludzkości. Oprzyjmy się na tych pomysłach, aby zająć się podstawowymi problemami, które już pojawiają się w generatywnej sztucznej inteligencji.
Na przykład w erze rozprzestrzeniania broni jądrowej po drugiej wojnie światowej istniała wiarygodna i znacząca obawa przed nieuczciwymi technologiami jądrowymi. Powszechne przekonanie, że społeczeństwo musi działać wspólnie, aby uniknąć globalnej katastrofy, odzwierciedla wiele dzisiejszych dyskusji na temat generatywnych modeli sztucznej inteligencji. W odpowiedzi kraje na całym świecie, kierowane przez Stany Zjednoczone i pod kierownictwem Organizacji Narodów Zjednoczonych, zebrały się w celu utworzenia Międzynarodowej Agencji Energii Atomowej (MAEA), niezależnego organu wolnego od rządów i powiązań korporacyjnych, który dostarczyłby rozwiązania sięgające rozgałęzień i pozornie nieskończonych możliwości technologii jądrowych. Działa w trzech głównych obszarach: energia jądrowa, bezpieczeństwo i ochrona jądrowa oraz zabezpieczenia. Na przykład po katastrofie w Fukushimie w 2011 r. zapewniła krytyczne zasoby, edukację, testy i raporty o wpływie, a także pomogła zapewnić ciągłe bezpieczeństwo jądrowe. Agencja jest jednak ograniczona: polega na dobrowolnym przestrzeganiu jej standardów i wytycznych przez państwa członkowskie oraz na ich współpracy i pomocy w wykonywaniu jej misji.
Jeśli chodzi o technologię, Rada Nadzorcza Facebooka to jedna robocza próba zrównoważenia przejrzystości z odpowiedzialnością. Członkowie Rady są interdyscyplinarną grupą globalną, a ich orzeczenia, takie jak uchylenie decyzji Facebooka o usunięciu posta przedstawiającego molestowanie seksualne w Indiach, są wiążące. Ten model też nie jest idealny; pojawiają się oskarżenia o przechwytywanie korporacji, ponieważ zarząd jest finansowany wyłącznie przez Meta, może rozpatrywać tylko sprawy, do których odnosi się sam Facebook, i ogranicza się do usuwania treści, zamiast zajmować się bardziej systemowymi problemami, takimi jak algorytmy lub zasady moderacji.