„Wiele nagłówków gazet mówiło, że uważam, że należy to teraz przerwać – a ja nigdy tego nie powiedziałem” — mówi. „Po pierwsze, nie wydaje mi się, żeby to było możliwe i myślę, że powinniśmy dalej to rozwijać, ponieważ może zdziałać wspaniałe rzeczy. Ale powinniśmy włożyć równy wysiłek w łagodzenie lub zapobieganie możliwym złym konsekwencjom”.
Hinton mówi, że nie opuścił Google, aby zaprotestować przeciwko traktowaniu tej nowej formy sztucznej inteligencji. W rzeczywistości, mówi, firma poruszała się stosunkowo ostrożnie, mimo że prowadziła w tym obszarze. Naukowcy z Google wynaleźli rodzaj sieci neuronowej znanej jako transformator, który był kluczowy dla rozwoju modeli takich jak PaLM i GPT-4.
W latach 80. Hinton, profesor na Uniwersytecie w Toronto, wraz z garstką innych badaczy, starał się zapewnić komputerom większą inteligencję, trenując sztuczne sieci neuronowe za pomocą danych, zamiast programować je w konwencjonalny sposób. Sieci mogły przetwarzać piksele jako dane wejściowe i, gdy widzieli więcej przykładów, dostosowywać wartości łączące ich z grubsza symulowane neurony, aż system mógł rozpoznać zawartość obrazu. Podejście to okazywało się obiecujące przez lata, ale dopiero dziesięć lat temu jego prawdziwa siła i potencjał stały się widoczne.
W 2018 roku Hinton otrzymał nagrodę Turinga, najbardziej prestiżową nagrodę w dziedzinie informatyki, za pracę nad sieciami neuronowymi. Otrzymał nagrodę wraz z dwoma innymi pionierami, Yannem LeCunem, głównym naukowcem Meta ds. sztucznej inteligencji, oraz Yoshua Bengio, profesorem na Uniwersytecie w Montrealu.
To wtedy nowa generacja wielowarstwowych sztucznych sieci neuronowych – karmionych dużą ilością danych treningowych i działających na potężnych chipach komputerowych – nagle okazała się znacznie lepsza niż jakikolwiek istniejący program w oznaczaniu zawartości zdjęć.
Technika ta, znana jako głębokie uczenie się, zapoczątkowała renesans sztucznej inteligencji, a firmy Big Tech spieszyły się z rekrutacją ekspertów AI, budowaniem coraz potężniejszych algorytmów głębokiego uczenia się i stosowaniem ich w produktach takich jak rozpoznawanie twarzy, tłumaczenie i rozpoznawanie mowy.
Google zatrudnił Hintona w 2013 r. po przejęciu jego firmy DNNResearch, założonej w celu komercjalizacji pomysłów jego uniwersyteckiego laboratorium do głębokiego uczenia się. Dwa lata później jeden z absolwentów Hintona, który również dołączył do Google, Ilya Sutskever, opuścił firmę wyszukującą, aby współtworzyć OpenAI jako niedochodową przeciwwagę dla potęgi gromadzonej przez firmy Big Tech w AI.
Od samego początku OpenAI koncentrowało się na zwiększaniu rozmiaru sieci neuronowych, ilości przetwarzanych przez nie danych oraz zużywanej przez nie mocy obliczeniowej. W 2019 roku firma zreorganizowała się jako korporacja nastawiona na zysk z inwestorami zewnętrznymi, a później przejęła od Microsoftu 10 miliardów dolarów. Opracowała serię uderzająco płynnych systemów generowania tekstu, ostatnio GPT-4, który napędza wersję premium ChatGPT i zadziwił naukowców swoją zdolnością do wykonywania zadań, które wydają się wymagać rozumowania i zdrowego rozsądku.
Hinton uważa, że mamy już technologię, która będzie destrukcyjna i destabilizująca. Wskazuje na ryzyko, podobnie jak inni, że bardziej zaawansowane algorytmy językowe będą w stanie prowadzić bardziej wyrafinowane kampanie dezinformacyjne i ingerować w wybory.