W tym tygodniu USA senatorowie wysłuchali alarmujących zeznań sugerujących, że niekontrolowana sztuczna inteligencja może kraść miejsca pracy, rozpowszechniać dezinformację i generalnie „posuwać się całkiem źle”, jak powiedział dyrektor generalny OpenAI, Sam Altman (cokolwiek to znaczy). On i kilku prawodawców zgodzili się, że Stany Zjednoczone mogą teraz potrzebować nowej agencji federalnej do nadzorowania rozwoju tej technologii. Ale podczas przesłuchania osiągnięto również porozumienie co do tego, że nikt nie chce ograniczać technologii, która mogłaby potencjalnie zwiększyć produktywność i dać Stanom Zjednoczonym prowadzenie w nowej rewolucji technologicznej.
Zaniepokojeni senatorowie mogą rozważyć rozmowę z Missy Cummings, byłą pilotką myśliwców oraz profesorem inżynierii i robotyki na Uniwersytecie George’a Masona. Studiuje wykorzystanie sztucznej inteligencji i automatyzacji w systemach krytycznych dla bezpieczeństwa, w tym w samochodach i samolotach, a na początku tego roku wróciła do środowiska akademickiego po pobycie w National Highway Traffic Safety Administration, która nadzoruje technologię motoryzacyjną, w tym autopilota Tesli i samochody samojezdne. Perspektywa Cummingsa może pomóc politykom i decydentom próbującym zważyć obietnicę bardzo rozreklamowanych nowych algorytmów z ryzykiem, które leży przed nimi.
Cummings powiedziała mi w tym tygodniu, że opuściła NHTSA z poczuciem głębokiego zaniepokojenia systemami autonomicznymi, które są wdrażane przez wielu producentów samochodów. „Mamy poważne kłopoty, jeśli chodzi o możliwości tych samochodów” — mówi Cummings. „Nie są nawet tak zdolni, jak ludzie myślą”.
Uderzyły mnie podobieństwa z ChatGPT i podobnymi chatbotami, które wzbudziły emocje i zaniepokojenie potęgą sztucznej inteligencji. Funkcje zautomatyzowanej jazdy istnieją już od dłuższego czasu, ale podobnie jak duże modele językowe opierają się na algorytmach uczenia maszynowego, które są z natury nieprzewidywalne, trudne do sprawdzenia i wymagają innego rodzaju myślenia inżynierskiego niż w przeszłości.
Podobnie jak ChatGPT, Autopilot Tesli i inne projekty autonomicznej jazdy zostały podniesione przez absurdalne ilości szumu. Szalone marzenia o rewolucji transportowej skłoniły producentów samochodów, start-upy i inwestorów do inwestowania ogromnych sum w rozwój i wdrażanie technologii, która wciąż ma wiele nierozwiązanych problemów. W połowie 2010 roku wokół autonomicznych samochodów istniało liberalne środowisko regulacyjne, a urzędnicy państwowi nie chcieli hamować technologii, która obiecywała być warta miliardy dla amerykańskich firm.
Po miliardach wydanych na technologię, samojezdne samochody nadal są nękane problemami, a niektóre firmy samochodowe wycofały się z dużych projektów autonomicznych. Tymczasem, jak mówi Cummings, opinia publiczna często nie jest pewna, jak naprawdę zdolna jest technologia półautonomiczna.
W pewnym sensie dobrze jest widzieć, jak rządy i ustawodawcy szybko sugerują regulacje dotyczące generatywnych narzędzi sztucznej inteligencji i dużych modeli językowych. Obecna panika koncentruje się na dużych modelach językowych i narzędziach, takich jak ChatGPT, które są niezwykle dobre w odpowiadaniu na pytania i rozwiązywaniu problemów, nawet jeśli nadal mają znaczące niedociągnięcia, w tym pewne fabrykowanie faktów.
Podczas przesłuchania w Senacie w tym tygodniu Altman z OpenAI, który dał nam ChatGPT, posunął się nawet do wezwania do wprowadzenia systemu licencjonowania, który kontrolowałby, czy firmy takie jak jego mogą pracować nad zaawansowaną sztuczną inteligencją. „Moją najgorszą obawą jest to, że my – dziedzina, technologia, przemysł – wyrządzimy światu znaczne szkody” – powiedział Altman podczas przesłuchania.