W Nagłym alarmie, Tech Doyens wzywają do przerwy na ChatGPT

0
67

Jakiś list otwarty podpisany przez setki wybitnych ekspertów w dziedzinie sztucznej inteligencji, przedsiębiorców technologicznych i naukowców wzywa do wstrzymania rozwoju i testowania technologii sztucznej inteligencji potężniejszych niż model językowy OpenAI GPT-4, aby można było odpowiednio zbadać ryzyko, jakie może stwarzać.

Ostrzega, że ​​modele językowe, takie jak GPT-4, mogą już konkurować z ludźmi w coraz większej liczbie zadań i mogą być wykorzystywane do automatyzacji zadań i rozpowszechniania dezinformacji. List porusza również odległą perspektywę systemów sztucznej inteligencji, które mogłyby zastąpić ludzi i przerobić cywilizację.

„Wzywamy wszystkie laboratoria sztucznej inteligencji do natychmiastowego wstrzymania na co najmniej 6 miesięcy szkolenia systemów sztucznej inteligencji potężniejszych niż GPT-4 (w tym obecnie szkolonego GPT-5)”, czytamy w liście, którego sygnatariuszami są Yoshua Bengio, profesor Uniwersytetu w Montrealu uważany za pioniera współczesnej sztucznej inteligencji, historyk Yuval Noah Harari, współzałożyciel Skype’a Jaan Tallinn i CEO Twittera Elon Musk.

List, który został napisany przez Future of Life Institute, organizację zajmującą się zagrożeniami technologicznymi dla ludzkości, dodaje, że przerwa powinna być „publiczna i weryfikowalna” i powinna obejmować wszystkich pracujących nad zaawansowanymi modelami sztucznej inteligencji, takimi jak GPT-4. Nie sugeruje, w jaki sposób można zweryfikować zatrzymanie rozwoju, ale dodaje, że „jeśli taka przerwa nie może zostać szybko uchwalona, ​​rządy powinny wkroczyć i wprowadzić moratorium”, co wydaje się mało prawdopodobne w ciągu sześciu miesięcy.

Microsoft i Google nie odpowiedziały na prośby o komentarz do listu. Wśród sygnatariuszy najwyraźniej są ludzie z wielu firm technologicznych, które budują zaawansowane modele językowe, w tym Microsoft i Google. Hannah Wong, rzeczniczka OpenAI, mówi, że firma spędziła ponad sześć miesięcy pracując nad bezpieczeństwem i wyrównaniem GPT-4 po wyszkoleniu modelu. Dodaje, że OpenAI nie trenuje obecnie GPT-5.

List pojawia się, gdy systemy sztucznej inteligencji dokonują coraz śmielszych i imponujących skoków. GPT-4 został ogłoszony zaledwie dwa tygodnie temu, ale jego możliwości wzbudziły znaczny entuzjazm i spore obawy. Model językowy, który jest dostępny za pośrednictwem ChatGPT, popularnego chatbota OpenAI, osiąga wysokie wyniki w wielu testach akademickich i może poprawnie rozwiązywać trudne pytania, które, jak się powszechnie uważa, wymagają bardziej zaawansowanej inteligencji niż wcześniej wykazały systemy AI. Jednak GPT-4 popełnia również wiele trywialnych, logicznych błędów. I, podobnie jak jego poprzednicy, czasami „ma halucynacje” nieprawidłowe informacje, zdradza zakorzenione uprzedzenia społeczne i może zostać nakłoniony do powiedzenia nienawistnych lub potencjalnie szkodliwych rzeczy.

Częścią zaniepokojenia wyrażonego przez sygnatariuszy listu jest to, że OpenAI, Microsoft i Google rozpoczęły wyścig nastawiony na zysk, aby jak najszybciej opracować i udostępnić nowe modele AI. W takim tempie, argumentuje list, zmiany zachodzą szybciej, niż społeczeństwo i organy regulacyjne mogą się z tym pogodzić.

Tempo zmian – i skala inwestycji – jest znaczące. Microsoft zainwestował 10 miliardów dolarów w OpenAI i wykorzystuje swoją sztuczną inteligencję w swojej wyszukiwarce Bing, a także w innych aplikacjach. Chociaż Google opracowało część sztucznej inteligencji potrzebnej do zbudowania GPT-4, a wcześniej stworzyło własne potężne modele językowe, do tego roku zdecydowało się ich nie udostępniać ze względów etycznych.

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj