Ze swoim niesamowitym umiejętność prowadzenia rozmowy, odpowiadania na pytania i pisania spójnej prozy, poezji i kodu, chatbot ChatGPT zmusił wiele osób do ponownego przemyślenia potencjału sztucznej inteligencji.
Startup, który stworzył ChatGPT, OpenAI, ogłosił dziś długo oczekiwaną nową wersję modelu AI w jego rdzeniu.
Nowy algorytm, nazwany GPT-4, jest następcą GPT-3, przełomowego modelu generowania tekstu, który OpenAI ogłosił w 2020 r., a który został później dostosowany do stworzenia ChatGPT w zeszłym roku.
Nowy model osiąga lepsze wyniki w szeregu testów zaprojektowanych do pomiaru inteligencji i wiedzy u ludzi i maszyn, mówi OpenAI. Popełnia również mniej błędów i może reagować zarówno na obrazy, jak i tekst.
Jednak GPT-4 cierpi na te same problemy, które nękały ChatGPT i powodują, że niektórzy eksperci AI są sceptyczni co do jego przydatności – w tym tendencje do „halucynacji” nieprawidłowych informacji, przejawiania problematycznych uprzedzeń społecznych oraz niewłaściwego zachowania lub przyjmowania niepokojących postaci, gdy otrzymują „ kontradyktoryjność”.
„Chociaż poczynili duże postępy, najwyraźniej nie jest to godne zaufania”, mówi Oren Etzioni, emerytowany profesor na University of Washington i założyciel i dyrektor generalny Allen Institute for AI. „Minie dużo czasu, zanim jakikolwiek GPT będzie obsługiwał twoją elektrownię jądrową”.
OpenAI dostarczyło kilka wersji demonstracyjnych i danych z testów porównawczych, aby pokazać możliwości GPT-4. Nowy model może nie tylko pobić wynik egzaminu Uniform Bar Examination, który jest używany do kwalifikowania prawników w wielu stanach USA, ale także uzyskał wynik wśród 10 procent najlepszych wśród ludzi.
Uzyskuje również lepsze wyniki niż GPT-3 w innych egzaminach mających na celu sprawdzenie wiedzy i rozumowania z przedmiotów takich jak biologia, historia sztuki i rachunek różniczkowy. I dostaje lepsze oceny niż jakikolwiek inny model języka sztucznej inteligencji w testach zaprojektowanych przez informatyków w celu oceny postępów w takich algorytmach. „W pewnym sensie jest to bardziej to samo” — mówi Etzioni. „Ale to więcej tego samego w absolutnie oszałamiającej serii postępów”.
GPT-4 może również wykonywać zgrabne sztuczki znane wcześniej z GPT-3 i ChatGPT, takie jak streszczanie i sugerowanie edycji fragmentów tekstu. Może również robić rzeczy, których nie mogli robić jego poprzednicy, w tym działać jako nauczyciel sokratejski, który pomaga uczniom w uzyskaniu poprawnych odpowiedzi i omawianiu zawartości fotografii. Na przykład, jeśli dostarczysz zdjęcie składników na kuchennym blacie, GPT-4 może zasugerować odpowiedni przepis. Jeśli jest wyposażony w wykres, może wyjaśniać wnioski, jakie można z niego wyciągnąć.
„Zdecydowanie wydaje się, że zyskał pewne umiejętności”, mówi Vincent Conitzer, profesor CMU, który specjalizuje się w sztucznej inteligencji i który zaczął eksperymentować z nowym modelem językowym. Ale mówi, że nadal popełnia błędy, takie jak sugerowanie bezsensownych kierunków lub przedstawianie fałszywych dowodów matematycznych.
ChatGPT przykuł uwagę opinii publicznej dzięki niesamowitej możliwości rozwiązywania wielu złożonych pytań i zadań za pomocą łatwego w użyciu interfejsu konwersacyjnego. Chatbot nie rozumie świata tak jak ludzie i po prostu odpowiada słowami, które statystycznie przewiduje, że powinny następować po pytaniu.