Innym problemem związanym z systemem takim jak ChatGPT jest to, że jego odpowiedzi są oparte tylko na danych, na których został przeszkolony. Ponowne uczenie modelu w całości może kosztować miliony dolarów ze względu na jego rozmiar i skalę danych. You Chat jest zdezorientowany, gdy pyta o najnowsze wyniki sportowe, ale wie, jaka jest obecnie pogoda w Nowym Jorku. Socher nie chce ujawniać, w jaki sposób uwzględniane są aktualne informacje, widząc w tym przewagę konkurencyjną.
„Myślę, że w tej chwili wiele z tych interfejsów czatu jest pod pewnymi względami znacznie lepsze od wyszukiwania, ale pod innymi są wyraźnie znacznie gorsze” — mówi Socher. „Pracujemy nad ograniczeniem wszystkich tych problemów”.
Aravind Srinivas, założyciel i dyrektor generalny start-upu wyszukiwania Perplexity AI, który wcześniej pracował w OpenAI, mówi, że wyzwanie związane z aktualizacją systemu podobnego do ChatGPT o najnowsze informacje oznacza, że trzeba je połączyć z czymś innym. „Pojedynczo nigdy nie będą w stanie być dobrymi wyszukiwarkami” — mówi.
Saam Motamedi, inwestor venture capital w Greylock Partners, który zainwestował w Neeva, firmę wyszukującą opartą na sztucznej inteligencji, mówi również, że nie jest jasne, w jaki sposób interfejsy czatu są kompatybilne z głównym modelem przychodów wyszukiwarek – reklamą. Google i Bing używają wyszukiwanych haseł do wybierania reklam, które pojawiają się na górze listy linków wyświetlanych w odpowiedzi. Motamedi podejrzewa, że mogą pojawić się nowe formy reklamy, aby interfejsy wyszukiwania w stylu czatu były opłacalne, ale nie jest do końca jasne, jakie to będą. Neeva pobiera opłatę abonamentową za nieograniczone wyszukiwania bez reklam.
Problematyczny może okazać się również koszt prowadzenia modelu takiego jak ChatGPT na skalę Google. Luis Ceze, współzałożyciel i dyrektor generalny OctoML, firmy, która pomaga firmom obniżyć koszty wdrażania algorytmów uczenia maszynowego, szacuje, że wyszukiwanie w ChatGPT może być 10 razy droższe niż wyszukiwanie w Google, ponieważ każda odpowiedź wymaga przeprowadzenia dużej i złożony model AI.
Skala manii ChatGPT zaskoczyła niektórych programistów i badaczy sztucznej inteligencji zaznajomionych z podstawową technologią. Algorytm będący rdzeniem bota, nazwany GPT, został po raz pierwszy opracowany przez OpenAI w 2018 r., a mocniejsza wersja, GPT-2, została ujawniona w 2019 r. Jest to model uczenia maszynowego zaprojektowany do pobierania tekstu, a następnie przewidywania, co jest następny, który, jak pokazał OpenAI, może imponująco działać, jeśli zostanie przeszkolony z ogromnymi ilościami tekstu. Pierwsza komercyjna wersja tej technologii, GPT-3, jest dostępna dla programistów od czerwca 2020 r. i może osiągnąć wiele rzeczy, za które ostatnio chwalono ChatGPT.
ChatGPT wykorzystuje ulepszoną wersję podstawowego algorytmu, ale największy skok w jego możliwościach pochodzi z OpenAI, w którym ludzie przekazują systemowi informacje zwrotne na temat tego, co stanowi satysfakcjonującą odpowiedź. Ale podobnie jak wcześniejsze systemy generowania tekstu, ChatGPT nadal jest podatny na powielanie błędów z danych treningowych, a także „halucynacje” wiarygodnych, ale niepoprawnych wyników.
Gary Marcus, emerytowany profesor na Uniwersytecie Nowojorskim i głośny krytyk szumu związanego ze sztuczną inteligencją, uważa, że ChatGPT nie nadaje się do wyszukiwania, ponieważ nie ma prawdziwego zrozumienia tego, co mówi. Dodaje, że narzędzia takie jak ChatGPT mogą powodować inne problemy dla firm wyszukujących, zalewając Internet tekstem generowanym przez sztuczną inteligencję i zoptymalizowanym pod kątem wyszukiwarek. „Wszystkie wyszukiwarki będą miały problem” — mówi.
Alex Ratner, adiunkt na Uniwersytecie Waszyngtońskim i współzałożyciel Snorkel AI, który pracuje nad wydajniejszym szkoleniem modeli AI, nazywa ChatGPT „legalną odmianą” tego, co może zrobić oprogramowanie. Ale mówi też, że wymyślenie, jak zapobiec zmyślaniu modeli językowych, takich jak GPT, może zająć trochę czasu. Uważa on, że znalezienie sposobu na to, aby byli na bieżąco z nowymi informacjami, aby zapewnić aktualność wyszukiwania, najprawdopodobniej będzie wymagało nowego podejścia do szkolenia podstawowych modeli sztucznej inteligencji.
Nie jest jasne, ile czasu zajmie wynalezienie i udowodnienie tych poprawek. Może minąć trochę czasu, zanim technologia radykalnie zmieni sposób, w jaki ludzie szukają odpowiedzi, nawet jeśli pojawią się inne przypadki użycia, takie jak wymyślanie nowych przepisów lub pomoc w nauce lub programowaniu. „To niesamowite i powiedziałem mojemu zespołowi, że ludzie zobaczą lata przed i po ChatGPT”, mówi Chen z Moveworks. „Ale to, czy zastąpi wyszukiwanie, to inna kwestia”.