Szereg projektów open source, takich jak LangChain i LLamaIndex, również bada sposoby budowania aplikacji przy użyciu możliwości zapewnianych przez duże modele językowe. Uruchomienie wtyczek OpenAI grozi storpedowaniem tych wysiłków, mówi Guo.
Wtyczki mogą również wprowadzać zagrożenia, które nękają złożone modele AI. Według Emily Bender, profesor lingwistyki na University of Washington, członkowie czerwonego zespołu ChatGPT odkryli, że mogą „wysyłać oszukańcze lub spamowe wiadomości e-mail, omijać ograniczenia bezpieczeństwa lub niewłaściwie wykorzystywać informacje wysyłane do wtyczki”. „Pozwolenie automatycznym systemom na działanie na świecie to wybór, którego dokonujemy” — dodaje Bender.
Dan Hendrycks, dyrektor Center for AI Safety, organizacji non-profit, uważa, że wtyczki sprawiają, że modele językowe są bardziej ryzykowne w czasach, gdy firmy takie jak Google, Microsoft i OpenAI agresywnie lobbują na rzecz ograniczenia odpowiedzialności za pomocą ustawy o sztucznej inteligencji. Nazywa wydanie wtyczek ChatGPT złym precedensem i podejrzewa, że może to skłonić innych twórców dużych modeli językowych do pójścia podobną drogą.
I chociaż obecnie wybór wtyczek może być ograniczony, konkurencja może skłonić OpenAI do rozszerzenia swojego wyboru. Hendrycks dostrzega różnicę między wtyczkami ChatGPT a wcześniejszymi wysiłkami firm technologicznych na rzecz rozwoju ekosystemów programistów wokół konwersacyjnej sztucznej inteligencji — takich jak asystent głosowy Alexa firmy Amazon.
GPT-4 może na przykład wykonywać polecenia Linuksa, a proces red teamingu GPT-4 wykazał, że model może wyjaśnić, jak tworzyć broń biologiczną, syntetyzować bomby lub kupować oprogramowanie ransomware w ciemnej sieci. Hendrycks podejrzewa, że rozszerzenia inspirowane wtyczkami ChatGPT mogą znacznie ułatwić zadania takie jak spear phishing lub e-maile phishingowe.
Przejście od generowania tekstu do podejmowania działań w imieniu osoby usuwa lukę powietrzną, która dotychczas uniemożliwiała modelom językowym podejmowanie działań. „Wiemy, że modele mogą zostać złamane po jailbreaku, a teraz podłączamy je do Internetu, aby potencjalnie mógł podjąć działania” — mówi Hendrycks. „Nie oznacza to, że ChatGPT z własnej woli zbuduje bomby lub coś w tym rodzaju, ale znacznie ułatwia robienie tego rodzaju rzeczy”.
Częścią problemu z wtyczkami do modeli językowych jest to, że mogą one ułatwić jailbreakowanie takich systemów, mówi Ali Alkhatib, pełniący obowiązki dyrektora Center for Applied Data Ethics na Uniwersytecie w San Francisco. Ponieważ wchodzisz w interakcje ze sztuczną inteligencją za pomocą języka naturalnego, istnieją potencjalnie miliony nieodkrytych luk w zabezpieczeniach. Alkhatib uważa, że wtyczki mają daleko idące implikacje w czasach, gdy firmy takie jak Microsoft i OpenAI mieszają opinię publiczną z niedawnymi twierdzeniami o postępach w kierunku sztucznej inteligencji ogólnej.
„Sprawy toczą się na tyle szybko, że są nie tylko niebezpieczne, ale wręcz szkodliwe dla wielu ludzi” — mówi, jednocześnie wyrażając zaniepokojenie, że firmy podekscytowane korzystaniem z nowych systemów sztucznej inteligencji mogą wprowadzać wtyczki do wrażliwych kontekstów, takich jak usługi doradcze.
Dodanie nowych możliwości do programów AI, takich jak ChatGPT, może mieć również niezamierzone konsekwencje, mówi Kanjun Qiu, dyrektor generalny General Intelligent, firmy zajmującej się sztuczną inteligencją, która pracuje nad agentami opartymi na sztucznej inteligencji. Chatbot może na przykład zarezerwować zbyt drogi lot lub zostać wykorzystany do dystrybucji spamu, a Qiu mówi, że będziemy musieli ustalić, kto byłby odpowiedzialny za takie niewłaściwe zachowanie.
Ale Qiu dodaje również, że użyteczność programów AI podłączonych do Internetu oznacza, że technologia jest nie do powstrzymania. „W ciągu najbliższych kilku miesięcy i lat możemy spodziewać się, że znaczna część Internetu zostanie połączona z dużymi modelami językowymi” — mówi Qiu.