API ChatGPT jest tutaj. Niech rozpocznie się gorączka złota AI

0
92

Kiedy OpenAI, Firma z San Francisco rozwijająca narzędzia sztucznej inteligencji ogłosiła wydanie ChatGPT w listopadzie 2022 r., były pracownik Facebooka i Oculusa, Daniel Habib, posunął się szybko.

W ciągu czterech dni od uruchomienia ChatGPT Habib użył chatbota do zbudowania sztucznej inteligencji QuickVid, która automatyzuje większość procesu twórczego związanego z generowaniem pomysłów na filmy na YouTube. Twórcy wprowadzają szczegółowe informacje na temat tematu swojego filmu i kategorii, w której chcieliby, aby znalazł się, a następnie QuickVid przesłuchuje ChatGPT w celu utworzenia skryptu. Inne generatywne narzędzia sztucznej inteligencji nadają następnie głos skryptowi i tworzą wizualizacje.

Dziesiątki tysięcy użytkowników korzystało z niego codziennie— ale Habib korzystał z nieoficjalnych punktów dostępu do ChatGPT, co ograniczało zakres promocji usługi i oznaczało, że nie mógł za nią oficjalnie pobierać opłat. Zmieniło się to 1 marca, kiedy OpenAI ogłosił udostępnienie dostępu API do ChatGPT i Whisper, opracowanej przez firmę sztucznej inteligencji do rozpoznawania mowy. W ciągu godziny Habib połączył QuickVid z oficjalnym API ChatGPT.

„Wszystkie te nieoficjalne narzędzia, które w zasadzie były tylko zabawkami, które żyły w twojej osobistej piaskownicy i były fajne, mogą teraz trafić do ton użytkowników” — mówi.

Ogłoszenie OpenAI może być początkiem nowej gorączki złota AI. To, co wcześniej było chałupniczym przemysłem hobbystów działających w szarej strefie licencjonowania, może teraz przekształcić ich majsterkowanie w pełnoprawne biznesy.

„To wydanie oznacza dla firm, że dodawanie funkcji sztucznej inteligencji do aplikacji jest znacznie bardziej dostępne i niedrogie”, mówi Hassan El Mghari, który prowadzi TwitterBio, który wykorzystuje moc obliczeniową ChatGPT do generowania tekstu profilu na Twitterze dla użytkowników.

OpenAI zmieniło również swoją politykę przechowywania danych, co może uspokoić firmy myślące o eksperymentowaniu z ChatGPT. Firma powiedziała, że ​​będzie teraz przechowywać dane użytkowników tylko przez 30 dni i obiecała, że ​​nie będzie wykorzystywać danych wprowadzanych przez użytkowników do trenowania swoich modeli.

Zdaniem Davida Fostera, partnera w Applied Data Science Partners, firmie konsultingowej zajmującej się badaniem danych i sztuczną inteligencją z siedzibą w Londynie, będzie to „kluczowe” dla skłonienia firm do korzystania z API.

Foster uważa, że ​​obawy, że dane osobowe klientów lub krytyczne dane biznesowe mogą zostać wchłonięte przez modele szkoleniowe ChatGPT, uniemożliwiały im dotychczas przyjęcie tego narzędzia. „Wykazuje to duże zaangażowanie OpenAI w zasadzie:„ Słuchaj, możesz tego teraz używać, bez ryzyka dla swojej firmy. W tym ogólnym modelu nie znajdziesz danych swojej firmy” — mówi.

Według Fostera ta zmiana polityki oznacza, że ​​firmy mogą poczuć kontrolę nad swoimi danymi, zamiast ufać stronie trzeciej — OpenAI — w zarządzaniu tym, gdzie się one znajdują i jak są wykorzystywane. „Budowałeś to skutecznie na czyjejś architekturze, zgodnie z czyjąś polityką wykorzystania danych” — mówi.

To, w połączeniu ze spadającą ceną dostępu do dużych modeli językowych, oznacza, że ​​w najbliższej przyszłości prawdopodobnie nastąpi rozpowszechnienie chatbotów AI.

Dostęp API do ChatGPT (lub bardziej oficjalnie, tego, co OpenAI nazywa GPT3.5) jest 10 razy tańszy niż dostęp do słabszego API GPT3 OpenAI, które zostało uruchomione w czerwcu 2020 r. i które może generować przekonujący język po wyświetleniu monitu, ale nie miał taką samą siłę konwersacji jak ChatGPT.

„Jest znacznie tańszy i znacznie szybszy” — mówi Alex Volkov, założyciel tłumacza języka Targum dla filmów, który został nieoficjalnie zbudowany na bazie ChatGPT podczas hackathonu w grudniu 2022 roku. „To się zwykle nie zdarza. W świecie API zwykle ceny rosną”.

To może zmienić ekonomię sztucznej inteligencji dla wielu firm i może wywołać nowy przypływ innowacji.

„To niesamowity czas na bycie założycielem” — mówi Habib z QuickVid. „Ze względu na to, jak tania jest i jak łatwa jest integracja, każda aplikacja będzie miała jakiś interfejs czatu lub LLM [large language model] integracja… Ludzie będą musieli bardzo przyzwyczaić się do rozmawiania ze sztuczną inteligencją”.

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj