ChatGPT ma duży problem z prywatnością

0
83

Kiedy wydano OpenAI GPT-3 w lipcu 2020 r. dał wgląd w dane używane do trenowania dużego modelu językowego. Miliony stron zeskrobanych z sieci, posty Reddit, książki i inne elementy są wykorzystywane do tworzenia generatywnego systemu tekstowego, zgodnie z artykułem technicznym. W tych danych zebrane są niektóre dane osobowe, które udostępniasz o sobie online. Te dane sprawiają teraz kłopoty OpenAI.

31 marca włoski organ nadzoru danych wydał tymczasową decyzję w trybie pilnym, żądając od OpenAI zaprzestania wykorzystywania danych osobowych milionów Włochów, które są zawarte w danych szkoleniowych. Według organu regulacyjnego, Garante per la Protezione dei Dati Personali, OpenAI nie ma prawa do wykorzystywania danych osobowych ludzi w ChatGPT. W odpowiedzi OpenAI uniemożliwiło ludziom we Włoszech dostęp do swojego chatbota, jednocześnie udzielając odpowiedzi urzędnikom, którzy prowadzą dalsze dochodzenie.

Akcja jest pierwszą podjętą przeciwko ChatGPT przez zachodni regulator i podkreśla napięcia w zakresie prywatności związane z tworzeniem gigantycznych generatywnych modeli sztucznej inteligencji, które często są szkolone na ogromnych obszarach danych internetowych. Tak jak artyści i firmy medialne skarżyły się, że programiści generatywnej sztucznej inteligencji wykorzystali ich pracę bez pozwolenia, regulator danych mówi teraz to samo o danych osobowych ludzi.

Podobne decyzje mogą zapaść w całej Europie. W dniach, w których Włochy ogłosiły swoją sondę, organy regulacyjne we Francji, Niemczech i Irlandii skontaktowały się z Garante, prosząc o więcej informacji na temat jej ustaleń. „Jeśli model biznesowy polegał tylko na przeczesywaniu internetu w celu znalezienia wszystkiego, co można znaleźć, może to być naprawdę poważny problem”, mówi Tobias Judin, szef międzynarodowego organu ds. ochrony danych w Norwegii, który monitoruje rozwój sytuacji. Judin dodaje, że jeśli model jest zbudowany na danych, które mogą być gromadzone niezgodnie z prawem, rodzi to pytania o to, czy ktokolwiek może legalnie korzystać z tych narzędzi.

Cios Włoch w OpenAI pojawia się również, gdy kontrola dużych modeli AI stale rośnie. 29 marca liderzy technologiczni wezwali do wstrzymania rozwoju systemów takich jak ChatGPT, obawiając się ich przyszłych implikacji. Judin mówi, że włoska decyzja podkreśla bardziej pilne obawy. „Zasadniczo widzimy, że dotychczasowy rozwój sztucznej inteligencji może potencjalnie mieć ogromne wady” — mówi Judin.

Włoska robota

Europejskie przepisy RODO, które obejmują sposób, w jaki organizacje zbierają, przechowują i wykorzystują dane osobowe ludzi, chronią dane ponad 400 milionów ludzi na całym kontynencie. Tymi danymi osobowymi może być wszystko, od imienia i nazwiska osoby po jej adres IP — jeśli można ich użyć do zidentyfikowania kogoś, można je traktować jako dane osobowe. W przeciwieństwie do mozaiki przepisów dotyczących prywatności na szczeblu stanowym w Stanach Zjednoczonych, ochrona RODO ma zastosowanie, jeśli informacje o ludziach są swobodnie dostępne w Internecie. Krótko mówiąc: tylko dlatego, że czyjeś informacje są publiczne, nie oznacza, że ​​możesz je odkurzyć i zrobić z nimi, co chcesz.

Włoski Garante uważa, że ​​ChatGPT ma cztery problemy wynikające z RODO: OpenAI nie ma kontroli wieku, aby uniemożliwić osobom poniżej 13 roku życia korzystanie z systemu generowania tekstu; może dostarczać informacji o osobach, które nie są dokładne; a ludzie nie zostali poinformowani, że ich dane zostały zebrane. Co być może najważniejsze, czwarty argument twierdzi, że nie ma „podstawy prawnej” do gromadzenia danych osobowych ludzi w ogromnych ilościach danych używanych do szkolenia ChatGPT.

„Włosi sprawdzili swój blef” — mówi Lilian Edwards, profesor prawa, innowacji i społeczeństwa na Uniwersytecie w Newcastle w Wielkiej Brytanii. „W UE wydawało się dość oczywiste, że było to naruszenie prawa o ochronie danych”.

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj