Ustawodawcy UE negocjują obecnie ustawę o sztucznej inteligencji, ale pełne zastosowanie przepisów może zająć nawet trzy lata.
Komisja Europejska i Google zobowiązały się do zawarcia dobrowolnego paktu na rzecz sztucznej inteligencji w celu ograniczenia najpoważniejszych zagrożeń związanych z tą szybko rozwijającą się technologią do czasu wprowadzenia odpowiednich przepisów.
Zobowiązanie zostało ogłoszone po tym, jak dyrektor generalny Google, Sundar Pichai, spotkał się z kilkoma komisarzami europejskimi podczas wizyty w Brukseli, gdzie temat sztucznej inteligencji zajmował ważne miejsce w rozmowach.
„Oczekujemy, że technologia w Europie będzie respektować wszystkie nasze zasady dotyczące ochrony danych, bezpieczeństwa w Internecie i sztucznej inteligencji. W Europie to nie jest kwestia wyboru” – powiedział w środę Thierry Breton, europejski komisarz ds. rynku wewnętrznego, według krótkiego odczytu.
„Sundar i ja zgodziliśmy się, że nie możemy sobie pozwolić na czekanie, aż regulacje dotyczące sztucznej inteligencji faktycznie zaczną obowiązywać, i współpracować ze wszystkimi programistami AI, aby już teraz opracować pakt AI na zasadzie dobrowolności przed terminem prawnym”.
Breton dodał, że dobrowolny pakt, którego szczegółowe szczegóły są nadal niejasne, obejmie „wszystkie główne” firmy działające w dziedzinie sztucznej inteligencji, zarówno z Europy, jak i spoza niej.
Google nie odpowiedział natychmiast na prośbę o komentarz.
Chociaż sztuczna inteligencja od dawna znajduje się na politycznym radarze Brukseli, eksplozja rynkowa ChatGPT, chatbota opracowanego przez OpenAI, wstrząsnęła debatą i umieściła tak zwane modele podstawowe pod lupą.
Modele podstawowe to modele wyszkolone z ogromnymi zasobami danych, takimi jak tekst, obrazy, muzyka, mowa i kod, w celu wykonywania stale rozszerzającego się zestawu zadań, a nie określonego, niemodyfikowalnego celu.
Chatboty, takie jak GPT OpenAI i Google Bard, to tylko niektóre z wczesnych przykładów tej technologii, która ma dalej ewoluować w nadchodzących latach.
Podczas gdy inwestorzy chętnie wskoczyli na chatboty, krytycy potępili ich niekontrolowany rozwój, podnosząc alarm w związku z uprzedzeniami, mową nienawiści, fałszywymi wiadomościami, propagandą państwową, podszywaniem się pod inne osoby, naruszeniami praw własności intelektualnej i zwolnieniami pracowników.
ChatGPT był tymczasowo zakazane we Włoszech po tym, jak władze wykryły obawy dotyczące prywatności danych.
Preludium do ustawy
W Brukseli rozpowszechniło się poczucie pilności w wyniku zjawiska chatbota.
Prawodawcy UE negocjują obecnie ustawę o sztucznej inteligencji, pierwszą na świecie próbę uregulowania tej technologii w oparciu o podejście skoncentrowane na człowieku, które dzieli systemy sztucznej inteligencji na cztery kategorie w zależności od ryzyka, jakie stwarzają dla społeczeństwa.
Ustawa została zaproponowana przez Komisję Europejską ponad dwa lata temu i jest nowelizowana aby odzwierciedlić najnowsze osiągnięcia, takie jak niezwykły wzrost liczby modeli podkładów.
Negocjacje między Parlamentem Europejskim a państwami członkowskimi mają zakończyć się przed końcem roku.
Prawo przewiduje jednak okres karencji, aby umożliwić firmom technologicznym dostosowanie się do nowych ram prawnych, co oznacza, że pełne zastosowanie ustawy w całej Unii może zająć nawet trzy lata.
Nowo ogłoszony pakt ma służyć jako preludium i wypełnić lukę legislacyjną, nawet jeśli jego dobrowolny charakter nieuchronnie ograniczy jego zasięg i skuteczność.
Przemawiając do posłów do Parlamentu Europejskiego po spotkaniu z Pichai, komisarz Breton bronił potrzeby posiadania pośredniego zbioru przepisów zawierającego „ogólne zarysy” ustawy o sztucznej inteligencji.
„Mam już wspólną wizję tego, co można wprowadzić w oczekiwaniu i co pozwoliłoby nam zapewnić pewne elementy ochrony” – powiedział Breton komisji parlamentarnej, odnosząc się do możliwości „etykietowania” systemów AI.
„Musimy poradzić sobie z pilną potrzebą, ale nie możemy też spowalniać innowacji, dlatego musimy znaleźć środki, właściwe środki, a także musimy być dość stanowczy co do pewnych elementów, które będą musiały być nadzorowane, i przewidywać do pewnego stopnia zakres skutków ustawy o AI”.
Plany Bretona kontrastowały z wypowiedziami Sama Altmana, prezesa OpenAI, który w środę powiedział Reuterowi o swojej firmie może rozważyć opuszczenie rynku europejskiego, gdyby nie spełniało wymogów ustawy o SI.
„Obecny projekt (ustawy) byłby nadmiernie regulowany, ale słyszeliśmy, że zostanie wycofany” – powiedział Altman Reuterowi. – Wciąż o tym mówią.