Głos to część naszego wizerunku. Nie można go skopiować i wykorzystywać komercyjnie bez naszej zgody, nawet jeśli technologia sprawia, że to dziecinnie proste — tłumaczą prawnicy.
- Więcej ciekawych historii przeczytasz na stronie głównej „Newsweeka”
Dziękujemy, że jesteś z nami!
Foto: Newsweek
Newsweek: Czym właściwie jest głos z punktu widzenia prawa?
Mec. Wiktoria Stasiewicz*: Nie ma przepisów odnoszących się bezpośrednio do głosu, ale są przepisy mówiące o ochronie wizerunku w ramach ochrony dóbr osobistych. W przepisach prawa autorskiego mamy dość dokładną regulację, kiedy można wykorzystać czyjś wizerunek bez zgody, a kiedy nie. W doktrynie prawa głos traktowany jest zazwyczaj jako część wizerunku, więc podlega prawnej ochronie.
Rozmawiamy o głosie nie przypadkiem. Jeden z polskich lektorów, Jarosław Łukomski, usłyszał własny głos w reklamie szamb, choć nigdy takiej reklamy nie nagrywał. Producent skorzystał z możliwości, jakie daje technologia: za pomocą AI da się „sklonować” dowolny głos, wystarczy odpowiednia ilość nagrań. Tych nie brakuje, bo pan Jarosław jest lektorem filmowym od lat 80. I to państwa kancelaria w jego imieniu pozwała spółkę, która posłużyła się w reklamie jego głosem.
W.S.: Sprawa trwa już od maja, a pozew złożyliśmy dopiero niedawno, kiedy producent szamb odrzucił propozycje ugody. Warto przy tym zaznaczyć, że pan Jarosław Łukomski nie odżegnuje się od technologii. Jest jednym z lektorów, którzy powierzyli swój głos firmie Mikrofonika. Ona ma się zajmować udostępnianiem tych głosów firmom i instytucjom chętnym, by wykorzystać je w reklamie. Ale właściciel głosu ma nad tym pełną kontrolę. Może się na reklamę nie zgodzić. No i zawczasu pozna stawkę, jaką otrzyma za takie nagranie.
Podobną umowę rok temu wynegocjował największy związek aktorski w Hollywood SAG-AFTRA z Narrativ, czyli podobnym pośrednikiem dla agencji reklamowych. To pokłosie wcześniejszego strajku scenarzystów i aktorów w Hollywood, którego jednym z istotnych motywów była obawa, że studia produkcyjne i big techy wykorzystają AI do zastępowania m.in. scenarzystów i aktorów.
W.S.: Na bazie ustawy o prawie autorskim każdemu twórcy przysługuje prawo do kontroli, w jaki sposób komercyjnie będzie wykorzystywany jego wizerunek. Nic dziwnego, że w Hollywood wraz z błyskawicznym rozwojem AI doszło do protestu — w USA silnie chronione jest right of publicity.
Wciąż jednak mówimy o osobach publicznych: o lektorze, aktorach. A co z ludźmi spoza świecznika? Im też przysługują takie prawa?
W.S.: Jeśli chodzi o ochronę wizerunku, a nawet prawa do prywatności, to wręcz jeszcze większe niż osobom publicznym. Od nich oczekuje się nieco grubszej skóry…
… bo zwykle świadomie wchodzą w taką rolę: zostają aktorami czy politykami?
W.S.: Tak, muszą mieć większą odporność na wykorzystanie wizerunku bez ich zgody. Tym bardziej że w grę wchodzi też prawo do informacji: media muszą pokazywać, co robi dany polityk, o ile ma to związek z pełnioną przez niego funkcją. Podobnie jest też z aktorami czy celebrytami.
Ale mówimy o relacjonowaniu wydarzeń, które rzeczywiście miały miejsce, a nie o tworzeniu deepfake’owych filmików z udziałem gwiazd czy polityków.
W.S.: Oczywiście, choć trzeba pamiętać o innym wyjątku związanym z satyrą i karykaturą. To także element wolności słowa. Filmik satyryczny z udziałem polityka powinien być dopuszczalny.
O ile autorzy czy dystrybutorzy wyraźnie zaznaczą, że to satyra, a nie prawdziwe nagranie?
W.S.: Naturalnie. Choć takie prawo do krytyki i satyry też ma swoje granice i nie oznacza, że z wizerunkiem polityka czy celebryty można zrobić wszystko. Nowe regulacje z AI Act szczegółowo regulują oznaczanie deep fake’ów.
Czego nie można?
W.S.: Nie można eksploatować wizerunku komercyjnie. Czyli jeśli ktoś bez zgody użyje nagrania z politykiem albo celebrytą do reklamy własnego produktu, łamie przepisy kodeksu cywilnego i prawa autorskiego. I to właśnie jest przypadek pana Jarosława Łukomskiego.
Z tego, co słyszałem, to pierwszy taki pozew o uznanie głosu za część wizerunku, której nie da się bezkarnie komuś zabrać?
W.S.: Nowy jest tu aspekt technologiczny. Bo spraw o eksploatację głosu jako części wizerunku kilka już było, ale w żadnej nie mieliśmy do czynienia z klonowaniem głosu za pomocą AI.
Technologia ma znaczenie, bo wcześniej, żeby posłużyć się czyimś głosem, musieliśmy mieć nagranie, na którym ów ktoś rzeczywiście powiedział dane słowa, albo trzeba było je umiejętnie zmontować, ale jest zawsze ryzyko, że wprawne ucho rozpozna cięcia. Dziś mamy technologię, która potrafi stworzyć wiarygodne nagrania zdań, których nigdy nie wypowiedzieliśmy.
W.S.: I dlatego z punktu widzenia prawa możemy dyskutować, czy mówimy o powieleniu głosu, bo przecież nie było takiego nagrania, czy raczej o stworzeniu cyfrowego modelu danej osoby, który posłużył do wygenerowania nagrania. Stąd pojęcie „klonowania głosu”. Mamy ułatwione zadanie, bo głos pana Jarosława jest charakterystyczny, nie do pomylenia. W przypadku mniej znanego głosu pewnie konieczne byłyby dokładniejsze ekspertyzy.
Tomasz Ejtminowicz*: Ale nawet gdyby użyto głosu tylko podobnego, to i tak można by mówić o pasożytnictwie rynkowym zabronionym przez ustawę o zwalczaniu nieuczciwej konkurencji.
Czy poza twarzą i głosem jeszcze jest w nas coś jeszcze na tyle niepowtarzalnego, że da się to obwarować przepisami?
W.S.: Wizerunek prawnie rozumiany jest znacznie szerzej, niżby się nam wydawało. Intuicyjnie może nam się wydawać, że wizerunek to zdjęcie naszej twarzy czy całej sylwetki. Ale głos też może być jego częścią. Albo np. charakterystyczne tatuaże — jeśli powstanie zdjęcie naszej ręki z takimi tatuażami i na tej podstawie ktoś może nas rozpoznać, to mówimy o rozpowszechnianiu czyjegoś wizerunku.
T.E.: Nie zapominajmy o masce artystycznej. Kiedyś był taki casus z Genowefą Pigwą, czyli postacią odgrywaną przez satyryka Bronisława Opałkę. W pewnym momencie w Genowefę Pigwę równolegle zaczął się wcielać inny komik, Jacek Pietrzak — sam Opałko twierdził, że Pietrzak „psuje mu rynek”. A maska artystyczna, czyli wizerunek Genowefy Pigwy stworzony przez Opałkę, podlega ochronie prawnej, więc sąd przyznał mu rację.
A to, jak się poruszamy? Wyobrażam sobie, że wybitni tancerze mogliby mieć chrapkę na coś takiego. Czy ruch ciała też można chronić prawnie?
W.S.: Rasowy prawnik odpowie: to zależy. Wyobrażam sobie, że ktoś ubierze się jak Michael Jackson i w reklamie zatańczy moonwalk. Jeśli podszyłby się bardzo wiarygodnie, pewnie można by sobie wyobrazić podstawę do roszczeń, bo moonwalk to krok, z którego słynął Jackson.
T.E.: Ale są też przypadki, kiedy producenci reklam dają do zrozumienia, że uciekają się do parodii i pastiszu. Jak w reklamie dyktafonów po aferze Rywina („lwia oferta”), w której puszczano oko, że to sprzęt, który nie zawiedzie w takich sytuacjach. Prawo nie jest zero-jedynkowe, ale punktem odniesienia jest wprowadzanie odbiorcy w błąd co do rzeczywistego pochodzenia przekazu. Jeżeli odbiorca myśli, że ma do czynienia z rzeczywistym aktorem, lektorem, z rzeczywistym producentem jakiegoś towaru, a w istocie jest to fejk, wtedy mamy do czynienia z naruszeniem zasad uczciwej konkurencji czy dóbr osobistych.
Czy producent szamb mógłby się bronić, że zrobił to nagranie „dla jaj”?
T.E.: Nie chciałbym wchodzić w buty drugiej strony, ale taka strategia jest nie do obrony, bo nie ma tu żadnego kontekstu, który pozwoliłby uzasadnić takie stwierdzenie.
Czyli parodia nie zawsze jest wymówką.
W.S.: Pod koniec lat 80. Samsung opublikował reklamę nawiązującą do teleturnieju „Koło fortuny”. Na jednym ze zdjęć znajdował się robot przypominający prowadzącą program z podpisem: „Najdłuższy teleturniej. Rok 2012”. Obok zdjęcie magnetowidu Samsunga z podpisem: „Magnetowid, na którym go nagrasz. Rok 2012”. Reklamę zaskarżyła Vana White, prowadząca „Koło fortuny”. W drugiej instancji sąd orzekł, że nawet imitacja wizerunku też podlega ochronie. Pani White ubiegała się o prawie 7 mln dol. odszkodowania. Ostatecznie dostała 403 tys. dolarów.
Z kolei z Fordem sądziła się piosenkarka Bette Midler, której zaproponowano wykorzystanie jej piosenki w reklamie, a kiedy się nie zgodziła, zatrudniono jedną z chórzystek z jej zespołu, która do złudzenia naśladowała głos Midler. I tu też uznano, że doszło do naruszenia wizerunku, choć głos wykorzystany w reklamie nie należał do Midler.
Mówiąc żartem, ta chórzystka była żywym pierwowzorem AI. Ale dziś technologia AI istnieje i chyba wyprzedza rozwiązania prawne.
T.E.: W telewizji słyszałem prawnika, który mówił, że to „obszar nieuregulowany prawnie”. Nie zgadzam się. Nie ma czegoś takiego, bo nawet jeśli pewne aspekty życia nie są szczegółowo uregulowane, to można je odnieść do norm wyższego rzędu: kodeksu karnego — jeśli ktoś wyłudził pieniądze, cywilnego — jeśli naruszono dobra osobiste. Są jeszcze przepisy o ochronie konkurencji i konsumentów czy prawo autorskie. No i oczywiście RODO.
Ale trudno chyba zaprzeczyć, że jesteśmy w fazie kolejnej zmiany paradygmatu, jaki obowiązywał wtedy, kiedy upowszechnił się internet. Pojawiła się nowa rzeczywistość, wirtualna, i choć początkowo wydawało się, że trzeba będzie tworzyć coś nowego, to z czasem okazało się, że wystarczy stosować przepisy, które już istnieją. Dziś rozwój AI też stworzył nową rzeczywistość.
T.E.: Mam wrażenie, że wtedy jednak przełom był większy. Nasza świadomość społeczna przeszła ogromną przemianę: obok życia zwykłego, analogowego, dostaliśmy nowe, internetowe. Wykuwało się wiele zwyczajów, niektóre obszary trzeba było kolonizować prawem zwyczajowym. Dyskutowaliśmy przecież, czy w ogóle można osadzać filmiki na stronach albo czy wrzucenie linka do YouTube’a nie narusza prawa. W pewnym sensie myśmy wtedy stanowili internetowe „prawo naturalne”, co w sieci jest OK, a co nie. Pracując dla raczkujących portali internetowych, „otwieraliśmy oczy niedowiarkom”. Dopiero potem przyszły regulacje. Dzisiaj możemy opierać się na dorobku orzecznictwa i praktyki sądowej, jakie narosły przez te blisko 30 lat.
Czyli w przypadku AI argument o nowej rzeczywistości, w której trzeba się znowu odnaleźć, jest chybiony?
T.E.: Wszystko da się wyprowadzić z kodeksów. Istota naruszeń jest taka sama jak w przykładach podawanych przez Wiktorię, zmieniły się tylko narzędzia.
W.S.: W komentarzach do sprawy głosu pana Łukomskiego często czytam: a jaki konkretny przepis zakazuje tworzenia deepfake’u z głosem znanego lektora? Przepis zakazuje naruszania dóbr osobistych, czyli m.in. wizerunku. Niezależnie od narzędzia, jakim się w tym celu posłużymy.
A może z całej tej historii wyniknie jeszcze jedna nieoczekiwana korzyść: może dzięki niej ludzie uwrażliwią się na temat podrabiania głosu za pomocą AI i będą bardziej się pilnować, żeby nie dać się naciągać oszustom, którzy coraz częściej sięgają po takie podstępy?
T.E.: Na pewno ta historia podnosi świadomość tematu AI i możliwości generowania głosu. Za to szczególne brawa dla Wiktorii, która napisała jedną z pierwszych prac o ryzykach związanych z eksploatacją deep fake’ów w Katedrze Prawa Własności Intelektualnej Uniwersytetu Jagiellońskiego.
W.S.: Ta sprawa świetnie dopasowała się do mojej specjalizacji naukowej. Wprawdzie bardziej zajmowały mnie wtedy kwestie prawa autorskiego, bo badałam przypadki wiralowych coverów, gdzie np. głos polityka zestawiano z piosenkami raperów. Ale minęło półtora roku, technologia i rzeczywistość poszły bardzo do przodu i rozwijają się wręcz z każdym dniem. Tu się splata tyle gałęzi prawnych, że nie wiadomo w co ręce włożyć: kwestia nieuczciwej konkurencji, ochrony dóbr osobistych, praw autorskich.
I to wszystko za sprawą technologii, która dopiero raczkuje. W końcu powszechna generatywna AI jest z nami raptem od trzech lat.
T.E.: Na szczęście teraz to Wiktoria będzie kształtować orzecznictwo sądowe.
*Wiktoria Stasiewicz i Tomasz Ejtminowicz z Meritum Kancelarii Radców Prawnych Cybulski, Ejtminowicz, Trojanowski i Partnerzy.



