W ubiegłym tygodniu, Republikański Komitet Narodowy opublikował reklamę wideo przeciwko Bidenowi, która zawierała małe zastrzeżenie w lewym górnym rogu ramki: „Zbudowany w całości z obrazami AI”. Krytycy kwestionowali zmniejszony rozmiar zastrzeżenia i sugerowali jego ograniczoną wartość, zwłaszcza że reklama jest pierwszym znaczącym wykorzystaniem sztucznej inteligencji w reklamie ataku politycznego. Ponieważ media generowane przez sztuczną inteligencję stają się coraz bardziej popularne, wielu twierdzi, że tekstowe etykiety, podpisy i znaki wodne mają kluczowe znaczenie dla przejrzystości.
Ale czy te etykiety rzeczywiście działają? Może nie.
Aby etykieta działała, musi być czytelna. Czy tekst jest wystarczająco duży, aby go przeczytać? Czy słowa są dostępne? Powinien również zapewnić odbiorcom znaczący kontekst dotyczący sposobu tworzenia i wykorzystywania mediów. A w najlepszym przypadku ujawnia również intencję: dlaczego ten materiał został wydany na świat?
Dziennikarstwo, media dokumentalne, przemysł i publikacje naukowe od dawna opierają się na ujawnieniach, aby zapewnić odbiorcom i użytkownikom niezbędny kontekst. Filmy dziennikarskie i dokumentalne zazwyczaj używają tekstu nakładki do cytowania źródeł. Etykiety i etykiety ostrzegawcze są wszechobecne na produkowanych towarach, żywności i lekach. W raportach naukowych niezbędne jest ujawnienie, w jaki sposób zebrano dane i analizy. Jednak etykietowanie mediów syntetycznych, treści generowanych przez sztuczną inteligencję i deepfake jest często postrzegane jako niepożądane obciążenie, zwłaszcza na platformach mediów społecznościowych. To refleksja. Nudna zgodność w czasach dezinformacji.
W związku z tym wiele istniejących praktyk związanych z ujawnianiem informacji w mediach wykorzystujących sztuczną inteligencję, takich jak znaki wodne i etykiety, można łatwo usunąć. Nawet kiedy tam są, oczy widzów — teraz wyszkolone w zakresie szybkich bodźców wizualnych — wydają się widzieć nie widzieć znaki wodne i ujawnienia. Na przykład we wrześniu 2019 roku znany włoski satyryczny program telewizyjny Striscia la Notizia opublikował wideo o niskiej wierności z zamianą twarzy byłego premiera Matteo Renziego siedzącego przy biurku, obrażającego swojego ówczesnego koalicyjnego partnera Matteo Salviniego przesadnymi gestami w mediach społecznościowych. pomimo Striscia znak wodny i wyraźne zastrzeżenie tekstowe, zdaniem badacza deepfake’ów, Henry’ego Adjera, niektórzy widzowie wierzyli, że wideo jest autentyczne.
Nazywa się to przesunięciem kontekstu: gdy jakikolwiek element mediów, nawet oznaczony etykietą i znakiem wodnym, zostanie rozesłany do upolitycznionych i zamkniętych grup mediów społecznościowych, jego twórcy tracą kontrolę nad tym, jak jest on oprawiony, interpretowany i udostępniany. Jak odkryliśmy we wspólnym badaniu przeprowadzonym przez Witness i MIT, kiedy satyra miesza się z deepfake’ami, często powoduje to zamieszanie, jak w przypadku tego Striscia wideo. Tego rodzaju proste etykiety tekstowe mogą stworzyć dodatkowe błędne przekonanie, że nic, co nie ma etykiety, nie jest manipulowane, podczas gdy w rzeczywistości może to nie być prawdą.
Technolodzy pracują nad sposobami szybkiego i dokładnego śledzenia pochodzenia nośników syntetycznych, takich jak pochodzenie kryptograficzne i szczegółowe metadane plików. Jeśli chodzi o alternatywne metody oznaczania, artyści i działacze na rzecz praw człowieka oferują obiecujące nowe sposoby lepszego identyfikowania tego rodzaju treści poprzez przeformułowanie oznaczania jako akt twórczy, a nie dodatek.
Kiedy ujawnienie jest upieczone w samych mediach, nie można go usunąć, a właściwie można je wykorzystać jako narzędzie do zmuszenia odbiorców do zrozumienia, w jaki sposób utworzono dany materiał i dlaczego. Na przykład w filmie dokumentalnym Davida France’a Witamy w Czeczenii, osoby, z którymi przeprowadzono wywiady, zostały zamaskowane cyfrowo za pomocą nowatorskich narzędzi do mediów syntetycznych, takich jak te używane do tworzenia głębokich podróbek. Ponadto wokół ich twarzy pojawiły się subtelne aureole, co było dla widzów wskazówką, że oglądane przez nich obrazy zostały zmanipulowane i że osoby te podejmują ogromne ryzyko, dzieląc się swoimi historiami. W teledysku Kendricka Lamara „The Heart Part 5” z 2022 roku reżyserzy wykorzystali technologię deepfake, aby przekształcić twarz Lamara w twarze zmarłych i żyjących celebrytów, takich jak Will Smith, OJ Simpson i Kobe Bryant. To wykorzystanie technologii jest wpisane bezpośrednio w tekst piosenki i choreografię, jak wtedy, gdy Lamar przesuwa ręką po twarzy, co wyraźnie wskazuje na poprawkę poprawkową. Powstały film jest meta-komentarzem na temat samych deepfake’ów.