Zełenski Deepfake został szybko pokonany. Następny może nie być

0
281

Inne konflikty i przywódcy polityczni mogą mieć mniej szczęścia i mogą być bardziej podatni na zakłócenia przez deepfake, mówi Sam Gregory, który pracuje nad polityką deepfake w organizacji non-profit Witness.

Wysoka pozycja Zełenskiego pomogła ukraińskiemu ostrzeżeniu o fałszywym fałszerstwie sprzed dwóch tygodni zdobyć międzynarodowe wiadomości, a także pomogła jego szybkiej reakcji w środę szybko się rozprzestrzenić. Jego rozgłos mógł również skłonić do szybkiej reakcji na wideo z firm sieci społecznościowych. Rzecznik Meta, Aaron Simpson, odmówił podania, w jaki sposób wykrył wideo; podobnie jak Choi z YouTube. Oświadczenie dostarczone przez Kennedy’ego z Twittera przypisuje nieokreślone „zewnętrzne raporty śledcze”.

Nie wszyscy ludzie, którzy są celem deepfake’ów, będą w stanie zareagować tak zwinnie jak Zełenski – lub wzbudzą zaufanie w ich odrzuceniu. „Ukraina była dobrze przygotowana do tego”, mówi Gregory. „To bardzo różni się od innych przypadków, w których nawet źle wykonany deepfake może powodować niepewność co do autentyczności”.

Gregory wskazuje na nagranie wideo, które pojawiło się w Birmie w zeszłym roku, które wydaje się pokazywać byłego ministra rządu przetrzymywanego w areszcie, mówiącego, że dostarczył gotówkę i złoto byłemu przywódcy kraju Aung San Suu Kyi.

Rząd wojskowy, który w wyniku zamachu stanu wyparł Aung San Suu Kyi, wykorzystał ten materiał, by oskarżyć ją o korupcję. Jednak na nagraniu twarz i głos byłego ministra były zniekształcone, przez co wielu dziennikarzy i obywateli sugerowało, że klip był sfałszowany.

Analiza techniczna nie rozwiązała zagadki, po części dlatego, że wideo jest niskiej jakości, a także dlatego, że były minister i inni zaznajomieni z prawdą nie przemawiają tak swobodnie ani do tak dużej publiczności, jak mógł w środę Zełenski. Chociaż automatyczne wykrywacze deepfake mogą kiedyś pomóc w zwalczaniu złych aktorów, nadal są w toku.

Deepfake są nadal używane raczej do podniecenia lub nękania niż do wielkiego oszustwa, zwłaszcza że łatwiej je stworzyć. Podróbka rosyjskiego prezydenta Władimira Putina również krążyła w tym tygodniu na Twitterze, chociaż od początku uznano ją za nieautentyczną. Deepfake Zełenskiego i towarzyszące mu hacki mogą jednak stanowić niepokojącą nową granicę. Szybka i skuteczna reakcja na klip pokazuje, że dzięki kilku poprawkom i lepszemu wyczuciu czasu atak typu deepfake może być skuteczną bronią polityczną.

„Gdyby to było bardziej profesjonalne wideo i zostało wydane na początku bardziej udanego rosyjskiego ataku na Kijów, mogłoby to wywołać wiele zamieszania” – mówi Samuel Bendett, który śledzi rosyjską technologię obronną w organizacji non-profit CNA. Ponieważ technologia deepfake staje się coraz łatwiej dostępna i bardziej przekonująca, Zełenski prawdopodobnie nie będzie ostatnim przywódcą politycznym, którego celem jest fałszywe wideo.


ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj