Jak można stwierdzić, że obrazy AI z aresztowania Trumpa to deepfakes

0
113

Wirusowy, generowany przez AI zdjęcia z aresztowania Donalda Trumpa, które możesz zobaczyć w mediach społecznościowych, są zdecydowanie fałszywe. Ale niektóre z tych fotorealistycznych kreacji są całkiem przekonujące. Inne wyglądają bardziej jak kadry z gry wideo lub świadomego snu. A wątek na Twitterze autorstwa Eliota Higginsa, założyciela Bellingcat, który pokazuje, jak Trump jest otoczony syntetyczni policjancibiegac w kolo na lamieI wybierając kombinezon więzienny został wyświetlony ponad 3 miliony razy na platformie mediów społecznościowych.

Co zdaniem Higginsa widzowie mogą zrobić, aby odróżnić fałszywe obrazy AI, takie jak te w jego poście, od prawdziwych zdjęć, które mogą pochodzić z potencjalnego aresztowania byłego prezydenta?

„Po utworzeniu wielu obrazów do wątku oczywiste jest, że często koncentruje się na pierwszym obiekcie opisali – w tym przypadku różnych członków rodziny Trumpa – a wszystko wokół często ma więcej wad” – powiedział Higgins w e-mailu. Spójrz poza centralny punkt obrazu. Czy reszta obrazu wydaje się być refleksją?

Mimo że najnowsze wersje narzędzi AI-image, takich jak Midjourney (której wersja 5 została użyta we wspomnianym wątku) i Stable Diffusion, robią znaczne postępy, błędy w mniejszych szczegółach pozostają częstą oznaką fałszywych obrazów. Wraz ze wzrostem popularności sztucznej inteligencji wielu artystów zwraca uwagę, że algorytmy wciąż mają trudności z odtworzeniem ludzkiego ciała w spójny, naturalny sposób.

Patrząc na obrazy AI Trumpa z wątku na Twitterze, twarz wygląda dość przekonująco w wielu postach, podobnie jak ręce, ale jego proporcje ciała mogą wyglądać na zniekształcone lub wtopił się w pobliskiego policjanta. Chociaż teraz jest to oczywiste, możliwe jest, że algorytm będzie w stanie uniknąć osobliwie wyglądających części ciała przy większym treningu i wyrafinowaniu.

Potrzebujesz innego powiedzenia? Szukaj dziwnych napisów na ścianach, ubraniach lub innych widocznych przedmiotach. Higgins wskazuje na niechlujny tekst jako sposób na odróżnienie fałszywych obrazów od prawdziwych zdjęć. Na przykład policja nosi odznaki, czapki i inne dokumenty, które na pierwszy rzut oka wydają się zawierać napisy na fałszywych zdjęciach funkcjonariuszy aresztujących Trumpa. Po bliższym przyjrzeniu się, słowa te są bezsensowne.

Dodatkowym sposobem, w jaki można czasami stwierdzić, że obraz jest generowany przez sztuczną inteligencję, jest zauważenie przesadna mimika twarzy. „Zauważyłem również, że jeśli poprosisz o wyrażenia, Midjourney ma tendencję do renderowania ich w przesadny sposób, z bardzo wyraźnymi fałdami skóry od rzeczy takich jak uśmiech” – powiedział Higgins. Zbolały wyraz twarzy Melanii Trump bardziej przypomina odtworzenie twarzy Edvarda Muncha Krzyk lub kadr z niewydanego horroru A24 niż zdjęcie wykonane przez ludzkiego fotografa.

Należy pamiętać, że światowi przywódcy, celebryci, osoby mające wpływ na media społecznościowe i każdy, kto ma duże ilości zdjęć krążących w Internecie, mogą wyglądać bardziej przekonująco na zdjęciach głęboko sfałszowanych niż na wygenerowanych przez sztuczną inteligencję zdjęciach osób, których obecność w Internecie jest mniej widoczna. „Oczywiste jest, że im bardziej znana jest osoba, tym więcej obrazów sztuczna inteligencja musiała się uczyć” — powiedział Higgins. “Tak bardzo sławni ludzie są oddani bardzo dobrze, podczas gdy mniej sławni ludzie są zwykle trochę dziwaczni”. Aby mieć więcej pewności co do zdolności algorytmu do odtworzenia Twojej twarzy, warto pomyśleć dwa razy przed opublikowaniem zrzutu zdjęć z autoportretów po zabawnej nocy z przyjaciółmi. (Chociaż jest prawdopodobne, że generatory sztucznej inteligencji już zeskrobały dane obrazu z sieci).

Jaka jest polityka Twittera dotycząca obrazów generowanych przez sztuczną inteligencję w okresie poprzedzającym następne wybory prezydenckie w USA? Platforma mediów społecznościowych aktualna polityka brzmi częściowo: „Nie możesz udostępniać syntetycznych, zmanipulowanych lub wyrwanych z kontekstu mediów, które mogą oszukiwać lub dezorientować ludzi i prowadzić do szkód („media wprowadzające w błąd”)”. Twitter tworzy wiele wyjątków dla memów, komentarzy i postów, które nie zostały utworzone z zamiarem wprowadzenia widzów w błąd.

Jeszcze kilka lat temu było to prawie nie do pojęcia, że ​​przeciętny człowiek wkrótce będzie mógł w domu wytwarzać fotorealistyczne deepfake światowych przywódców. Ponieważ obrazy AI stają się coraz trudniejsze do odróżnienia od rzeczywistych, platformy mediów społecznościowych mogą być zmuszone do ponownej oceny swojego podejścia do treści syntetycznych i podjęcia próby znalezienia sposobów prowadzenia użytkowników przez złożony i często niepokojący świat generatywnej sztucznej inteligencji.

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj