„Obecna wojna przeniosła się również w przestrzeń cyfrową, gdzie dochodzi do prowokacji, cyberataków, fałszywych informacji i zniekształconych faktów. Chodzi o wpływanie na ludzi i przekonywanie ich do prawdy. Innym zjawiskiem, które może się nasilić z powodu toczącej się wojny, jest to, że „deepfakes”, które są niezwykle realistycznie sfałszowanymi treściami wizualnymi lub dźwiękowymi tworzonymi przy użyciu technologii sztucznej inteligencji i uczenia maszynowego” – mówi Stamulis.
Do czego służą deepfake?
Jak wyjaśnia jeden z ekspertów komputerowych, podróbki „deepfake” były wykorzystywane przede wszystkim przy tworzeniu filmów, ale coraz częściej ta technologia jest wykorzystywana do wywierania wpływu, zwłaszcza na tematy polityczne. Na przykład kilka lat temu prezydent Gabonu Ali Bongo zniknął z widoku publicznego, a kiedy pojawił się ponownie, pojawiły się oskarżenia, że wideo jest fałszywe. Były prezydent USA Donald Trump był również wielokrotnie opisywany w fałszywych filmach. Z pewnością fałszerze musieli za to odpowiedzieć, a wideo zostało nawet zablokowane w Stanach Zjednoczonych i Kanadzie.
Innym przypadkiem, który pokazuje możliwości tej najnowszej technologii, jest „deepfake” konto znanego aktora Toma Cruise’a w sieci społecznościowej Tik Tok. Zawiera fałszywe filmy aktora wykonującego różne akcje, akrobacje i czynności.
Ekspert ostrzega jednak, że deepfake, nawet w celach rozrywkowych, nie powinno być tolerowane. „Są to podróbki, w które wierzymy, oglądamy i dzielimy się z innymi. Jeśli dana osoba lubi tę lub inną znaną osobę w społeczeństwie, ale sama nie dzieli się swoimi działaniami, treść deepfake stanie się tak zaangażowana, że „W końcu może stać się Rzeczywistość i filmy będą oglądane tak, jakby były autentyczne. Innymi słowy, człowiek zostanie oszukany”, wyjaśnia T. Stamulis.
Rodzaje podróbek
Korzystając z technologii „deepfake”, można zmienić lub ukryć twarz osoby na zdjęciu lub filmie. Możliwa jest zmiana oryginalnego głosu, dostosowanie mimiki, mimiki i ruchu ust.
„Istnieją różne technologie i metody deepfake. Na przykład twarz osoby jest zastępowana inną. Ponadto często zmienia się ruchy ust. Osoba, której mowa ma być symulowana, dostarcza mowę generowaną przez sztuczną inteligencję. Lub sam głos można klonować, co oznacza, że po wybraniu nagrań głosowych konkretnej osoby tworzona jest sztuczna wersja głosu tej osoby – dodaje Stamulis.
T. Stamulis wymienia inną metodę głębokiej falsyfikacji – fałszowanie zdjęć. To metoda, w której za pomocą sztucznej inteligencji tworzone są nowe i nierealistyczne obrazy. W ten sposób powstają nieistniejące osoby lub przedmioty i prezentowane są zniekształcone informacje.
Największe zagrożenie pojawia się, gdy do wyrządzania szkód wykorzystuje się głębokie podróbki. Technologia ta umożliwia tworzenie pożądanej treści w taki sposób, że zwykli ludzie praktycznie nie będą mogli jej odróżnić. Najczęściej podróbki wybierają źródła informacji, w których informacje rozchodzą się bardzo szybko, takie jak portale społecznościowe. W ten sposób podróbka może w bardzo krótkim czasie dotrzeć do milionów ludzi i mieć negatywny wpływ na społeczeństwo.
Jak rozpoznać głębokie podróbki?
Podczas gdy technologia i publicznie dostępne informacje umożliwiają tworzenie niezwykle realistycznych podróbek, ekspert przytacza kluczowe szczegóły, które pomogą rozpoznać głębokie podróbki:
Przede wszystkim musisz zwrócić uwagę na źródło informacji. Jeśli materiały wideo lub audio są udostępniane z podejrzanych profili, konta nie zawierają żadnych danych osobowych, zdjęć, prawdopodobnie profil jest fałszywy i został stworzony specjalnie w celu rozpowszechniania podróbek i innych kontrowersyjnych informacji.
Zwróć uwagę na usta mówiącego. Jeśli poruszają się nienormalnie, wydaje się, że utknęły na górze, warto sprawdzić źródło informacji. Te filmy zwykle rozpowszechniają się tylko w sieciach społecznościowych, forach lub grupach i nie można ich znaleźć, przeszukując Internet.
Sprawdź asymetrię uszu lub kolczyków – fałszywe zdjęcia pokazują, że uszy ludzi nie są na tym samym poziomie, a kobiety zwykle mają jeden lub oba kolczyki, ale nie takie same.
W fałszywych nagraniach wideo lub audio często słychać hałas w tle, głos brzmi jak robot i słychać dziwną wymowę.
W przypadku wątpliwości dotyczących zdjęcia lub filmu należy zwrócić uwagę na jakość. Jakość obrazu podróbek jest często słaba – obrazy są rozmazane lub niedopasowane, na przykład kolor twarzy, szyi i reszty ciała osoby, a montaż części ciała jest inny.
Ważne jest również, aby docenić małe rzeczy. Możesz zobaczyć dziwne przedmioty, części ciała, które nie wyglądają naturalnie lub przyciągające wzrok detale, których nie powinno tam być lub są niezwykle rozmyte. Może to oznaczać, że napotkałeś treści typu deepfake.
Surowo zabrania się wykorzystywania informacji publikowanych przez DELFI na innych stronach internetowych, w mediach lub gdzie indziej lub rozpowszechniania naszych materiałów w jakiejkolwiek formie bez zgody, a po uzyskaniu zgody konieczne jest podanie DELFI jako źródła.
„Myśliciel. Miłośnik piwa. Miłośnik telewizji. Zombie geek. Żywności ninja. Nieprzejednany gracz. Analityk.”