Artykuł pochodzi z wydania: Styczeń 2025
Syntetyczne formy przekazu tworzone na podstawie generatywnej sztucznej inteligencji będą jednym z największych zagrożeń społecznych w nadchodzących latach. Jedną z najszybciej zyskujących na znaczeniu form fałszywego przekazu jest deepfake.
Termin „deepfake”, coraz częściej używany jako określenie wszelkich fałszywych treści generowanych przez sztuczną inteligencję (dalej także: AI), pojawił się w przestrzeni publicznej w grudniu 2017 r. Jego nazwa pochodzi od pseudonimu, którym posługiwał się użytkownik platformy Reddit, publikujący filmy pornograficzne stworzone za pomocą technologii głębokiego uczenia (deep learning). Wykorzystywano w nich wizerunki znanych osób, przedstawiając je w kompromitujących sytuacjach, które nigdy nie miały miejsca. Od tego momentu popularność zjawiska i nazwy, z którą zaczęto je identyfikować, rosła – w dużej mierze na skutek analiz i komentarzy publikowanych na witrynie Motherboard. Technologia ta szybko zyskała na znaczeniu – przede wszystkim dzięki wachlarzowi możliwości, z którego mogą korzystać użytkownicy. Deepfake, początkowo wykorzystywany głównie w celach rozrywkowych, wraz z postępem generatywnej sztucznej inteligencji coraz częściej staje się narzędziem manipulacji i dezinformacji. Kradzież tożsamości, wyłudzanie cennych informacji, szantaż, oszustwa, tworzenie fałszywych dowodów czy kompromitujących materiałów to tylko niektóre z zagrożeń, jakie wynikają z rozwoju tej zaawansowanej syntetycznej formy przekazu.
Pierwsze materiały
Jednym z pierwszych znanych przykładów deepfake’u był materiał stworzony w celach edukacyjnych, który miał ukazać potencjalne zagrożenia związane z manipulacją i dezinformacją polityczną. W opublikowanym w 2018 r. filmie prezydent Stanów Zjednoczonych Barack Obama wypowiada się na temat Donalda Trumpa, używając słów, które w rzeczywistości wypowiedział reżyser Jordan Peele – współtwórca tego fałszywego przekazu (itwa.pl/102).
W kontekście możliwości wpływania na opinię publiczną za pomocą deepfake’ów szczególnie niebezpieczny okazał się fałszywy komunikat wygenerowany przez Rosję w marcu 2022 r., w którym prezydent Ukrainy rzekomo ogłaszał kapitulację kraju (itwa.pl/103). Informacja ta szybko obiegła świat i mogła mieć poważne międzynarodowe konsekwencje, gdyby nie została natychmiast zdementowana przez stronę ukraińską. Na szczęście technologia wykorzystana do stworzenia tego deepfake’u nie była jeszcze wystarczająco zaawansowana, co pozwoliło na szybkie zidentyfikowanie manipulacji. Materiał wywołał jednak chwilową dezorientację światowej opinii publicznej, co pokazuje potencjalne konsekwencje rozwoju tej technologii. Był to pierwszy tak szeroko znany przypadek wykorzystania generatywnej sztucznej inteligencji do stworzenia fałszywego przekazu w trakcie trwającego konfliktu zbrojnego. Wyraźnie pokazuje to, jak duży potencjał kryje się w syntetycznych treściach, które mogą być w przyszłości wykorzystywane do manipulowania opinią publiczną w globalnej skali.
W porównaniu z przywołanymi przykładami technologia generatywna użyta podczas wyborów prezydenckich w Stanach Zjednoczonych w 2024 r. była dużo bardziej zaawansowana. Materiał przedstawiający Kamalę Harris i Donalda Trumpa w atmosferze zażyłej przyjaźni był szczególnie szokujący i mógł wprowadzać w błąd osoby mniej zorientowane w bieżącej polityce (itwa.pl/104). Oboje kandydatów prowadziło bowiem zaciętą, pełną napięć kampanię. Deepfake pokazywał ich uśmiechniętych, wymieniających żarty i uścisk dłoni, co całkowicie przeczyło rzeczywistości. Choć technicznie nie był jeszcze doskonały, stanowił wyraźny krok naprzód w stosunku do wcześniejszych materiałów manipulacyjnych stworzonych za pomocą sztucznej inteligencji. Można spodziewać się, że osiągnięcie poziomu, na którym syntetyczne treści staną się nieodróżnialne od prawdziwych, to jedynie kwestia czasu.
Ostatnie miesiące pokazują, że wraz z postępem generatywnej sztucznej inteligencji zdolność programów do wiernego naśladowania mimiki twarzy, gestów, ruchów ciała oraz klonowania głosu rozwija się w zawrotnym tempie, stając się nowym, niezwykle niebezpiecznym narzędziem w działaniach socjotechnicznych. Takie zjawiska będą coraz częściej wprowadzać obywateli w konsternację, utrudniając im ocenę, czy mają do czynienia z prawdziwą informacją, czy z kłamstwem. Co więcej łatwy dostęp do technologii umożliwiających swobodne generowanie fałszywych syntetycznych treści oraz niedoskonałość regulacji prawnych będą rosnącym zagrożeniem w kontekście bezpieczeństwa i stabilności struktur społecznych. Pytanie o to, jak oceniać wiarygodność informacji, pozostaje otwarte, zmuszając nas do refleksji nad przyszłością społeczeństw w erze generatywnej sztucznej inteligencji.
Dlaczego deepfake działa?
Skuteczność deepfake’ów wynika przede wszystkim z tego, że ludzie mają tendencję do wierzenia w to, co widzą i słyszą, nawet jeśli jest to mało prawdopodobne. Badania naukowe potwierdzają, że dobrze przygotowany deepfake potrafi oszukać ludzki umysł, sprawiając, że uznajemy fałszywe informacje za prawdziwe. Dodatkowo przyzwyczailiśmy się do przekazu wiadomości w formie audiowizualnej. Metody i narzędzia do generowania fałszywych wizerunków stale się rozwijają i są już powszechnie dostępne – za kilka dolarów można produkować masowo fałszywe treści, bez inwestycji w zbieranie danych, sprzęt i oprogramowanie. Ich powszechność wynika z tego, że internet jest najpowszechniejszym medium informacyjnym.
W administracji publicznej wyzwania i zagrożenia związane z deepfake’ami obejmują szeroki zakres problemów, które mogą znacząco wpłynąć na stabilność i zaufanie do instytucji państwowych. Tworzenie i udostępnianie fałszywych wypowiedzi polityków oraz urzędników może skutkować podważaniem ich wiarygodności, dezinformacją i kryzysami zaufania społecznego. W skrajnych przypadkach deepfake może być używany do zakłócania porządku publicznego, prowadząc do nieprzewidzianych reakcji ze strony społeczeństwa i innych państw. Dodatkowo technologia ta może być narzędziem wykorzystywanym podczas cyberataków, podczas których poprzez realistyczne manipulacje głosem i wizerunkiem oszuści doprowadzą do wyłudzenia poufnych informacji lub środków finansowych.
[…]
Paweł Pajor jest socjologiem sztucznej inteligencji, działaczem samorządowym, przewodniczącym Komisji Bezpieczeństwa i Samorządności Rady Miejskiej Bielska-Białej. Członek Grupy Roboczej ds. Sztucznej Inteligencji (GRAI) przy Ministerstwie Cyfryzacji, sekcji Praw Człowieka i Demokracji. Jako niezależny badacz zajmuje się nowymi modelami relacji społecznych, wynikających z emergentnych zjawisk komunikacji człowieka z maszynami.
Ewelina Bartuzi-Trokielewicz jest ekspertką w dziedzinie biometrii i uczenia maszynowego, doktorką nauk technicznych, członkinią Grupy Roboczej ds. Sztucznej Inteligencji (GRAI) przy Ministerstwie Cyfryzacji, sekcji Praw Człowieka i Demokracji, kierowniczką Zakładu Analiz Audiowizualnych i Systemów Biometrycznych w NASK, adiunktką w Instytucie Automatyki i Informatyki Stosowanej na Wydziale Elektroniki i Technik Informacyjnych Politechniki Warszawskiej.