Liderzy opinii
Deepfakes i nawigacja w nowej erze syntetycznych mediów
Pamiętasz “fałszywe wiadomości”? Termin ten został użyty (i nadużyty) do tego stopnia, że można zapomnieć, do czego pierwotnie się odnosił. Ale pojęcie to ma bardzo konkretny początek. Dziesięć lat temu dziennikarze zaczęli alarmować o napływie rzekomych “stron informacyjnych”, które rozrzucali fałszywe, często absurdalne twierdzenia o politykach i celebrytach. Wielu mogło od razu stwierdzić, że te strony są nielegalne.
Ale wielu innych nie posiadało krytycznych narzędzi, aby rozpoznać to. Wynikiem było pierwsze zalążki kryzysu epistemologicznego, który teraz zaczyna ogarniać internet – jeden, który osiągnął swoją najbardziej przerażającą manifestację z powstaniem deepfakes.
Obok nawet przyzwoitego deepfakes, “fałszywe strony informacyjne” z przeszłości wydają się niewinne. Co gorsza, nawet ci, którzy uważają się za posiadających względnie wysoki poziom umiejętności medialnych, są narażeni na oszustwo. Syntetyczne media stworzone za pomocą głębokich algorytmów uczenia i generatywnego AI mają potencjał, aby zniszczyć fundamenty naszego społeczeństwa. Według Deloitte, tylko w tym roku mogą one kosztować firmy ponad 250 milionów dolarów za pomocą fałszywych transakcji i innych rodzajów oszustw. Tymczasem Światowe Forum Ekonomiczne nazwało deepfakes “jednym z najbardziej niepokojących zastosowań AI”, wskazując na potencjał “ukierunkowanych, w czasie rzeczywistym, czatbotów i awatarów AI” do ułatwienia nowych szczepów ultra-personalizowanych (i ultra-skutecznych) manipulacji.
Odpowiedź Światowego Forum Ekonomicznego na ten problem jest rozsądna: opowiadają się za “postawą zero zaufania“, która wprowadza pewien stopień sceptycyzmu do każdego spotkania z cyfrowymi mediami. Jeśli chcemy odróżnić autentyczne od syntetycznych w przyszłości – szczególnie w immersyjnych środowiskach online – taka postawa będzie coraz bardziej niezbędna.
Dwa podejścia do walki z kryzysem deepfakes
Walka z powszechnymi dezinformacjami wyhodowanymi przez syntetyczne media wymaga, moim zdaniem, dwóch odrębnych podejść.
Pierwsze polega na weryfikacji: zapewnieniu prostego sposobu dla zwykłych użytkowników internetu, aby określić, czy oglądany film jest autentyczny. Takie narzędzia są już powszechne w branżach takich jak ubezpieczenia, biorąc pod uwagę potencjał złych aktorów do składania fałszywych roszczeń za pomocą sfabrykowanych filmów, zdjęć i dokumentów. Udemokratyzowanie tych narzędzi – uczynienie ich bezpłatnymi i łatwymi w użyciu – jest kluczowym pierwszym krokiem w tej walce, i już widzimy znaczący postęp w tej kwestii.
Drugi krok jest mniej techniczny i stanowi większe wyzwanie: podniesienie świadomości i rozwinięcie umiejętności myślenia krytycznego. W następstwie pierwotnego skandalu “fałszywych wiadomości” w 2015 roku, organizacje non-profit w całym kraju opracowały programy edukacji medialnej i pracowały nad rozpowszechnianiem najlepszych praktyk, często łącząc się z lokalnymi instytucjami obywatelskimi, aby umożliwić zwykłym obywatelom rozpoznanie fałszywych informacji. Oczywiście, stare “fałszywe wiadomości” są dziecinne w porównaniu z najbardziej zaawansowanymi deepfakes, dlatego musimy podwoić nasze wysiłki w tej kwestii i zainwestować w edukację na każdym poziomie.
Zaawansowane deepfakes wymagają zaawansowanego myślenia krytycznego
Oczywiście, te inicjatywy edukacyjne były znacznie łatwiejsze do podjęcia, gdy dezinformacja była oparta na tekście. W przypadku fałszywych stron informacyjnych, objawy oszustwa były często oczywiste: niezgrabny design strony, liczne błędy ortograficzne, dziwne źródła. W przypadku deepfakes, objawy są znacznie bardziej subtelne i często niemożliwe do zauważenia na pierwszy rzut oka.
Stąd użytkownicy internetu we wszystkich wiekach muszą skutecznie przeszkolić się, aby zwracać uwagę na wskaźniki deepfakes w cyfrowym filmie. To oznacza zwracanie uwagi na szereg czynników. Dla filmu, mogłoby to oznaczać niewiarygodnie mgliste obszary i cienie; nieprzyrodzone ruchy twarzy i wyrażenia; zbyt idealne odcienie skóry; niespójne wzory w ubraniach i ruchach; błędy synchronizacji ust; i tak dalej. Dla audio, mogłoby to oznaczać głosy, które brzmią zbyt czysto (lub oczywiście cyfrowo), brak ludzkiego tonu emocjonalnego, dziwne wzorce mówienia, lub niezwykłe sformułowania.
W krótkim terminie, tego rodzaju samouczek może być bardzo przydatny. Poprzez zadawanie sobie, raz za razem, pytań Czy to wygląda podejrzanie?, szlifujemy nie tylko naszą zdolność do wykrywania deepfakes, ale także nasze umiejętności myślenia krytycznego w ogóle. To powiedziawszy, szybko zbliżamy się do punktu, w którym nawet najlepiej wyszkolone oko nie będzie w stanie odróżnić fakt od fikcji bez zewnętrznej pomocy. Wizualne wskaźniki – nieregularności wymienione powyżej – będą technologicznie wyrównane, tak że całkowicie sfabrykowane klipy będą nie do odróżnienia od oryginału. To, co pozostanie nam, to nasza intuicja sytuacyjna – nasza zdolność do zadawania sobie pytań w rodzaju Czy taki polityk lub celebryta naprawdę powiedzieliby to? Czy treść tego filmu jest prawdopodobna?
To właśnie w tym kontekście platformy wykrywania AI stają się tak niezbędne. Gdy oko nieuzbrojone staje się nieważne do celów wykrywania deepfakes, te platformy mogą służyć jako ostateczne arbitrzy rzeczywistości – barierami przeciwko epistemologicznej przepaści. Gdy film wygląda realnie, ale wydaje się podejrzany – co będzie miało miejsce coraz częściej w nadchodzących miesiącach i latach – te platformy mogą nas utrwalić w faktach, potwierdzając podstawową autentyczność tego, co oglądamy. Ostatecznie, z tak potężną technologią, jedyną rzeczą, która może nas uratować, jest sama AI. Musimy walczyć ogniem z ogniem – co oznacza używanie dobrej AI do zwalczania najgorszych nadużyć tej technologii.
Rzeczywiście, zdobycie tych umiejętności w żaden sposób nie musi być procesem cynicznym lub negatywnym. Kształtowanie postawy zero zaufania można raczej uznać za okazję do szlifowania naszego myślenia krytycznego, intuicji i świadomości. Poprzez zadawanie sobie, raz za razem, pewnych kluczowych pytań – Czy to ma sens? Czy to podejrzane? – zwiększamy naszą zdolność do konfrontacji nie tylko z fałszywymi mediami, ale także z całym światem. Jeśli jest jakaś pozytywna strona ery deepfakes, to jest nią. Zmuszamy się do myślenia samodzielnie i stajemy się bardziej empiryczni w naszym codziennym życiu – i to może być tylko dobrą rzeczą.












