Kontakt z nami

Liderzy myśli

Deepfakes i nawigacja w nowej erze mediów syntetycznych

mm

Pamiętasz „fake news”? Termin ten był używany (i nadużywany) tak szeroko w tym momencie, że trudno jest zapamiętać, do czego pierwotnie się odnosił. Jednak koncepcja ta ma bardzo konkretne pochodzenie. Dziesięć lat temu dziennikarze zaczęli bić na alarm w związku z napływem rzekomych witryn „informacyjnych” rzucających fałszywe, często niedorzeczne twierdzenia na temat polityków i celebrytów. Wielu od razu wiedziało, że te witryny są nielegalne.

Jednak wielu innym brakowało kluczowych narzędzi, aby to rozpoznać. Rezultatem były pierwsze oznaki kryzysu epistemologicznego, który obecnie ogarnia Internet – który osiągnął swój najbardziej przerażający przejaw wraz z pojawieniem się deepfakes.

Nawet w porównaniu z zadowalającym deepfake’iem, dawne strony z fałszywymi wiadomościami wydają się nudne. Co gorsza, nawet ci, którzy uważają, że posiadają stosunkowo wysoki poziom umiejętności korzystania z mediów, są narażeni na ryzyko, że zostaną oszukani. Media syntetyczne stworzone za pomocą algorytmy głębokiego uczenia się oraz generatywna sztuczna inteligencja mogą potencjalnie siać spustoszenie w podstawach naszego społeczeństwa. Według Deloitte tylko w tym roku fałszywe transakcje i inne rodzaje oszustw mogą kosztować firmy ponad 250 milionów dolarów. Tymczasem Światowe Forum Ekonomiczne nazwało deepfakes „jednym z najbardziej niepokojących zastosowań sztucznej inteligencji”, wskazując na potencjał „chatbotów i awatarów opartych na sztucznej inteligencji działających w czasie rzeczywistym” w zakresie tworzenia nowych odmian ultraspersonalizowanych (i ultra- skuteczna) manipulacja.

Proponowana przez Światowe Forum Ekonomiczne odpowiedź na ten problem jest rozsądna: opowiadają się za „nastawienie zerowego zaufania”, który wnosi pewien sceptycyzm do każdego spotkania z mediami cyfrowymi. Jeśli chcemy rozróżnić autentyczny i syntetyczny postęp – zwłaszcza w immersyjnych środowiskach online – takie nastawienie będzie coraz bardziej istotne.

Dwa podejścia do walki z kryzysem deepfake

Walka szaleje dezinformacja wyhodowane za pomocą mediów syntetycznych będą wymagały, moim zdaniem, dwóch odrębnych podejść.

Pierwszy z nich dotyczy weryfikacji: zapewnienia użytkownikom internetu prostego sposobu na sprawdzenie, czy oglądany film jest rzeczywiście autentyczny. Takie narzędzia są już powszechne w branżach takich jak ubezpieczenia, ze względu na potencjalne ryzyko składania przez oszustów fałszywych roszczeń w oparciu o sfałszowane filmy, zdjęcia i dokumenty. Upowszechnienie tych narzędzi – uczynienie ich darmowymi i łatwo dostępnymi – to kluczowy pierwszy krok w tej walce i już obserwujemy znaczący postęp w tym zakresie.

Drugi krok jest mniej technologiczny, a zatem stanowi większe wyzwanie: chodzi o podnoszenie świadomości i rozwijanie umiejętności krytycznego myślenia. W następstwie skandalu związanego z „fake newsami”, który wybuchł w 2015 roku, organizacje non-profit w całym kraju opracowały programy edukacji medialnej i pracowały nad upowszechnianiem najlepszych praktyk, często współpracując z lokalnymi instytucjami obywatelskimi, aby pomóc zwykłym obywatelom w rozpoznawaniu fałszu. Oczywiście, tradycyjne „fake newsy” to igraszka w porównaniu z najbardziej zaawansowanymi deepfake’ami, dlatego musimy podwoić nasze wysiłki w tym zakresie i inwestować w edukację na każdym poziomie.

Zaawansowane deepfakes wymagają zaawansowanego krytycznego myślenia

Oczywiście podjęcie tych inicjatyw edukacyjnych było nieco łatwiejsze, gdy dezinformacja miała charakter tekstowy. W przypadku fałszywych witryn informacyjnych charakterystyczne oznaki oszustwa były często oczywiste: śmieszny projekt strony internetowej, częste literówki, dziwaczne źródła informacji. W przypadku deepfakes oznaki są znacznie bardziej subtelne i często niemożliwe do zauważenia na pierwszy rzut oka.

W związku z tym użytkownicy Internetu w każdym wieku muszą skutecznie przeszkolić się w zakresie analizy cyfrowego wideo pod kątem wskaźników deepfake. Oznacza to zwrócenie szczególnej uwagi na wiele czynników. W przypadku wideo może to oznaczać nierealistyczne, rozmyte obszary i cienie; nienaturalnie wyglądające ruchy i mimika twarzy; zbyt idealny odcień skóry; niespójne wzory w ubiorze i ruchach; błędy synchronizacji warg; ciągle. W przypadku dźwięku może to oznaczać głosy o zbyt nieskazitelnym brzmieniu (lub w oczywisty sposób przetworzone cyfrowo), pozbawione ludzkiego tonu emocjonalnego, dziwne wzorce mowy lub nietypowe frazowanie.

Na krótką metę tego rodzaju samokształcenie może być bardzo przydatne. Zadając sobie wciąż na nowo pytanie: Czy to wygląda podejrzanie?, wyostrzamy nie tylko naszą zdolność do wykrywania deepfake’ów, ale ogólnie naszą umiejętność krytycznego myślenia. To powiedziawszy, szybko zbliżamy się do punktu, w którym nawet najlepiej wyszkolone oko nie będzie w stanie oddzielić faktów od fikcji bez pomocy z zewnątrz. Wizualizacja – wspomniane powyżej nieprawidłowości – zostaną technologicznie wygładzone, tak aby w pełni wyprodukowane klipsy były nie do odróżnienia od oryginalnego artykułu. To, co nam pozostanie, to intuicja sytuacyjna – nasza zdolność do zadawania sobie pytań w rodzaju: Czy taki a taki polityk lub gwiazda naprawdę by to powiedział? Czy treść tego filmu jest wiarygodna?

To właśnie w tym kontekście platformy do wykrywania sztucznej inteligencji stają się tak istotne. Ponieważ gołym okiem nie ma już znaczenia dla celów wykrywania deepfake, platformy te mogą służyć jako ostateczni arbitrzy rzeczywistości – poręcze chroniące przed epistemologiczną otchłanią. Kiedy film wygląda realistycznie, ale w jakiś sposób wydaje się podejrzany – co będzie zdarzać się coraz częściej w nadchodzących miesiącach i latach – platformy te mogą utrzymać nas w faktach, potwierdzając podstawową prawdziwość wszystkiego, na co patrzymy. Ostatecznie przy tak potężnej technologii jedyną rzeczą, która może nas uratować, jest sama sztuczna inteligencja. Musimy zwalczać ogień ogniem, co oznacza wykorzystanie dobrej sztucznej inteligencji do wykorzenienia najgorszych nadużyć w tej technologii.

Tak naprawdę, zdobywanie tych umiejętności wcale nie musi być procesem cynicznym ani negatywnym. Pielęgnowanie postawy zerowego zaufania można raczej postrzegać jako okazję do wyostrzenia krytycznego myślenia, intuicji i świadomości. Zadając sobie wciąż na nowo pewne kluczowe pytania – Czy to ma sens? Czy to jest podejrzane? – zwiększasz swoją zdolność do konfrontacji nie tylko z fałszywymi mediami, ale ze światem w szerszej perspektywie. Jeśli w erze deepfake jest jakaś pozytywna strona, to właśnie ona. Jesteśmy zmuszani do samodzielnego myślenia i do bardziej empirycznego podejścia w naszym codziennym życiu – a to może być tylko dobre.

Nicos Vekiarides jest dyrektorem generalnym i współzałożycielem Poświadczenie. Ostatnie 20 lat spędził w IT dla przedsiębiorstw i chmurze, jako dyrektor generalny i przedsiębiorca, wprowadzając na rynek nowe, innowacyjne technologie. Jego poprzedni start-up, TwinStrata, innowacyjna firma zajmująca się przechowywaniem w chmurze, w której był pionierem zintegrowanej z chmurą pamięci masowej dla przedsiębiorstw, został przejęty przez EMC w 2014 r. Wcześniej wprowadził na rynek pierwsze w branży urządzenie do wirtualizacji pamięci masowej dla StorageApps, firmy przejętej później przez HP.