Sztuczna inteligencja
Narzędzia przeglądarki AI mają na celu rozpoznanie Deepfakes i innych fałszywych mediów

Wysiłki firm technologicznych w celu zwalczania dezinformacji i fałszywej zawartości nabierają tempa w ostatnim czasie, ponieważ zaawansowane technologie generowania fałszywej zawartości, takie jak DeepFakes, stają się łatwiejsze w użyciu i bardziej wyrafinowane. Jedną z nadchodzących prób pomocy ludziom w wykrywaniu i zwalczaniu deepfakes jest RealityDefender, wyprodukowany przez AI Foundation, która zobowiązała się do tworzenia etycznych agentów i asystentów AI, których użytkownicy mogą szkolić do wykonywania różnych zadań.
Najbardziej godny uwagi projekt AI Foundation to platforma, która pozwala ludziom tworzyć własne cyfrowe awatary, które wyglądają jak oni i reprezentują ich w wirtualnych przestrzeniach spotkań. AI Foundation jest nadzorowana przez Global AI Council, a jako część ich mandatu muszą oni przewidywać możliwe negatywne skutki platform AI, a następnie próbować wyprzedzić te problemy. Jak donosi VentureBeat, jednym z narzędzi, które AI Foundation stworzyła w celu pomocy w wykrywaniu deepfakes, jest Reality Defender. Reality Defender to narzędzie, które osoba może używać w swojej przeglądarce (sprawdź to), które analizuje filmy, obrazy i inne rodzaje mediów w celu wykrycia oznak, że media zostały sfałszowane lub zmienione w jakiś sposób. Liczy się, że to narzędzie pomoże przeciwdziałać rosnącemu napływowi deepfakes w internecie, który według niektórych szacunków podwoił się w ciągu ostatnich sześciu miesięcy.
Reality Defender działa poprzez wykorzystanie różnych algorytmów opartych na AI, które mogą wykryć wskazówki sugerujące, że obraz lub film mogły być sfałszowane. Modele AI wykrywają subtelne oznaki oszustwa i manipulacji, a fałszywe pozytywy, które model wykrywa, są oznaczone jako nieprawidłowe przez użytkowników narzędzia. Dane są następnie wykorzystywane do ponownego przeszkolenia modelu. Firmy AI, które tworzą niezmyślne deepfakes, mają swoją zawartość oznaczoną tagiem “uczciwy AI” lub znakiem wodnym, który pozwala ludziom łatwo identyfikować fałszywe generowane przez AI.
Reality Defender to tylko jedno z zestawu narzędzi i całej platformy odpowiedzialności AI, którą AI Foundation próbuje stworzyć. AI Foundation dąży do stworzenia Guardian AI, platformy odpowiedzialności zbudowanej na założeniu, że osoby powinny mieć dostęp do osobistych agentów AI, które pracują dla nich i które mogą pomóc strzec przed ich wykorzystaniem przez złe podmioty. Podstawą jest to, że AI Foundation stara się zarówno rozszerzyć zasięg AI w społeczeństwie, przyjmując je do więcej ludzi, jak i strzec przed ryzykiem AI.
Reality Defender nie jest jedynym nowym produktem opartym na AI, który ma na celu zmniejszenie dezinformacji w Stanach Zjednoczonych. Podobny produkt to SurfSafe, który został stworzony przez dwóch studentów z UC Berkeley, Rohan Phadte i Ash Bhat. Według The Verge, SurfSafe działa poprzez umożliwienie użytkownikom kliknięcia kawałka mediów, o których są ciekawi, a program przeprowadzi odwrotną wyszukiwarkę obrazu i spróbuje znaleźć podobną zawartość z różnych zaufanych źródeł w internecie, oznaczając obrazy, które są znane jako sfałszowane.
Nie jest jasne, jak skuteczne będą te rozwiązania w długiej perspektywie. Profesor Dartmouth College i ekspert od kryminalistyki Hany Farid został cytowany przez The Verge jako mówiący, że jest “ekstremalnie sceptyczny” co do planów systemów takich jak Reality Defender, które będą działać w znaczący sposób. Farid wyjaśnił, że jednym z kluczowych wyzwań w wykrywaniu fałszywej zawartości jest to, że media nie są czysto fałszywe lub prawdziwe. Farid wyjaśnił:
“Istnieje continuum; niezwykle złożony zakres problemów do rozwiązania. Niektóre zmiany są bez znaczenia, a niektóre fundamentalnie zmieniają naturę obrazu. Udawać, że możemy szkolić AI do rozpoznania różnicy, jest niesamowicie naiwne. I udawać, że możemy crowdsourcować to, jest jeszcze bardziej takie.”
Ponadto jest trudno włączyć elementy crowdsourcingu, takie jak oznaczanie fałszywych pozytywów, ponieważ ludzie są zwykle bardzo źli w identyfikowaniu fałszywych obrazów. Ludzie często popełniają błędy i przegapują subtelne szczegóły, które oznaczają obraz jako fałszywy. Nie jest również jasne, jak radzić sobie z złymi aktorami, którzy trollują, gdy oznaczają zawartość.
Wygląda na to, że w celu maksymalnej skuteczności narzędzia do wykrywania fałszywej zawartości będą musiały być połączone z wysiłkami na rzecz cyfrowej alfabetyzacji, które uczą ludzi, jak rozumować o zawartości, z którą wchodzą w interakcję w sieci.












