Sztuczna inteligencja
Kodowanie obrazów w celu ochrony przed wykorzystaniem w systemach Deepfake i syntezie obrazu

Najbardziej znanym kierunkiem badań w rosnącym sektorze badań nad systemami przeciwdziałającymi Deepfake są systemy, które mogą rozpoznać artefakty lub inne rzekome cechy charakterystyczne sfabrykowanych, wygenerowanych lub w inny sposób sfałszowanych lub “edytowanych” twarzy w treści wideo i obrazów.
Tego typu podejścia wykorzystują różne taktyki, w tym wykrywanie głębi, przerwanie regularności wideo, zmiany w oświetleniu monitora (w przypadku potencjalnie sfabrykowanych połączeń wideo na żywo), cechy biometryczne, obszary zewnętrzne twarzy i nawet ukryte moce ludzkiego systemu podświadomości.
Wspólną cechą tych i podobnych metod jest to, że do czasu ich wdrożenia, centralne mechanizmy, które są atakowane, zostały już pomyślnie przeszkolone na tysiącach lub setkach tysięcy obrazów pobranych z sieci – obrazów, z których systemy autoencoder mogą łatwo wywnioskować kluczowe cechy i stworzyć modele, które mogą dokładnie nałożyć fałszywą tożsamość na nagrania wideo lub wygenerowane obrazy – nawet w czasie rzeczywistym.
Krótko mówiąc, do czasu aktywacji takich systemów, koń już uciekł.
Obrazy nieprzyjazne architekturom Deepfake/Synteza
W drodze bardziej prewencyjnego podejścia do zagrożenia ze strony Deepfake i syntezy obrazu, mniej znany kierunek badań w tym sektorze obejmuje możliwości wynikające z uczynienia wszystkich tych źródłowych zdjęć nieprzyjaznych wobec systemów syntezy obrazu AI, zwykle w sposób niezauważalny lub ledwo zauważalny.
Przykłady obejmują FakeTagger, propozycję z 2021 roku z różnych instytucji w Stanach Zjednoczonych i Azji, która koduje wiadomości w obrazach; te kodowania są odporne na proces uogólniania i mogą być później odzyskane nawet po tym, jak obrazy zostały pobrane z sieci i przeszkolone w sieci Generative Adversarial Network (GAN) tego typu, co najbardziej znany jest w postaci thispersondoesnotexist.com, i jego wielu pochodnych.
… (reszta treści)












