кочан През 2024 г. Deepfakes стават мейнстрийм. Ето как бизнесът може да се защити - Unite.AI
Свържете се с нас

Лидери на мисълта

През 2024 г. Deepfakes стават мейнстрийм. Ето как бизнесът може да се защити

mm

Публикуван

 on

Поне от изборите през 2016 г., когато опасенията около дезинформацията избухнаха в общественото съзнание, експертите бият тревога за дълбоки фалшификации. Последствията от тази технология бяха и остават ужасяващи. Неконтролираното разпространение на хиперреалистични синтетични медии представлява заплаха за всички– от политици до обикновени хора. В една възпламенима среда, която вече се характеризира с широко разпространено недоверие, deepfakes обещаха само да разпалят още повече пламъците.

Както се оказа, страховете ни бяха преждевременни. Технологичното ноу-хау, необходимо за действително създаване на дълбоки фалшификати, съчетано с често лошото им качество, означаваше, че поне през последните два цикъла на президентските избори те остават минимално безпокойство.

Но всичко това е на път да се промени - вече се променя. През последните две години генеративната AI технология навлезе в мейнстрийма, радикално опростявайки процеса на създаване на deepfakes за средния потребител. Същите тези нововъведения значително повишиха качеството на дълбоките фалшификати, така че при сляп тест повечето хора не биха могли да различат фалшивото видео от истинското.

Тази година, особено, започнахме да виждаме индикации как тази технология може да повлияе на обществото, ако не се положат усилия за борба с нея. Миналата година, например, генерирана от AI снимка на папа Франциск, облечен в необичайно стилно палто стана вирусна, и беше прието от мнозина за автентично. Въпреки че това може да изглежда, на едно ниво, като безобидно забавление, то разкрива опасната сила на тези дълбоки фалшификати и колко трудно може да бъде да се ограничи дезинформацията, след като започне да се разпространява. Можем да очакваме да открием много по-малко забавни — и много по-опасни — случаи на този вид вирусна фалшификация през идните месеци и години.

Поради тази причина е наложително организациите от всякакъв спектър – от медиите през финансите до правителствата и социалните медийни платформи – да заемат проактивна позиция към дълбокото откриване на фалшификати и проверката на автентичността на съдържанието. Трябва да се създаде култура на доверие чрез предпазни мерки сега, преди приливна вълна от дълбоки фалшификати да може да отмие споделеното ни разбиране за реалността.

Разбиране на дълбоката фалшива заплаха

Преди да се задълбочим в това какво могат да направят организациите, за да се борят с този скок на дълбоки фалшификати, струва си да поясним защо точно са необходими инструменти за защита. Обикновено тези, които са загрижени за deepfakes, цитират техния потенциален ефект върху политиката и общественото доверие. Тези потенциални последствия са изключително важни и не бива да се пренебрегват при разговори за дълбоки фалшификации. Но както се случва, възходът на тази технология има потенциално ужасни последици в множество сектори на икономиката на САЩ.

Вземете застраховка, например. В момента годишните застрахователни измами в Съединените щати възлизат на 308.6 милиарда долара - число, което е приблизително една четвърт от цялата индустрия. В същото време бек-енд операциите на повечето застрахователни компании са все по-автоматизирани, като 70% от стандартните искове се очаква да бъдат безконтактни до 2025 г. Това означава, че решенията се вземат все повече с минимална човешка намеса: самообслужване на преден край и улеснена от AI автоматизация на задния край.

По ирония на съдбата, самата технология, която е позволила това увеличаване на автоматизацията – т.е. машинното обучение и изкуственият интелект – е гарантирала нейното използване от лоши актьори. Сега е по-лесно от всякога за обикновения човек да манипулира искове – например, като използва генеративни AI програми като Dall-E, Midjourney или Stable Diffusion, за да направи колата да изглежда по-повредена, отколкото е. Вече съществуват приложения специално за тази цел, като например Dude Your Car!, което позволява на потребителите изкуствено да създават вдлъбнатини в снимки на своите превозни средства.

Същото важи и за официалните документи, които вече могат лесно да бъдат манипулирани - с фактури, оценки на подписването и дори подписи, коригирани или измислени на едро. Тази способност е проблем не само за застрахователите, но и за цялата икономика. Това е проблем за финансовите институции, които трябва да проверяват автентичността на широк набор от документи. Това е проблем за търговците на дребно, които могат да получат оплакване, че даден продукт е пристигнал с дефект, придружен от подправено изображение.

Бизнесът просто не може да работи с такава степен на несигурност. Известна степен на измама вероятно винаги е неизбежна, но с deepfakes ние не говорим за измама в маржовете – ние говорим за потенциална епистемологична катастрофа, при която бизнесът няма ясни средства за определяне на истината от измислицата и в крайна сметка губи милиарди долара за това объркване.

Борба с огъня с огън: как AI може да помогне

И така, какво може да се направи за борба с това? Може би не е изненадващо, че отговорът се крие в самата технология, която улеснява deepfakes. Ако искаме да спрем този бич, преди да набере повече инерция, трябва да се борим с огъня с огън. AI може да помогне за генерирането на дълбоки фалшификати, но също така, за щастие, може да помогне за идентифицирането им автоматично и в мащаб.

Използвайки правилните AI инструменти, фирмите могат автоматично да определят дали дадена снимка, видео или документ са били подправени. Подвеждайки десетки различни модели към задачата за фалшива идентификация, AI може автоматично да каже на бизнеса с точност дали дадена снимка или видео е подозрително. Подобно на инструментите, които фирмите вече внедряват за автоматизиране на ежедневните операции, тези инструменти могат да работят във фонов режим, без да натоварват пренатоварения персонал или да отнемат време от важни проекти.

Ако и когато дадена снимка бъде идентифицирана като потенциално променена, човешкият персонал може да бъде предупреден и може директно да оцени проблема, подпомогнат от информацията, предоставена от AI. Използвайки анализ на дълбоко сканиране, той може да каже на бизнеса защо смята, че дадена снимка вероятно е била подправена – сочейки например към ръчно променени метаданни, съществуването на идентични изображения в мрежата, различни фотографски нередности и т.н.

Нищо от това не омаловажава невероятния напредък, който видяхме в генеративната AI технология през последните няколко години, която наистина има полезни и продуктивни приложения в различни индустрии. Но самата мощ - да не говорим за простотата - на тази нововъзникваща технология почти гарантира злоупотребата с нея от онези, които искат да манипулират организациите, независимо дали за лична изгода или за да посеят обществен хаос.

Организации мога имат най-доброто от двата свята: ползите от производителността на AI без недостатъците на повсеместните дълбоки фалшификати. Но това изисква нова степен на бдителност, особено предвид факта, че резултатите от генеративния AI стават все по-убедителни, подробни и реалистични с всеки изминал ден. Колкото по-рано организациите насочат вниманието си към този проблем, толкова по-скоро ще могат да извлекат пълните предимства на един автоматизиран свят.

Никос Векиаридес е главен изпълнителен директор и съосновател на Атестив. Той е прекарал последните 20 години в корпоративни ИТ и облак, като главен изпълнителен директор и предприемач, представяйки иновативни нови технологии на пазара. Неговият предишен старт, TwinStrata, иновативна компания за съхранение в облак, където той е пионер в интегрираното в облак хранилище за предприятието, беше придобит от EMC през 2014 г. Преди това той пусна на пазара първото в индустрията устройство за виртуализация на съхранение за StorageApps, компания, по-късно придобита от HP.