стуб 2024. године Деепфакес постају мејнстрим. Ево како предузећа могу да се заштите - Уните.АИ
Повежите се са нама

Вође мисли

2024. године Деепфакес постају мејнстрим. Ево како предузећа могу да се заштите

mm

објављен

 on

Најмање од избора 2016. године, када је забринутост око дезинформација избила у јавну свест, стручњаци су алармирали због деепфакеса. Импликације ове технологије биле су – и остале – застрашујуће. Неконтролисана пролиферација хиперреалистичких синтетичких медија представља претњу свако— од политичара до обичних људи. У запаљивом окружењу које већ карактерише широко распрострањено неповерење, деепфакес обећава да ће само додатно подстаћи пламен.

Како се испоставило, наши страхови су били преурањени. Технолошко знање које је потребно да би се заправо направиле дубоке фајке, заједно са њиховим често лошим квалитетом, значило је да су најмање у последња два циклуса председничких избора они остали минимална брига.

Али све ће се то променити — већ се мења. Током последње две године, генеративна АИ технологија је ушла у мејнстрим, радикално поједностављујући процес креирања деепфакеса за просечног потрошача. Исте ове иновације значајно су повећале квалитет деепфаке-а, тако да, у слепом тесту, већина људи не би могла да разликује лажни видео од праве ствари.

Ове године смо, посебно, почели да виђамо назнаке о томе како би ова технологија могла утицати на друштво ако се не предузму напори у борби против ње. Прошле године, на пример, фотографија папе Фрање коју је направио АИ у необично елегантном капуту прешао у вирус, а многи су га сматрали аутентичним. Иако ово може изгледати, на једном нивоу, као безазлена забава, открива опасну моћ ових дезинформација и колико тешко може бити обуздати дезинформације када почну да се шире. Можемо очекивати да ћемо у наредним месецима и годинама пронаћи далеко мање забавне — и много опасније — примере ове врсте виралне лажи.

Из тог разлога, императив је да организације свих слојева – од медија преко финансија до влада до платформи друштвених медија – заузму проактиван став према откривању дубоких лажњака и верификацији аутентичности садржаја. Потребно је успоставити културу поверења путем заштитних механизама сада, пре него што плимни талас деепфакеса може да опере наше заједничко разумевање стварности.

Разумевање деепфаке претње

Пре него што се упустимо у то шта организације могу да ураде да се боре против овог пораста дубоких лажирања, вреди елаборирати зашто су неопходни алати за заштиту. Обично они који су забринути због деепфакеса наводе њихов потенцијални утицај на политику и друштвено поверење. Ове потенцијалне последице су изузетно важне и не треба их занемарити ни у једном разговору о деепфакес. Али како се то дешава, успон ове технологије има потенцијално страшне ефекте на више сектора америчке економије.

Узми осигурање, на пример. Тренутно, годишња превара у осигурању у Сједињеним Државама износи 308.6 милијарди долара – што је отприлике једна четвртина веће од читаве индустрије. Истовремено, позадинско пословање већине осигуравајућих компанија је све више аутоматизовано, а предвиђа се да ће 70% стандардних штета бити бесконтактно до 2025. То значи да се одлуке све више доносе уз минималну интервенцију људи: самопослуживање на предњи крај и аутоматизација уз помоћ вештачке интелигенције на задњој страни.

Иронично, сама технологија која је омогућила ово повећање аутоматизације – тј. машинско учење и вештачка интелигенција – гарантовала је њену експлоатацију од стране лоших актера. Сада је просечној особи лакше него икада да манипулише захтевима – на пример, коришћењем генеративних АИ програма као што су Далл-Е, Мидјоурнеи или Стабле Диффусион да би аутомобил изгледао оштећеније него што јесте. Већ постоје апликације посебно за ову сврху, као што је Дуде Иоур Цар!, која омогућава корисницима да вештачки праве удубљења на фотографијама својих возила.

Исто важи и за званичне документе, којима се сада може лако манипулисати — са фактурама, проценама гаранције, па чак и потписима прилагођеним или измишљеним на велико. Ова способност представља проблем не само за осигураваче већ и за читаву привреду. То је проблем за финансијске институције, које морају да провере аутентичност широког спектра докумената. То је проблем за трговце на мало, који могу добити рекламацију да је производ стигао неисправан, уз исправљену слику.

Предузећа једноставно не могу да раде са овим степеном неизвесности. Одређени степен преваре је вероватно увек неизбежан, али са дубоким лажњацима, ми не говоримо о превари на маргинама – говоримо о потенцијалној епистемолошкој катастрофи у којој предузећа немају јасна средства да одреде истину од фикције и на крају изгубе милијарде долара за ову забуну.

Борба против ватре ватром: како АИ може помоћи

Дакле, шта се може учинити да се ово бори? Можда није изненађујуће, одговор лежи у самој технологији која омогућава деепфакес. Ако желимо да зауставимо ову пошаст пре него што добије већи замах, морамо се борити против ватре ватром. АИ може помоћи у генерисању дубоких лажирања - али такође, на срећу, може помоћи да се идентификују аутоматски иу великом обиму.

Користећи праве АИ алате, предузећа могу аутоматски да утврде да ли је одређена фотографија, видео или документ неовлашћени. Доводећи десетине различитих модела у задатак лажне идентификације, АИ може аутоматски да прецизно каже предузећима да ли је дата фотографија или видео сумњив. Попут алата које компаније већ користе за аутоматизацију свакодневних операција, ови алати могу да раде у позадини без оптерећивања преоптерећеног особља или одузимања времена за важне пројекте.

Ако и када се фотографија идентификује као потенцијално измењена, људско особље тада може бити упозорено и може директно проценити проблем, уз помоћ информација које пружа АИ. Користећи анализу дубинског скенирања, може рећи предузећима зашто верује да је фотографија вероватно измењена – указујући, на пример, на ручно измењене метаподатке, постојање идентичних слика широм веба, различите фотографске неправилности итд.

Ништа од овога не омаловажава невероватан напредак који смо видели у генеративној технологији вештачке интелигенције током последњих неколико година, која заиста има корисне и продуктивне примене у различитим индустријама. Али сама моћ – да не спомињемо једноставност – ове технологије у настајању готово гарантује њену злоупотребу од стране оних који желе да манипулишу организацијама, било ради личне користи или да сеју друштвени хаос.

Организације могу имају најбоље од оба света: предности АИ у продуктивности без недостатака свеприсутног деепфакеса. Али то захтева нови степен будности, посебно имајући у виду чињеницу да резултати генеративне вештачке интелигенције из дана у дан постају све убедљивији, детаљнији и реалнији. Што пре организације скрену пажњу на овај проблем, пре ће моћи да искористе све предности аутоматизованог света.

Ницос Векиаридес је главни извршни директор и суоснивач Аттестив. Провео је последњих 20 година у ИТ и облаку предузећа, као извршни директор и предузетник, доносећи иновативне нове технологије на тржиште. Његово претходно покретање, ТвинСтрата, иновативну компанију за складиштење у облаку у којој је био пионир за складиштење у облаку за предузеће, купио је ЕМЦ 2014. Пре тога је на тржиште избацио први уређај за виртуелизацију складиштења у индустрији за СторагеАппс, компанију коју је касније купио ХП.