stomp In 2024 gaan Deepfakes hoofstroom. Hier is hoe besighede hulself kan beskerm - Unite.AI
Verbinding met ons

Gedagte Leiers

In 2024 gaan Deepfakes hoofstroom. Hier is hoe besighede hulself kan beskerm

mm

Gepubliseer

 on

Sedert ten minste die 2016-verkiesing, toe kommer oor disinformasie in die publieke bewussyn ingebreek het, het kenners alarm gemaak oor diepvals. Die implikasies van hierdie tegnologie was - en bly - skrikwekkend. Die ongekontroleerde verspreiding van hiper-realistiese sintetiese media hou 'n bedreiging in vir almal- van politici tot alledaagse mense. In 'n brandbare omgewing wat reeds deur wydverspreide wantroue gekenmerk word, het deepfakes belowe om die vlamme net verder aan te blaas.

Soos dit blyk, was ons vrese voortydig. Die tegnologiese know-how wat nodig is om werklik diep vals te maak, tesame met hul dikwels swak kwaliteit, het beteken dat hulle vir ten minste die laaste twee presidensiële verkiesingsiklusse 'n minimale bekommernis gebly het.

Maar dit alles is op die punt om te verander - is reeds besig om te verander. Oor die afgelope twee jaar het generatiewe KI-tegnologie die hoofstroom betree, wat die proses van die skep van deepfakes vir die gemiddelde verbruiker radikaal vereenvoudig. Hierdie selfde innovasies het die kwaliteit van diepvals aansienlik verhoog, sodat, in 'n blinde toets, die meeste mense nie 'n gedokterde video van die regte ding sou kon onderskei nie.

Veral hierdie jaar het ons begin om aanduidings te sien van hoe hierdie tegnologie die samelewing kan beïnvloed as daar nie pogings aangewend word om dit te bekamp nie. Verlede jaar, byvoorbeeld, 'n KI-gegenereerde foto van Pous Francis wat 'n buitengewoon stylvolle jas dra het virale gegaan, en is deur baie as outentiek beskou. Alhoewel dit op een vlak na 'n onskadelike bietjie pret kan lyk, onthul dit die gevaarlike krag van hierdie diepvals en hoe moeilik dit kan wees om verkeerde inligting te bekamp sodra dit begin versprei het. Ons kan verwag om in die komende maande en jare baie minder amusante en baie gevaarliker gevalle van hierdie soort virale vervalsing te vind.

Om hierdie rede is dit noodsaaklik dat organisasies van elke soort - van die media tot finansiering tot regerings tot sosiale media-platforms - 'n proaktiewe standpunt inneem ten opsigte van diepvalse opsporing en egtheid van inhoud. 'n Kultuur van vertroue deur middel van voorsorgmaatreëls moet gevestig word nou, voordat 'n vloedgolf van dieepfakes ons gedeelde begrip van die werklikheid kan wegspoel.

Verstaan ​​​​die diep valse bedreiging

Voordat u ingaan op wat organisasies kan doen om hierdie oplewing in diepvals te bekamp, ​​is dit die moeite werd om uit te brei oor presies hoekom beveiligingsinstrumente nodig is. Tipies noem diegene wat bekommerd is oor diepvals hul potensiële uitwerking op politiek en samelewingsvertroue. Hierdie potensiële gevolge is uiters belangrik en moet nie afgeskeep word in enige gesprek oor deepfakes nie. Maar soos dit gebeur, het die opkoms van hierdie tegnologie potensieel ernstige gevolge oor verskeie sektore van die Amerikaanse ekonomie.

Neem byvoorbeeld versekering. Op die oomblik beloop jaarlikse versekeringsbedrog in die Verenigde State tot $308.6 miljard - 'n getal wat ongeveer een-vierde so groot is as die hele bedryf. Terselfdertyd word die agterplaasbedrywighede van die meeste versekeringsmaatskappye toenemend geoutomatiseer, met 70% van standaardeise wat na verwagting teen 2025 raakloos sal wees. Wat dit beteken is dat besluite toenemend geneem word met minimale menslike ingryping: selfdiens op die voorkant en KI-gefasiliteerde outomatisering aan die agterkant.

Ironies genoeg het die einste tegnologie wat hierdie toename in outomatisering moontlik gemaak het—dws masjienleer en kunsmatige intelligensie—die uitbuiting daarvan deur slegte akteurs gewaarborg. Dit is nou makliker as ooit vir die gemiddelde persoon om eise te manipuleer - byvoorbeeld deur generatiewe KI-programme soos Dall-E, Midjourney of Stable Diffusion te gebruik om 'n motor meer beskadig te laat lyk as wat dit is. Daar bestaan ​​reeds toepassings spesifiek vir hierdie doel, soos Dude Your Car!, wat gebruikers in staat stel om kunsmatig duike in foto's van hul voertuie te skep.

Dieselfde geld vir amptelike dokumente, wat nou maklik gemanipuleer kan word—met fakture, onderskrywingsbeoordelings en selfs handtekeninge wat aangepas of groothandel uitgevind is. Hierdie vermoë is 'n probleem nie net vir versekeraars nie, maar regoor die ekonomie. Dit is 'n probleem vir finansiële instellings, wat die egtheid van 'n wye reeks dokumente moet verifieer. Dit is 'n probleem vir kleinhandelaars, wat 'n klagte kan ontvang dat 'n produk gebrekkig aangekom het, vergesel van 'n gedokterde beeld.

Besighede kan eenvoudig nie met hierdie mate van onsekerheid funksioneer nie. 'n mate van bedrog is waarskynlik altyd onvermydelik, maar met diepe vervalsings praat ons nie van bedrog op die rand nie - ons praat van 'n potensiële epistemologiese katastrofe waarin besighede geen duidelike manier het om die waarheid uit fiksie te bepaal nie, en uiteindelik miljarde van dollars vir hierdie verwarring.

Bestryding van vuur met vuur: hoe KI kan help

So, wat kan gedoen word om dit te bekamp? Miskien nie verbasend nie, die antwoord lê in die einste tegnologie wat diepvals fasiliteer. As ons hierdie plaag wil stop voordat dit meer momentum kry, moet ons vuur met vuur bestry. KI kan help om diepvals te genereer - maar dit kan ook, gelukkig, help om hulle outomaties en op skaal te identifiseer.

Deur die regte KI-nutsgoed te gebruik, kan besighede outomaties bepaal of daar met 'n gegewe foto, video of dokument gepeuter is. Deur dosyne uiteenlopende modelle na die taak van vals identifikasie te bring, kan KI outomaties besighede presies vertel of 'n gegewe foto of video verdag is. Soos die gereedskap wat besighede reeds ontplooi om daaglikse bedrywighede te outomatiseer, kan hierdie gereedskap op die agtergrond loop sonder om oorgespanne personeel te belas of tyd weg te neem van belangrike projekte.

As en wanneer 'n foto geïdentifiseer word as moontlik verander, kan menslike personeel dan gewaarsku word, en kan hulle die probleem direk evalueer, aangehelp deur die inligting wat deur die KI verskaf word. Deur diepskanderingsanalise te gebruik, kan dit besighede vertel hoekom dit glo dat 'n foto waarskynlik gedokter is - wat byvoorbeeld verwys na metadata wat met die hand gewysig is, die bestaan ​​van identiese beelde oor die web, verskeie fotografiese onreëlmatighede, ens.

Niks hiervan is om die ongelooflike vooruitgang wat ons die afgelope paar jaar in generatiewe KI-tegnologie gesien het, af te maak nie, wat inderdaad nuttige en produktiewe toepassings in nywerhede het. Maar die baie krag – om nie eens te praat van eenvoud nie – van hierdie opkomende tegnologie waarborg amper die misbruik daarvan deur diegene wat organisasies wil manipuleer, hetsy vir persoonlike gewin of om sosiale chaos te saai.

Organisasies kan het die beste van albei wêrelde: die produktiwiteitsvoordele van KI sonder die nadele van alomteenwoordige diepvals. Maar om dit te doen vereis 'n nuwe mate van waaksaamheid, veral gegewe die feit dat generatiewe KI se uitsette net by die dag meer oortuigend, gedetailleerd en lewensgetrou word. Hoe gouer organisasies hul aandag op hierdie probleem vestig, hoe gouer kan hulle die volle voordele van 'n geoutomatiseerde wêreld pluk.

Nicos Vekiarides is die hoof uitvoerende beampte en medestigter van Attestief. Hy het die afgelope 20 jaar in ondernemings-IT en wolk deurgebring, as 'n uitvoerende hoof en entrepreneur, om innoverende nuwe tegnologie op die mark te bring. Sy vorige begin, TwinStrata, 'n innoverende wolkbergingmaatskappy waar hy baanbrekerswerk vir wolk-geïntegreerde berging vir die onderneming was, is in 2014 deur EMC verkry. Voor dit het hy die bedryf se eerste bergingvirtualiseringstoestel vir StorageApps op die mark gebring, 'n maatskappy wat later verkry is deur HP.