Umělá inteligence
Odborníci na umělou inteligenci řadí Deepfakes a dalších 19 AI-založených zločinů podle úrovně nebezpečnosti

Nová zpráva publikovaná University College London měla za cíl identifikovat různé způsoby, jakými může umělá inteligence potenciálně pomáhat zločincům během následujících 15 let. Zpráva požádala 31 různých odborníků na umělou inteligenci, aby ohodnotili 20 různých metod použití umělé inteligence pro spáchání zločinů a tyto metody ohodnotili na základě různých faktorů. Odborníci na umělou inteligenci ohodnotili zločiny podle proměnných, jako je snadnost spáchání zločinu, potenciální společenské škody, které zločin může způsobit, množství peněz, které zločinec může získat, a obtížnost zastavení zločinu. Podle výsledků zprávy představují Deepfakes největší hrozbu pro zákon dodržující občany a společnost obecně, protože jejich potenciál pro využívání zločinci a teroristy je vysoký.
Odborníci na umělou inteligenci ohodnotili Deepfakes jako největší hrozbu na seznamu potenciálních hrozeb umělé inteligence, protože jsou obtížně identifikovatelné a proti nim lze jen těžko bojovat. Deepfakes se neustále zlepšují v oklamání i očí odborníků na Deepfakes a dokonce i jiné AI-založené metody detekce Deepfakes jsou často nespolehlivé. Pokud jde o jejich kapacitu pro škody, Deepfakes lze snadno použít špatnými aktéry k diskreditaci důvěryhodných, odborných osob nebo k pokusu o oklamání lidí tím, že se vydávají za blízké osoby nebo jiné důvěryhodné osoby. Pokud jsou Deepfakes hojné, lidé mohou začít ztrácet důvěru v jakékoli audio nebo video média, což by mohlo vést ke ztrátě víry v platnost skutečných událostí a faktů.
Dr. Matthew Caldwell z UCL Computer Science byl prvním autorem článku. Caldwell zdůrazňuje rostoucí nebezpečí Deepfakes, protože naše činnost se stále více přesouvá online. Jak Caldwell uvedl pro UCL News:
„Na rozdíl od mnoha tradičních zločinů lze zločiny v digitálním světě snadno sdílet, opakovat a dokonce i prodávat, což umožňuje zločincům marketingovat své techniky a poskytovat zločiny jako službu. To znamená, že zločinci mohou outsourcovat obtížnější aspekty svých AI-založených zločinů.“
Tým odborníků ohodnotil pět dalších vznikajících AI technologií jako vysoce znepokojivé potenciální katalyzátory nových druhů zločinů: vozidla bez řidiče používaná jako zbraně, hackovací útoky na AI-ořízené systémy a zařízení, online sběr dat pro účely vydírání, AI-založené phishing s přizpůsobenými zprávami a falešné zprávy/nepravdivé informace obecně.
Podle Shane Johnsona, ředitele Dawes Centre for Future Crimes na UCL, cílem studie bylo identifikovat možné hrozby spojené s nově vznikajícími technologiemi a hypotézovat způsoby, jak tyto hrozby předcházet. Johnson říká, že s rostoucí rychlostí technologických změn je důležité „předpokládat budoucí zločiny, aby mohli politici a další zúčastnění s kompetencí jednat, než dojde k novým ‘sklizním‘ zločinů“.
Pokud jde o čtrnáct dalších možných zločinů na seznamu, byly zařazeny do jedné ze dvou kategorií: střední obava a nízká obava.
Zločiny umělé inteligence se střední obavou zahrnují zneužití vojenských robotů, otravu dat, automatizované útočné drony, učící se kybernetické útoky, útoky na odmítnutí služby pro online aktivity, manipulaci finančních/tržních trhů, hadí olej (prodej podvodných služeb maskovaných v AI/ML terminologii) a oklamání rozpoznávání obličeje.
Zločiny umělé inteligence s nízkou obavou zahrnují padělání umění nebo hudby, AI-pomocné pronásledování, falešné recenze napsané AI, vyhýbání se metodám detekce AI a „zloději roboti“ (roboti, kteří se vloupávají do domů lidí, aby ukradli věci).
Samozřejmě, že modely umělé inteligence lze použít k boji proti některým z těchto zločinů. Nedávno byly modely umělé inteligence nasazeny k pomoci při zjišťování schémat praní špinavých peněz, detekci podezřelých finančních transakcí. Výsledky jsou analyzovány lidskými operátory, kteří poté schválí nebo zamítnou upozornění, a zpětná vazba se používá ke zlepšení modelu. Zdá se, že budoucnost bude zahrnovat soupeření AI, kdy zločinci budou snažit navrhnout své nejlepší AI-pomocné nástroje a bezpečnost, vymáhání práva a jiní etičtí návrháři AI budou snažit navrhnout své nejlepší AI systémy.












