výhonek Výzkumníci vyvíjejí nástroj „DeepTrust“, který pomáhá zvýšit důvěryhodnost AI – Unite.AI
Spojte se s námi

Umělá inteligence

Výzkumníci vyvíjejí nástroj „DeepTrust“, který pomáhá zvýšit důvěryhodnost AI

Zveřejněno

 on

Bezpečnost a důvěryhodnost umělé inteligence (AI) je jedním z největších aspektů této technologie. Neustále se vylepšuje a pracují na něm špičkoví odborníci v různých oblastech a bude mít zásadní význam pro plnou implementaci AI v celé společnosti. 

Část této nové práce pochází z University of Southern California, kde výzkumníci USC Viterbi Engineering vyvinuli nový nástroj schopný generovat automatické indikátory toho, zda jsou algoritmy AI důvěryhodné ve svých datech a předpovědích. 

Výzkum byl publikován v roce XNUMX Hranice v umělé inteligencis názvem „Je tu přece naděje: kvantifikace názoru a důvěryhodnosti v neuronových sítích“. Mezi autory článku patří Mingxi Cheng, Shahin Nazarian a Paul Bogdan z USC Cyber ​​Physical Systems Group. 

Důvěryhodnost neuronových sítí

Jedním z největších úkolů v této oblasti je přimět neuronové sítě ke generování předpovědí, kterým lze věřit. V mnoha případech to je to, co brání plnému přijetí technologie, která spoléhá na AI. 

Například samořídící vozidla musí jednat nezávisle a dělat přesná rozhodnutí na autopilotu. Musí být schopni dělat tato rozhodnutí extrémně rychle a přitom dešifrovat a rozpoznávat předměty na silnici. To je zásadní, zejména ve scénářích, kde by technologie musela dešifrovat rozdíl mezi zpomalovačem, nějakým jiným předmětem nebo živou bytostí. 

Mezi další scénáře patří, že se samořídící vozidlo rozhoduje, co dělat, když se k němu čelem postaví jiné vozidlo, a nejsložitějším rozhodnutím ze všech je, zda se samořídící vozidlo musí rozhodnout mezi nárazem do toho, co vnímá jako jiné vozidlo, nějaký předmět, nebo živá bytost.

To vše znamená, že vkládáme extrémní množství důvěry do schopnosti softwaru samořídícího vozidla učinit správné rozhodnutí během pouhých zlomků sekundy. Je to ještě obtížnější, když existují konfliktní informace z různých senzorů, jako je počítačové vidění z kamer a Lidar. 

Vedoucí autorka Minxi Cheng se rozhodla tento projekt zahájit poté, co si myslela: „Dokonce i lidé mohou být v určitých scénářích rozhodování nerozhodní. Proč nám v případech zahrnujících protichůdné informace nemohou stroje říct, když to nevědí?

DeepTrust

Nástroj, který výzkumníci vytvořili, se nazývá DeepTrust a je schopen kvantifikovat množství nejistoty, tvrdí Paul Bogdan, docent na katedře elektrotechniky a počítačového inženýrství Ming Hsieh. 

Tým strávil téměř dva roky vývojem DeepTrust, primárně pomocí subjektivní logiky k posouzení neuronových sítí. V jednom příkladu fungování tohoto nástroje bylo možné se podívat na průzkumy prezidentských voleb v roce 2016 a předpovědět, že vítězství Hillary Clintonové mělo větší prostor pro chyby. 

Nástroj DeepTrust také usnadňuje testování spolehlivosti běžně trénovaných algoritmů umělé inteligence až na milionech datových bodů. Druhým způsobem, jak toho dosáhnout, je nezávislá kontrola každého z datových bodů za účelem testování přesnosti, což je extrémně časově náročný úkol. 

Podle výzkumníků je architektura těchto systémů neuronových sítí přesnější a současně lze maximalizovat přesnost a důvěru.

„Pokud je nám známo, neexistuje žádný model kvantifikace důvěry ani nástroj pro hluboké učení, umělou inteligenci a strojové učení. Toto je první přístup a otevírá nové směry výzkumu,“ říká Bogdan. 

Bogdan také věří, že DeepTrust by mohl pomoci posunout AI kupředu do bodu, kdy bude „vědomá a adaptivní“.

 

Alex McFarland je AI novinář a spisovatel, který zkoumá nejnovější vývoj v oblasti umělé inteligence. Spolupracoval s řadou AI startupů a publikací po celém světě.