Connect with us

Umělá inteligence

Výzkumníci vyvinuli nástroj „DeepTrust“ pro zvýšení důvěryhodnosti AI

mm

Bezpečnost a důvěryhodnost umělé inteligence (AI) je jednou z největších aspektů této technologie. Je neustále vylepšována a pracují na ní přední odborníci z různých oborů, a bude mít zásadní význam pro plné nasazení AI ve společnosti.

Některá z této nové práce pochází z University of Southern California, kde výzkumníci z USC Viterbi Engineering vyvinuli nový nástroj, který je schopen generovat automatické indikátory pro to, zda jsou algoritmy AI důvěryhodné ve svých datech a předpovědích.

Výzkum byl zveřejněn v Frontiers in Artificial Intelligence, s názvem „Je zde naděje: Kvantifikace názoru a důvěryhodnosti v neuronových sítích“. Autoři článku jsou Mingxi Cheng, Shahin Nazarian a Paul Bogdan ze skupiny USC Cyber Physical Systems.

Důvěryhodnost neuronových sítí

Jedním z největších úkolů v této oblasti je zajistit, aby neuronové sítě generovaly předpovědi, které lze důvěřovat. V mnoha případech je to to, co brání plnému nasazení technologií, které spoléhají na AI.

Například autonomní vozidla musí jednat nezávisle a dělat přesná rozhodnutí v automatickém režimu. Musí být schopna dělat tato rozhodnutí extrémně rychle, zatímco rozpoznávají a identifikují objekty na silnici. To je zásadní, zejména ve scénářích, kde by technologie musela rozpoznat rozdíl mezi rychlostním bumpem, jiným objektem nebo živým tvorem.

Další scénáře zahrnují rozhodnutí autonomního vozidla, co dělat, když se mu postaví jiné vozidlo, a nejkomplexnější rozhodnutí ze všech je, zda by autonomní vozidlo mělo rozhodnout mezi nárazem do toho, co považuje za jiné vozidlo, objekt nebo živý tvor.

To vše znamená, že jsme položili enormní důvěru do schopnosti softwaru autonomního vozidla učinit správné rozhodnutí za zlomek sekundy. Stává se to ještě obtížnějším, když existuje rozporuplná informace z různých senzorů, jako je počítačové vidění z kamer a Lidar.

Vedoucí autor Mingxi Cheng se rozhodl tento projekt zahájit, když si myslel: „I lidé mohou být nerozhodní v určitých rozhodovacích scénářích. V případech s rozporuplnými informacemi, proč nemohou stroje říci, když nevědí?“

DeepTrust

Nástroj, který byl vytvořen výzkumníky, se jmenuje DeepTrust, a je schopen kvantifikovat množství nejistoty, podle Paula Bogdana, asocičního profesora na katedře elektrotechniky a počítačového inženýrství Ming Hsieh.

Tým strávil téměř dva roky vývojem DeepTrust, primárně pomocí subjektivní logiky pro hodnocení neuronových sítí. V jednom příkladu fungování nástroje, byl schopen prohlédnout si prezidentské volby v roce 2016 a předpovědět, že existuje větší marže chyby pro vítězství Hillary Clintonové.

Nástroj DeepTrust také usnadňuje testování spolehlivosti algoritmů AI, které jsou obvykle trénovány na milionech datových bodů. Jiný způsob, jak to udělat, je nezávisle zkontrolovat každý z datových bodů pro testování přesnosti, což je extrémně časově náročná úloha.

Podle výzkumníků je architektura těchto neuronových systémů přesnější, a přesnost a důvěra mohou být maximalizovány současně.

„Naše znalosti, neexistuje žádný model kvantifikace důvěry nebo nástroj pro hluboké učení, umělou inteligenci a strojové učení. Toto je první přístup a otevírá nové výzkumné směry,“ říká Bogdan.

Bogdan také věří, že DeepTrust může pomoci posunout AI dopředu do bodu, kde bude „vědomý a adaptivní“.

Alex McFarland je AI novinář a spisovatel, který zkoumá nejnovější vývoj v oblasti umělé inteligence. Spolupracoval s mnoha AI startupy a publikacemi po celém světě.