stub MIT tyrimų komanda kuria dirbtinio intelekto tinklą, kuris atsispirtų priešpriešiniams pavyzdžiams – Unite.AI
Susisiekti su mumis

Dirbtinis intelektas

MIT tyrimų komanda kuria dirbtinio intelekto tinklą, kad atsispirtų priešpriešiniams pavyzdžiams

mm

paskelbta

 on

Mokslininkų komanda iš MIT hkaip sukurtas giluminio mokymosi algoritmas skirtas padėti AI susidoroti su „priešingais“ pavyzdžiais, dėl kurių dirbtinis intelektas gali neteisingai nuspėti ir atlikti netinkamus veiksmus. MIT komandos sukurtas algoritmas gali padėti dirbtinio intelekto sistemoms išlaikyti jų tikslumą ir išvengti klaidų susidūrus su painiais duomenų taškais.

AI sistemos analizuoja įvykio įvesties ypatybes, kad nuspręstų, kaip į tą įvykį reaguoti. Dirbtinis intelektas, atsakingas už autonominės transporto priemonės manevravimą, turi paimti duomenis iš transporto priemonės kamerų ir nuspręsti, ką daryti pagal tuose vaizduose esančius duomenis. Tačiau yra tikimybė, kad AI analizuojami vaizdo duomenys nėra tikslus realaus pasaulio vaizdas. Kameros sistemos gedimas gali pakeisti kai kuriuos pikselius, todėl dirbtinis intelektas gali padaryti neteisingas išvadas apie tinkamą veiksmų eigą.

„Priešingos įvestys“ yra tarsi AI sistemos optinės iliuzijos. Tai yra įvestis, kuri tam tikra forma supainioja AI. Priešingos įvestis gali būti sukurtos turint aiškų tikslą priversti dirbtinį intelektą klysti, pateikiant duomenis taip, kad dirbtinis intelektas patikėtų, kad pavyzdžio turinys yra vienas dalykas, o ne kitas. Pavyzdžiui, galima sukurti priešingą kompiuterinės regos sistemos pavyzdį, šiek tiek pakeitus kačių vaizdus, ​​todėl AI klaidingai klasifikuoja vaizdus kaip kompiuterių monitorius. MIT tyrimų grupė sukūrė algoritmą, kuris padėtų apsisaugoti nuo priešingų pavyzdžių, leisdamas modeliui išlaikyti tam tikrą „skepticizmą“ dėl gaunamų duomenų.

MIT mokslininkai savo požiūrį pavadino „Sertifikuotu priešpriešiniu tvirtumu giliam mokymuisi“ arba CARRL. CARRL sudaro sustiprinimo mokymosi tinklas ir tradicinis giluminis neuroninis tinklas, sujungti kartu. Sustiprinimo mokymasis naudoja „atlygio“ sąvoką modeliui apmokyti, suteikiant modeliui proporcingai didesnį atlygį, kuo arčiau jis pasiekia savo tikslą. Sustiprinimo mokymosi modelis naudojamas treniruoti Deep Q-Netowrkk arba DQN. DQN veikia kaip tradiciniai neuroniniai tinklai, tačiau jie taip pat susieja įvesties vertes su atlygio lygiu, panašiai kaip mokymosi sustiprinimo sistemos.

CARRL veikia modeliuodama įvairių galimų įvesties duomenų verčių diapazoną.

Darant prielaidą, kad AI bando atsekti taško padėtį didesniame vaizde, AI mano, kad taško padėtis gali būti priešingos įtakos rezultatas, ir atsižvelgia į sritis, kuriose taškas galėtų būti vietoje jo. Tada tinklas priima sprendimus, remdamasis blogiausiu taško padėties scenarijumi, sprendžiant veiksmą, kuris atneštų didžiausią atlygį pagal šį blogiausią scenarijų.

Įprastas būdas apsisaugoti nuo priešingų pavyzdžių apima šiek tiek pakeistų įvesties vaizdo versijų paleidimą per AI tinklą, kad būtų galima pamatyti, ar visada priimamas tas pats sprendimas. Jei vaizdo pakeitimai nedaro didelės įtakos rezultatui, yra didelė tikimybė, kad tinklas bus atsparus priešingiems pavyzdžiams. Tačiau tai nėra perspektyvi strategija scenarijams, kai reikia priimti greitus sprendimus, nes tai yra daug laiko reikalaujantys ir skaičiavimo požiūriu brangūs testavimo metodai. Dėl šios priežasties MIT komanda nusprendė sukurti neuroninį tinklą, kuris galėtų priimti sprendimus remdamasis blogiausio atvejo prielaidomis, galintį veikti scenarijais, kai sauga yra labai svarbi.

MIT tyrėjai išbandė savo algoritmus leisdami dirbtiniam intelektui žaisti pongą. Jie įtraukė varžovų pavyzdžius, pateikdami AI atvejus, kai kamuolys buvo rodomas šiek tiek žemiau ekrano, nei buvo iš tikrųjų. Didėjant priešpriešinių pavyzdžių įtakai, standartiniai korekciniai metodai pradėjo žlugti, o CARRL sugebėjo laimėti daugiau žaidimų. CARRL taip pat buvo išbandytas atliekant susidūrimo išvengimo užduotį. Užduotis atsiskleidė virtualioje aplinkoje, kurioje du skirtingi agentai bandė keistis pozicijomis nesusidurdami. Tyrėjų komanda pakeitė pirmojo agento suvokimą apie antrąjį agentą ir CARRL sugebėjo sėkmingai nukreipti pirmąjį agentą aplink kitą agentą, net esant dideliam neapibrėžtumui, nors atėjo taškas, kai CARRL tapo per daug atsargus ir išvengė jo. tikslas apskritai.

Nepaisant to, MIT Aeronautikos ir astronautikos departamento postdoc Michael Everett, kuris vadovavo tyrimui, paaiškino, kad tyrimas gali turėti įtakos robotų gebėjimui susidoroti su nenuspėjamomis situacijomis. Kaip paaiškino Everetas per MIT naujienas:

„Žmonės gali būti priešiški, pavyzdžiui, stoti prieš robotą, kad užblokuotų jo jutiklius, arba bendrauti su jais, nebūtinai turėdami geriausių ketinimų“, – sako Everetas. „Kaip robotas gali galvoti apie viską, ką žmonės gali bandyti padaryti, ir bandyti jų išvengti? Nuo kokių priešiškų modelių norime gintis? Tai yra kažkas, ką mes galvojame, kaip tai padaryti.