Connect with us

Inteligență artificială

Presupuneri comune despre defectările învățării automate ar putea fi greșite

mm

Rețelele neuronale profunde sunt una dintre cele mai fundamentale aspecte ale inteligenței artificiale (AI), deoarece sunt utilizate pentru a procesa imagini și date prin modelare matematică. Ele sunt responsabile pentru unele dintre cele mai mari progrese în domeniu, dar ele pot defecta și în diferite moduri. Aceste defectări pot avea un impact mic sau inexistent, cum ar fi o simplă identificare greșită, sau unul mai dramatic și mortal, cum ar fi o defecțiune a unui vehicul autonom.

Noi cercetări efectuate la Universitatea din Houston sugerează că presupunerile noastre comune despre aceste defectări ar putea fi greșite, ceea ce ar putea ajuta la evaluarea fiabilității rețelelor în viitor.

Articolul a fost publicat în Nature Machine Intelligence în luna noiembrie.

„Exemple adversariale”

Învățarea automată și alte tipuri de inteligență artificială sunt cruciale în multe sectoare și sarcini, cum ar fi sistemele bancare și de securitate cibernetică. Conform lui Cameron Buckner, profesor asociat de filozofie la UH, trebuie să existe o înțelegere a eșecurilor cauzate de „exemple adversariale”. Aceste exemple adversariale apar atunci când un sistem de rețea neuronală profundă judecă greșit imagini și alte date atunci când întâlnesc informații din afara intrărilor de antrenament utilizate pentru a dezvolta rețeaua.

Exemplele adversariale sunt rare, deoarece de multe ori sunt create sau descoperite de altă rețea de învățare automată.

„Unele dintre aceste evenimente adversariale ar putea fi, de fapt, artefacte, și avem nevoie să le cunoaștem mai bine pentru a ști cât de fiabile sunt aceste rețele”, a scris Buckner.

Buckner spune că defectarea ar putea fi cauzată de interacțiunea dintre modelele reale implicate și ceea ce rețeaua încearcă să proceseze, ceea ce înseamnă că nu este o greșeală completă.

Modele ca artefacte

„Înțelegerea implicațiilor exemplarelor adversariale necesită explorarea unei a treia posibilități: că cel puțin unele dintre aceste modele sunt artefacte”, a spus Buckner. „Prin urmare, există în prezent atât costuri în a descărca pur și simplu aceste modele, cât și pericole în a le utiliza în mod naiv”.

Deși nu este cazul tot timpul, malversațiunea intenționată este cel mai mare risc în ceea ce privește aceste evenimente adversariale care cauzează defectări ale învățării automate.

„Înseamnă că actori malefici ar putea păcăli sisteme care se bazează pe o rețea altfel fiabilă”, a spus Buckner. „Acest lucru are aplicații de securitate”.

Acest lucru ar putea fi hackeri care sparg un sistem de securitate bazat pe tehnologia de recunoaștere facială sau semne de circulație etichetate greșit pentru a confunda vehiculele autonome.

Alte cercetări anterioare au demonstrat că unele dintre exemplele adversariale sunt naturale, apărând atunci când un sistem de învățare automată interpretează greșit datele prin interacțiunea neașteptată, care este diferită de erorile din date. Aceste exemple naturale sunt rare, și singura modalitate curentă de a le descoperi este prin intermediul inteligenței artificiale.

Cu toate acestea, Buckner spune că cercetătorii trebuie să reevalueze modurile în care abordează anomaliile.

Aceste anomalii, sau artefacte, sunt explicate de Buckner prin analogia unei reflexii a obiectivului într-o fotografie, care nu este cauzată de o defecțiune a obiectivului, ci de interacțiunea luminii cu aparatul.

Dacă știi cum să interpretezi reflexia, poți extrage informații importante, cum ar fi locația soarelui. Din cauza acestui fapt, Buckner crede că este posibil să extragem informații la fel de valoroase din evenimentele adverse în învățarea automată, care sunt cauzate de artefacte.

Buckner spune, de asemenea, că toate acestea nu înseamnă neapărat că învățarea profundă nu este valabilă.

„Unele dintre aceste evenimente adversariale ar putea fi artefacte”, a spus el. „Trebuie să știm ce sunt aceste artefacte pentru a putea ști cât de fiabile sunt rețelele”.

Alex McFarland este un jurnalist și scriitor de inteligență artificială, care explorează cele mai recente dezvoltări în domeniul inteligenței artificiale. El a colaborat cu numeroase startup-uri de inteligență artificială și publicații din întreaga lume.