taló Els supòsits habituals sobre el mal funcionament de l'aprenentatge automàtic podrien ser incorrectes - Unite.AI
Connecteu-vos amb nosaltres

Intel·ligència Artificial

Els supòsits habituals sobre el mal funcionament de l'aprenentatge automàtic podrien ser incorrectes

actualitzat on

Les xarxes neuronals profundes són un dels aspectes més fonamentals de la intel·ligència artificial (IA), ja que s'utilitzen per processar imatges i dades mitjançant modelització matemàtica. Són responsables d'alguns dels majors avenços en el camp, però també funcionen malament de diverses maneres. Aquestes avaries poden tenir un impacte petit o inexistent, com ara una simple identificació errònia, a un de més dramàtic i mortal, com ara un mal funcionament de la conducció automàtica.

Una nova investigació que surt de la Universitat de Houston suggereix que les nostres suposicions comunes sobre aquests mal funcionaments poden ser incorrectes, cosa que podria ajudar a avaluar la fiabilitat de les xarxes en el futur.

El document es va publicar a Intel·ligència de la màquina natural al novembre.

"Exemples adversaris"

L'aprenentatge automàtic i altres tipus d'IA són crucials en molts sectors i tasques, com ara els sistemes bancaris i de ciberseguretat. Segons Cameron Buckner, professor associat de filosofia a la UH, hi ha d'haver una comprensió dels fracassos provocats per "exemples adversaris". Aquests exemples adversaris es produeixen quan un sistema de xarxa neuronal profunda jutja malament les imatges i altres dades quan troba informació fora de les entrades d'entrenament que es van utilitzar per desenvolupar la xarxa.

Els exemples adversaris són rars, ja que moltes vegades són creats o descoberts per una altra xarxa d'aprenentatge automàtic.

"Alguns d'aquests esdeveniments adversaris podrien ser, en canvi, artefactes, i hem de saber millor què són per saber com de fiables són aquestes xarxes", va escriure Buckner.

Buckner diu que el mal funcionament podria ser causat per la interacció entre els patrons reals implicats i el que la xarxa es proposa processar, el que significa que no és un error complet.

Els patrons com a artefactes

"Entendre les implicacions dels exemples adversaris requereix explorar una tercera possibilitat: que almenys alguns d'aquests patrons siguin artefactes", va dir Buckner. "Així, en l'actualitat hi ha costos en simplement descartar aquests patrons i perills en utilitzar-los ingènuament".

Tot i que no és així tot el temps, la malversació intencionada és el risc més alt pel que fa a aquests esdeveniments adversaris que causen mal funcionament de l'aprenentatge automàtic.

"Vol dir que els actors maliciosos podrien enganyar els sistemes que depenen d'una xarxa d'una altra manera fiable", va dir Buckner. "Això té aplicacions de seguretat".

Pot ser que pirates informàtics infringeixin un sistema de seguretat basat en la tecnologia de reconeixement facial o senyals de trànsit etiquetats incorrectament per confondre els vehicles autònoms.

Altres investigacions anteriors han demostrat que alguns dels exemples adversaris es produeixen de manera natural, i tenen lloc quan un sistema d'aprenentatge automàtic malinterpreta les dades mitjançant una interacció no prevista, que és diferent a la dels errors de les dades. Aquests exemples naturals són rars i l'única manera actual de descobrir-los és mitjançant la IA.

Tanmateix, Buckner diu que els investigadors han de replantejar-se les maneres en què aborden les anomalies.

Aquestes anomalies, o artefactes, són explicades per Buckner a través de l'analogia d'una reflexió de la lent en una fotografia, que no és causada per un defecte en la lent de la càmera sinó per la interacció de la llum amb la càmera.

Si hom sap interpretar el flair de la lent, es pot extreure informació important com la ubicació del sol. Per això, Buckner creu que és possible extreure informació igualment valuosa d'esdeveniments adversos de l'aprenentatge automàtic que són causats per l'artefacte.

Buckner també diu que tot això no vol dir automàticament que l'aprenentatge profund no sigui vàlid.

"Alguns d'aquests esdeveniments adversaris podrien ser artefactes", va dir. "Hem de saber quins són aquests artefactes perquè puguem saber com de fiables són les xarxes".

Alex McFarland és un periodista i escriptor d'IA que explora els últims desenvolupaments en intel·ligència artificial. Ha col·laborat amb nombroses startups i publicacions d'IA a tot el món.