Connect with us

Robotică

Cercetătorii creează un robot care afișează empatie de bază față de un partener robot

mm

O cercetare recentă a reușit să înzestreze un robot cu o formă rudimentară de empatie, permițând robotului să prevadă obiectivele și acțiunile partenerului său robotic.

O echipă de ingineri de la Școala de Inginerie și Științe Aplicate a Universității Columbia a proiectat un robot care poate prevedea cu succes acțiunile și obiectivele unui robot partener, pe baza a câtorva cadre de videoclip. Inginerii susțin că robotul și inteligența sa artificială afișează o formă primitivă de empatie și că cercetările viitoare în acest domeniu ar putea ajuta la conferirea unui “teorie a minții” roboților.

Studiul recent a fost condus de profesorul Hod Lipson de la Laboratorul de Mașini Creative al Universității Columbia. Cercetarea efectuată de Lipson și echipa sa face parte dintr-un efort academic mai larg de a permite roboților să înțeleagă și să prevadă obiectivele altor roboți și, posibil, ale oamenilor. Această predicție trebuie efectuată în întregime prin analiza datelor colectate de senzori, în primul rând date vizuale.

Robotul observă robotul

Echipa de cercetători a construit un robot care să funcționeze într-un spațiu de joacă de aproximativ 6 metri pătrați. Robotul a fost programat să caute cercuri verzi și să se deplaseze spre acele cercuri verzi, dar nu toate cercurile verzi din spațiul de joacă erau vizibile robotului. Unele dintre cercurile verzi țintă erau ușor de văzut din poziția de start a robotului, dar alte cercuri erau ascunse în spatele unei cutii mari de carton.

Un al doilea robot a fost programat să observe primul robot, urmărind robotul din spațiul de joacă timp de aproximativ două ore. După ce a observat robotul partener, robotul observator a putut prevedea atât obiectivele, cât și traiectoriile partenerului său, majoritatea timpului. Robotul observator a putut prevedea corect traiectoria urmată de celălalt robot cu o acuratețe de 98%, chiar dacă robotul observator nu era conștient de incapacitatea robotului explorator de a vedea în spatele cutiei.

Unul dintre autorii principali ai studiului, Boyuan Chen, a explicat prin ScienceDaily că rezultatele studiului demonstrează capacitatea roboților de a interpreta lumea din perspectiva altui robot.

“Capacitatea observatorului de a se pune în pantofii partenerului său, pentru a spune așa, și de a înțelege, fără a fi condus, dacă partenerul său putea sau nu vedea cercul verde din punctul său de vedere, este poate o formă primitivă de empatie”, a explicat Chen.

Echipa de cercetare se aștepta ca robotul observator să poată prevedea acțiunile pe termen scurt ale robotului explorator, dar ceea ce au descoperit a fost că robotul observator nu numai că a putut prevedea acțiunile pe termen scurt, ci și acțiunile pe termen lung, pe baza a doar câtorva cadre de videoclip.

“Teoria minții”

În mod evident, comportamentele manifestate de robotul explorator sunt mai simple decât multe acțiuni efectuate de oameni, și, prin urmare, prevederea obiectivelor și comportamentelor umane este departe. Cu toate acestea, cercetătorii susțin că ceea ce este comun între prevederea acțiunilor unui om și ale unui robot este angajarea unei “teorii a minții”. Cercetările psihologice sugerează că oamenii încep să dezvolte o teorie a minții în jurul vârstei de trei ani. O teorie a minții este necesară pentru cooperare, empatie și înșelăciune. Echipa de cercetare speră că cercetările ulterioare asupra tehnologiei care conduce interacțiunile dintre roboții lor vor ajuta oamenii de știință să dezvolte roboți și mai sofisticați.

Așa cum s-a menționat, în timp ce empatia este de obicei descrisă ca o trăsătură pozitivă care permite cooperarea, ea este, de asemenea, necesară pentru acțiuni mai negative, cum ar fi înșelăciunea. Pentru a înșela cu succes pe cineva, trebuie să înțelegi dorințele și intențiile sale. Acest lucru ridică unele întrebări etice, deoarece, odată ce roboții pot potențial înșela oamenii, ce îi împiedică să fie folosiți de actori răi pentru a manipula și a extorca oameni?

În timp ce robotul observator a fost antrenat exclusiv pe date de imagine, Lipson crede că, în principiu, un sistem predictiv similar ar putea fi proiectat pe baza limbajului uman, notând că oamenii adesea își imaginează lucrurile în mintea lor, gândindu-se vizual.

Eforturile echipei de cercetare din Columbia fac parte dintr-o mișcare mai largă de a înzestra inteligența artificială cu o teorie a minții și empatie. Euan Matthews, director de inovare și inteligență artificială la Contact Engine, a argumentat recent că, pentru ca inteligențele artificiale să devină mai empatici, acestea vor trebui să poată lua în considerare multiple intenții, nu doar una. Oamenii au adesea multiple intenții, uneori dorințe și sentimente contradictorii despre un subiect, și inteligențele artificiale vor trebui să devină mai flexibile atunci când se confruntă cu intenționalitatea umană.

Blogger și programator cu specializări în Machine Learning și Deep Learning subiecte. Daniel speră să ajute pe alții să folosească puterea inteligenței artificiale pentru binele social.