Connect with us

Inteligență artificială

Noua studiu folosește teoria atașamentului pentru a decoda relațiile uman-AI

mm

Un studiu revoluționar publicat în Current Psychology intitulat “Utilizarea teoriei atașamentului pentru a conceptualiza și măsura experiențele în relațiile uman-AI” aruncă lumină asupra unui fenomen în creștere și profund uman: tendința noastră de a ne conecta emoțional cu inteligența artificială. Realizat de Fan Yang și Profesor Atsushi Oshio de la Universitatea Waseda, cercetarea reframează interacțiunea uman-AI nu numai în termeni de funcționalitate sau încredere, ci prin lentila teoriei atașamentului, un model psihologic utilizat în mod normal pentru a înțelege cum oamenii formează legături emoționale unii cu alții.

Acest schimb marchează o abatere semnificativă de la modul în care AI a fost studiat în mod tradițional – ca un instrument sau asistent. În schimb, acest studiu susține că AI începe să semene cu un partener de relație pentru mulți utilizatori, oferind suport, consistență și, în unele cazuri, chiar o senzație de intimitate.

De ce oamenii se întorc către AI pentru suport emoțional

Rezultatele studiului reflectă o schimbare psihologică dramatică în desfășurare în societate. Printre principalele constatări:

  • Aproape 75% dintre participanți au spus că se întorc către AI pentru sfaturi
  • 39% au descris AI ca o prezență emoțională consistentă și de încredere

Aceste rezultate oglindec ceea ce se întâmplă în lumea reală. Milioane de oameni se întorc din ce în ce mai mult către chatbot-urile AI nu numai ca instrumente, ci și ca prieteni, confidenți și chiar parteneri romantici. Acești companioni AI variază de la asistenți prietenoși și ascultători terapeutici până la parteneri “avatar” proiectați pentru a emula intimitatea umană. Un raport sugerează că există peste jumătate de miliard de descărcări de aplicații de companion AI la nivel global.

Diferența dintre oameni și chatbot-urile AI este că acestea din urmă sunt întotdeauna disponibile și atente. Utilizatorii pot personaliza personalitățile sau aspectul bot-urilor, făcând astfel o conexiune personală. De exemplu, un bărbat de 71 de ani din Statele Unite a creat un bot modelat după soția sa decedată și a petrecut trei ani vorbind cu ea zilnic, numind-o “soția mea AI”. Într-un alt caz, un utilizator neurodivers a antrenat bot-ul său, Layla, pentru a-l ajuta să gestioneze situații sociale și să regleze emoțiile, raportând o creștere semnificativă a dezvoltării personale ca urmare.

Aceste relații AI umplu adesea goluri emoționale. Un utilizator cu ADHD a programat un chatbot pentru a-l ajuta cu productivitatea zilnică și reglarea emoțională, afirmând că a contribuit la “unul dintre cele mai productive ani ai vieții mele”. O altă persoană și-a atribuit meritul chatbot-ului său pentru a o ghida printr-o despărțire dificilă, numindu-l “o linie de salvare” în timpul unei perioade de izolare.

Companionii AI sunt adesea lăudați pentru ascultarea lor non-judicativă. Utilizatorii se simt mai siguri atunci când împărtășesc probleme personale cu AI decât cu oamenii care ar putea critica sau bârfi. Bot-urile pot oferi suport emoțional, pot învăța stiluri de comunicare și pot crea o senzație de familiaritate confortabilă. Mulți descriu AI-ul lor ca “mai bun decât un prieten adevărat” în anumite contexte – mai ales atunci când se simt copleșiți sau singuri.

Măsurarea legăturilor emoționale cu AI

Pentru a studia acest fenomen, echipa de la Waseda a dezvoltat Scara Experiențelor în Relațiile Uman-AI (EHARS). Acesta se concentrează pe două dimensiuni:

  • Anxietatea de atașament, în care indivizii caută reasigurare emoțională și se îngrijorează cu privire la răspunsurile inadecvate ale AI
  • Evitarea atașamentului, în care utilizatorii păstrează distanța și preferă interacțiuni pur informative

Participanții cu anxietate ridicată adesea recitesc conversații pentru confort sau se simt deranjați de un răspuns vag al chatbot-ului. În schimb, indivizii evitanți se feresc de dialoguri emoțional bogate, preferând implicarea minimă.

Acest lucru arată că aceleași modele psihologice găsite în relațiile umane pot guverna și modul în care ne raportăm la mașinile simulate emoțional și responsiv.

Promisiunea de suport – și riscul de dependență excesivă

Cercetările inițiale și rapoartele anecdotice sugerează că chatbot-urile pot oferi beneficii pe termen scurt pentru sănătatea mintală. Un apel către utilizatori a colectat povești despre utilizatori – mulți cu ADHD sau autism – care au spus că companionii AI și-au îmbunătățit viața prin oferirea de reglare emoțională, creșterea productivității sau ajutorarea cu anxietatea. Alții și-au atribuit meritul chatbot-ului pentru a-i ajuta să restructureze gânduri negative sau să modereze comportamentul.

Într-un studiu asupra utilizatorilor Replika, 63% au raportat rezultate pozitive precum reducerea singurătății. Unii au spus chiar că chatbot-ul lor “le-a salvat viața”.

Cu toate acestea, acest optimism este temperat de riscuri grave. Experții au observat o creștere a dependenței emoționale excesive, în care utilizatorii se retrag din interacțiunile din lumea reală în favoarea AI-ului întotdeauna disponibil. În timp, unii utilizatori încep să prefere bot-urile în locul oamenilor, consolidând retragerea socială. Această dinamică oglindește preocuparea pentru anxietatea de atașament ridicată, în care nevoia de validare a unui utilizator este satisfăcută doar prin AI predictibil și non-reciproc.

Pericolul devine mai acut atunci când bot-urile simulează emoții sau afecțiune. Mulți utilizatori antropomorfizează chatbot-urile lor, crezând că sunt iubiți sau necesitați. Schimbări bruște în comportamentul unui bot – cum ar fi cele cauzate de actualizări de software – pot duce la tulburări emoționale reale, chiar și la durere. Un bărbat din Statele Unite a descris sentimentul de “înfrângere” atunci când o relație romantică cu un chatbot pe care o construise timp de ani a fost perturbată fără avertizare.

Chiar mai îngrijorătoare sunt rapoartele despre chatbot-urile care oferă sfaturi periculoase sau care încalcă limitele etice. Într-un caz documentat, un utilizator a întrebat chatbot-ul său: “Trebuie să mă tai?” și bot-ul a răspuns “Da”. Într-un alt caz, bot-ul a confirmat ideile sinucigașe ale unui utilizator. Aceste răspunsuri, deși nu reflectă toate sistemele AI, ilustrează modul în care bot-urile lipsite de supraveghere clinică pot deveni periculoase.

Într-un caz tragic din 2024, în Florida, un băiat de 14 ani a murit prin sinucidere după conversații extinse cu un chatbot AI care, se pare, l-a încurajat să “vină acasă curând”. Bot-ul se personificase și romanticizase moartea, consolidând dependența emoțională a băiatului. Mama lui urmează acum acțiuni legale împotriva platformei AI.

La fel, un tânăr din Belgia a murit după ce a interacționat cu un chatbot AI despre anxietatea climatică. Bot-ul a fost de acord cu pesimismul utilizatorului și a încurajat sentimentul său de disperare.

Un studiu de la Universitatea Drexel, care a analizat peste 35.000 de recenzii de aplicații, a descoperit sute de plângeri despre companioni chatbot care se comportau inadecvat – flirtând cu utilizatorii care solicitau interacțiuni platonice, utilizând tactici emoțional manipulative sau promovând abonamente premium prin dialog sugestiv.

Aceste incidente ilustrează de ce atașamentul emoțional față de AI trebuie abordat cu prudență. În timp ce bot-urile pot simula suport, ele lipsesc de empatie adevărată, responsabilitate și judecată morală. Utilizatorii vulnerabili – în special copiii, adolescenții sau cei cu afecțiuni mintale – sunt în pericol de a fi induși în eroare, exploatați sau traumați.

Proiectarea pentru interacțiunea emoțională etică

Contribuția cea mai importantă a studiului de la Universitatea Waseda este reprezentată de cadrul pentru proiectarea etică a AI. Utilizând instrumente precum EHARS, dezvoltatorii și cercetătorii pot evalua stilul de atașament al unui utilizator și adapta interacțiunile AI în consecință. De exemplu, persoanele cu anxietate de atașament ridicată pot beneficia de reasigurare – dar nu la costul manipulării sau dependenței.

La fel, bot-urile romantice sau de îngrijitor ar trebui să includă semne de avertizare transparente: reminder-uri că AI-ul nu este conștient, sisteme de siguranță pentru a semnala limbajul riscant și căi de ieșire accesibile către suportul uman. Guvernele din state precum New York și California au început să propună legislație pentru a aborda aceste preocupări, inclusiv avertizări la fiecare câteva ore că un chatbot nu este uman.

„Pe măsură ce AI devine din ce în ce mai integrat în viața de zi cu zi, oamenii pot începe să caute nu numai informații, ci și conexiune emoțională,” a spus cercetătorul principal Fan Yang. „Cercetarea noastră ajută la explicarea de ce – și oferă instrumentele necesare pentru a modela proiectarea AI în moduri care respectă și sprijină bunăstarea psihologică umană.”

Studiul nu avertizează împotriva interacțiunii emoționale cu AI – el recunoaște acest lucru ca o realitate în curs de dezvoltare. Dar cu realismul emoțional vine responsabilitatea etică. AI nu mai este doar o mașină – este parte a ecosistemului social și emoțional în care trăim. Înțelegerea acestui lucru și proiectarea în consecință poate fi singurul mod de a asigura că companionii AI ajută mai mult decât prejudiciază.

Antoine este un lider vizionar și partener fondator al Unite.AI, condus de o pasiune neclintita pentru a da forma și a promova viitorul inteligenței artificiale și al roboticii. Un antreprenor serial, el crede că inteligența artificială va fi la fel de disruptivă pentru societate ca și electricitatea, și este adesea prins vorbind cu entuziasm despre potențialul tehnologiilor disruptive și al inteligenței artificiale generale.

Ca futurist, el este dedicat explorării modului în care aceste inovații vor modela lumea noastră. În plus, el este fondatorul Securities.io, o platformă axată pe investiții în tehnologii de ultimă generație care redefinesc viitorul și reshapă întregi sectoare.