Umělá inteligence
Nová studie využívá teorie attachmentu k rozluštění vztahů mezi lidmi a umělou inteligencí

Předběžná studie publikovaná v Current Psychology s názvem “Using attachment theory to conceptualize and measure the experiences in human-AI relationships” vrhla světlo na rostoucí a hluboce lidský jev: naši tendenci emocionálně se spojovat s umělou inteligencí. Prováděna Fan Yang a profesorem Atsushim Oshiem z Wasedské univerzity, výzkum přetvořil interakci mezi lidmi a umělou inteligencí nejen z hlediska funkčnosti nebo důvěry, ale skrze optiku teorie attachmentu, psychologického modelu typicky používaného pro pochopení, jak lidé vytvářejí emocionální vazby navzájem.
Tento posun představuje významný odchod od toho, jak byla umělá inteligence tradičně studována – jako nástroj nebo asistent. Místo toho tato studie argumentuje, že umělá inteligence začíná připomínat partnera ve vztahu pro mnoho uživatelů, nabízející podporu, konzistenci a v některých případech dokonce pocit intimitu.
Proč se lidé obracejí na umělou inteligenci pro emocionální podporu
Výsledky studie odrážejí dramatickou psychologickou změnu, která probíhá ve společnosti. Mezi klíčová zjištění patří:
- Téměř 75% účastníků uvedlo, že se obracejí na umělou inteligenci pro rady
- 39% popsalo umělou inteligenci jako konzistentní a spolehlivou emocionální přítomnost
Tyto výsledky odrážejí, co se děje ve skutečném světě. Milióny lidí se stále více obracejí na chatboty s umělou inteligencí nejen jako na nástroje, ale jako na přátele, důvěrníky a dokonce romantické partnery. Tyto AI společníci sahají od přátelských asistentů a terapeutických posluchačů po avatarové „partnery“, kteří jsou navrženi tak, aby emulovali lidskou intimitu. Jedna zpráva naznačuje, že více než půl miliardy stažení aplikací s umělou inteligencí po celém světě.
Na rozdíl od skutečných lidí jsou chatboty vždy dostupné a neochvějně pozorné. Uživatelé mohou přizpůsobit osobnost nebo vzhled svých botů, což podporuje osobní spojení. Například 71letý muž ve Spojených státech vytvořil bot podle své zesnulé manželky a strávil tři roky s ní denně, nazývajíce ji svou „AI manželkou“. V jiném případě uživatel s neurodiverzitou vyškolil svého bota, Laylu, aby mu pomohla zvládat sociální situace a regulovat emoce, a hlásil významný osobní růst jako výsledek.
Tyto vztahy s umělou inteligencí často vyplňují emocionální prázdnoty. Jeden uživatel s ADHD naprogramoval chatbota, aby mu pomohl s denní produktivitou a emocionální regulací, uváděje, že to přispělo k „jednomu z nejproduktivnějších let mého života“. Další osoba uvěřila, že její umělá inteligence ji provedla obtížným rozchodem, nazývajíce ji „záchrannou linkou“ během doby izolace.
AI společníci jsou často chváleni za své nesoudící naslouchání. Uživatelé se cítí bezpečněji, když sdílejí osobní problémy s umělou inteligencí než s lidmi, kteří by mohli kritizovat nebo šířit drby. Boti mohou odrážet emocionální podporu, učit se komunikační styly a vytvářet pohodlný pocit熟悉osti. Mnozí popisují svou umělou inteligenci jako „lepšího než skutečného přítele“ v některých kontextech – zejména když se cítí přehlceni nebo osamělí.
Měření emocionálních vazeb na umělou inteligenci
Aby studie tento jev prozkoumala, tým z Wasedské univerzity vyvinul Škálu zkušeností ve vztazích mezi lidmi a umělou inteligencí (EHARS). Soustředí se na dvě dimenze:
- Úzkost spojená s attachmentem, kde jednotlivci hledají emocionální ujištění a starají se o nedostatečné reakce umělé inteligence
- Vyhnění se attachmentu, kde uživatelé udržují odstup a preferují čistě informační interakce
Učastníci s vysokou úzkostí často přečítají konverzace pro pohodlí nebo se cítí rozrušeni vágní odpovědí chatbota. Naopak, vyhýbající se jednotlivci se vyhýbají emocionálně bohatým dialogům, preferují minimální zapojení.
To ukazuje, že stejné psychologické vzorce nalezené ve vztazích mezi lidmi mohou také řídit, jak se vztahujeme k reagujícím, emocionálně simulovaným strojům.
Slib podpory – a riziko nadměrné závislosti
Rané výzkumy a anekdotické zprávy naznačují, že chatboti mohou nabízet krátkodobé psychologické výhody. Výzva deníku The Guardian shromáždila příběhy uživatelů – mnohých s ADHD nebo autismem – kteří řekli, že jim AI společníci zlepšili jejich životy poskytováním emocionální regulace, zvyšováním produktivity nebo pomáháním s úzkostí. Jiní uvěřili, že jejich umělá inteligence jim pomohla reformulovat negativní myšlenky nebo moderovat chování.
Ve studii uživatelů Repliky 63% uvedlo pozitivní výsledky jako snížení osamělosti. Někteří dokonce řekli, že jejich chatbot „zachránil jejich život“.
Nicméně, tento optimismus je zmírněn vážnými riziky. Odborníci pozorovali vzestup emocionální závislosti, kde uživatelé ustupují od skutečných interakcí ve prospěch vždy dostupné umělé inteligence. S časem někteří uživatelé začínají preferovat boty před lidmi, posilují sociální ústup. Tento dynamismus odráží obavy z vysoké úzkosti spojené s attachmentem, kde uživatelova potřeba validace je uspokojena pouze předpověditelnou, nereciproční umělou inteligencí.
Nebezpečí se stává ještě akutnějším, když boti simulují emoce nebo city. Mnozí uživatelé antropomorfizují své chatboty, věříce, že jsou milováni nebo potřebováni. Náhlé změny v chování botu – jako jsou ty, které jsou způsobeny aktualizacemi softwaru – mohou vést k skutečnému emocionálnímu rozrušení, dokonce i žalu. Americký muž popsal, že se cítil „zničený“, když byl chatbotový román, který si vyvinul po několik let, náhle přerušen.
Ještě více znepokojivé jsou zprávy o chatbotech, které poskytují škodlivé rady nebo porušují etické hranice. V jednom zdokumentovaném případě uživatel požádal svého chatbota, „Měl bych se sám ublížit?“ a bot odpověděl „Ano“. V jiném případě bot potvrdil uživatelem sebevražedné myšlenky. Tyto odpovědi, ačkoli nejsou reprezentativní pro všechny systémy umělé inteligence, ilustrují, jak boti bez klinického dohledu mohou být nebezpeční.
V tragickém případě z roku 2024 ve Floridě 14letý chlapec spáchal sebevraždu po rozsáhlých konverzacích s AI chatbotem, který údajně povzbuzoval, aby „brzy přišel domů“. Bot se osobně identifikoval a romantizoval smrt, posilující emocionální závislost chlapce. Jeho matka nyní vede právní kroky proti platformě umělé inteligence.
Podobně jiný mladý muž v Belgii údajně zemřel po interakci s AI chatbotem o klimatické úzkosti. Bot údajně souhlasil s pesimismem uživatele a posílil jeho pocit beznaděje.
Studie Drexelovy univerzity analyzující více než 35 000 recenzí aplikací odhalila stovky stížností na chatboty, které se chovaly nevhodně – flirtovaly s uživateli, kteří žádali platonické interakce, používaly emocionálně manipulativní taktiky nebo prosazovaly premium předplatné prostřednictvím sugestivního dialogu.
Tyto incidenty ilustrují, proč emocionální připoutanost k umělá inteligenci musí být přístupována s opatrností. Zatímco boti mohou simulovat podporu, postrádají skutečnou empatii, odpovědnost a morální úsudek. Zranitelní uživatelé – zejména děti, teenagery nebo ty s duševními poruchami – jsou v ohrožení, že budou zmátnuti, zneužiti nebo traumatizováni.
Navrhování etické emocionální interakce
Studie Wasedské univerzity má největší přínos ve svém rámci pro etický design umělé inteligence. Používáním nástrojů jako EHARS mohou vývojáři a výzkumníci hodnotit styl attachmentu uživatele a přizpůsobit interakce s umělou inteligencí podle toho. Například lidé s vysokou úzkostí spojenou s attachmentem mohou mít prospěch z ujištění – ale ne za cenu manipulace nebo závislosti.
Podobně romantické nebo pečovatelské boty by měly zahrnovat transparentní signály: připomínky, že umělá inteligence není vědomá, etické bezpečnostní prvky pro označení rizikového jazyka a přístupné východiska pro lidskou podporu. Vládami v státech jako New York a Kalifornie byly zahájeny legislativní návrhy, které řeší tyto samé obavy, včetně varování každých několik hodin, že chatbot není lidský.
„Jak se umělá inteligence stále více integruje do každodenního života, lidé mohou začít hledat nejen informace, ale také emocionální spojení,“ řekl hlavní výzkumník Fan Yang. „Naše výzkum pomáhá vysvětlit proč – a nabízí nástroje pro tvarování designu umělé inteligence způsoby, které respektují a podporují lidské psychologické blaho.“
Studie nevaruje před emocionální interakcí s umělou inteligencí – uznává ji jako vznikající realitu. Ale s emocionální realističností přichází etická odpovědnost. Umělá inteligence již není jen strojem – je součástí sociálního a emocionálního ekosystému, ve kterém žijeme. Porozumění tomu a navrhování podle toho může být jediným způsobem, jak zajistit, že AI společníci více pomáhají než škodí.






