Inteligență artificială
Inteligența Artificială Poate Evita Anumite Comportamente Nedorite Cu Noi Algoritmi

Pe măsură ce algoritmii și sistemele de inteligență artificială devin mai sofisticați și își asumă responsabilități mai mari, devine din ce în ce mai important să se asigure că sistemele de inteligență artificială evită comportamentele periculoase și nedorite. Recent, o echipă de cercetători de la Universitatea din Massachusetts Amherst și Stanford a publicat o lucrare care demonstrează cum se poate evita un anumit comportament al inteligenței artificiale, prin utilizarea unei tehnici care solicită instrucțiuni matematice precise care pot fi utilizate pentru a ajusta comportamentul unei inteligențe artificiale.
Conform TechXplore, cercetarea a fost bazată pe ipoteza că comportamentele injuste sau nesigure pot fi definite cu funcții și variabile matematice. Dacă acest lucru este adevărat, atunci ar trebui să fie posibil pentru cercetători să instruiască sistemele pentru a evita aceste comportamente specifice. Echipa de cercetare a urmărit să dezvolte un set de instrumente care să poată fi utilizat de utilizatorii inteligenței artificiale pentru a specifica care comportamente doresc să evite, și să permită inginerilor de inteligență artificială să instruiască în mod fiabil un sistem care va evita acțiunile nedorite atunci când este utilizat în scenarii din lumea reală.
Phillip Thomas, primul autor al lucrării și profesor asistent de știință computerizată la U of Michigan Amherst, a explicat că echipa de cercetare urmărește să demonstreze că designerii de algoritmi de învățare automată pot face ca pentru utilizatorii de inteligență artificială să fie mai ușor să descrie comportamentele nedorite și să fie foarte probabil ca sistemul de inteligență artificială să evite comportamentul.
Echipa de cercetare a testat tehnica lor aplicând-o unei probleme comune în știința datelor, și anume biasul de gen. Echipa de cercetare a urmărit să facă algoritmii utilizați pentru a prezice media studenților mai echitabili, reducând biasul de gen. Echipa de cercetare a utilizat un set de date experimental și a instruit sistemul lor de inteligență artificială să evite crearea de modele care subestimau sau supraestimau media studenților pentru un anumit gen. Ca rezultat al instrucțiunilor cercetătorilor, algoritmul a creat un model care a prezis mai bine media studenților și a avut un bias sistemic de gen mult mai mic decât modelele existente. Modelele anterioare de prezicere a mediei studenților sufereau de bias pentru că modelele de reducere a biasului erau adesea prea limitate pentru a fi utile, sau nu se utilizau deloc.
O altă tehnică a fost dezvoltată de echipa de cercetare. Această tehnică a fost implementată într-o pompă de insulină automată, și algoritmul a fost destinat să echilibreze atât performanța, cât și siguranța. Pompelor de insulină automate trebuie să decidă cât de mare trebuie să fie doza de insulină care trebuie administrată unui pacient. După masă, pompa ar trebui să administreze o doză de insulină suficient de mare pentru a menține nivelul de zahăr din sânge sub control. Dozele de insulină care sunt administrate trebuie să fie nici prea mari, nici prea mici.
Algoritmii de învățare automată sunt deja pricepuți la identificarea modelelor în răspunsul unui individ la doze de insulină, dar metodele de analiză existente nu permit medicilor să specifice rezultatele care ar trebui să fie evitate, cum ar fi crizele de hipoglicemie. În contrast, echipa de cercetare a reușit să dezvolte o metodă care poate fi instruită pentru a administra doze de insulină care rămân între cele două extreme, prevenind atât subdozarea, cât și supradozarea. Deși sistemul nu este gata pentru testarea la pacienți reali încă, un sistem de inteligență artificială mai sofisticat, bazat pe această abordare, ar putea îmbunătăți calitatea vieții pentru cei care suferă de diabet.
În lucrarea de cercetare, cercetătorii se referă la algoritmul ca la un algoritm “Seledonian”. Acesta este o referință la cele trei legi ale roboticii descrise de autorul de science-fiction Isaac Asimov. Implicația este că sistemul de inteligență artificială “nu poate răni un om sau, prin inacțiune, permite unui om să sufere”. Echipa de cercetare speră că cadrul lor va permite cercetătorilor și inginerilor de inteligență artificială să creeze o varietate de algoritmi și sisteme care evită comportamentele periculoase. Emma Brunskill, autorul principal al lucrării și profesor asistent de știință computerizată la Stanford, a explicat pentru TechXplore:
“Vrem să promovăm inteligența artificială care respectă valorile utilizatorilor săi umani și justifică încrederea pe care o acordăm sistemelor autonome.”












