stub Tyrėjai kuria algoritmus, kuriais siekiama užkirsti kelią blogam elgesiui naudojant AI – Unite.AI
Susisiekti su mumis

Etika

Tyrėjai kuria algoritmus, kuriais siekiama užkirsti kelią blogam elgesiui naudojant AI

mm
Atnaujinta on

Kartu su visais dirbtinio intelekto pažanga ir pranašumais, kuriuos iki šiol demonstravo dirbtinis intelektas, taip pat buvo pranešimų apie nepageidaujamus šalutinius poveikius, tokius kaip rasinis ir lyčių šališkumas dirbtinio intelekto srityje. Kaip ir sciencealert.com kelia klausimą "kaip mokslininkai gali užtikrinti, kad pažangios mąstymo sistemos būtų teisingos ar net saugios?

Atsakymas gali būti Stanfordo ir kitų tyrėjų ataskaita Masačusetso universitetas Amherst, pavadintas Užkirsti kelią nepageidaujamam intelektualiųjų mašinų elgesiui. Kaip eurekaalert.org savo pasakojime apie šią ataskaitą pažymi, kad dirbtinis intelektas dabar pradeda tvarkyti jautrias užduotis, todėl „politikos formuotojai primygtinai reikalauja, kad kompiuterių mokslininkai užtikrintų, jog automatizuotos sistemos buvo sukurtos taip, kad sumažintų arba visiškai išvengtų nepageidaujamų pasekmių, pvz., per didelės rizikos, rasinės ir lyčių šališkumas“.

Ši mokslininkų grupė pristatė ataskaitą „apibrėžia naują techniką, kuri neaiškią tikslą, pvz., lyčių šališkumo išvengimą, paverčia tiksliais matematiniais kriterijais, kurie leistų mašininio mokymosi algoritmui išmokyti dirbtinio intelekto programą, kad būtų išvengta tokio elgesio.

Tikslas buvo kaip Emma Brunskill, Stanfordo kompiuterių mokslo docentė ir vyresnioji straipsnio autorė, pabrėžia, kad „mes norime tobulinti dirbtinį intelektą, kuris gerbia savo vartotojų vertybes ir pateisina mūsų pasitikėjimą autonominėmis sistemomis“.

Idėja buvo apibrėžti „nesaugūs“ arba „nesąžiningi“ rezultatai arba elgesys matematiškai. Pasak mokslininkų, tai leistų „sukurti algoritmus, kurie galėtų mokytis iš duomenų, kaip su dideliu pasitikėjimu išvengti šių nepageidaujamų rezultatų“.

Antrasis tikslas buvo „sukurti metodų rinkinį, kuris padėtų vartotojams lengvai nurodyti, kokio pobūdžio nepageidaujamą elgesį jie nori apriboti, ir leistų mašininio mokymosi dizaineriams užtikrintai numatyti, kad sistema, apmokyta naudojant praeities duomenis, gali būti patikima, kai ji bus taikoma realiai. pasaulio aplinkybės“.

„ScienceAlert“ teigia, kad komanda pavadino šią naują sistemą  „Seldoniški“ algoritmai, pagal pagrindinį Izaoko Asimovo veikėją Pagrindas mokslinės fantastikos romanų serija. PHilipas Thomasas, Masačusetso Amhersto universiteto kompiuterių mokslų docentas ir pirmasis šio straipsnio autorius, „Jei naudoju Seldonijos algoritmą diabetas gydymas, galiu patikslinti, kad nepageidaujamas elgesys reiškia pavojingai mažą cukraus kiekį kraujyje arba hipoglikemiją. 

„Galiu pasakyti aparatui: „Nors bandote tobulinti insulino pompos valdiklį, nedarykite pakeitimų, kurie padidintų hipoglikemijos dažnį“. Dauguma algoritmų nesuteikia būdo taikyti tokio tipo elgesio apribojimus; ji nebuvo įtraukta į ankstyvuosius dizainus.

Tomas priduria, kad „ši Seldonijos sistema leis mašinų mokymosi dizaineriams lengviau sukurti elgesio vengimo instrukcijas į įvairius algoritmus taip, kad jie galėtų įvertinti tikimybę, kad apmokytos sistemos tinkamai veiks realiame pasaulyje.

Savo ruožtu Emma Brunskill tai taip pat pažymi „Visuomenei vis labiau pasikliaujant dirbtiniu intelektu, labai svarbu galvoti apie tai, kaip galime sukurti algoritmus, kurie geriausiai gerbia tokias vertybes kaip saugumas ir sąžiningumas.

Buvęs JT diplomatas ir vertėjas, šiuo metu laisvai samdomas žurnalistas/rašytojas/tyrėjas, daugiausia dėmesio skiriantis šiuolaikinėms technologijoms, dirbtiniam intelektui ir šiuolaikinei kultūrai.