stub Andrew Pery, eetikaevangelist, ABBYY – intervjuusari – Unite.AI
Ühenda meile

intervjuud

Andrew Pery, eetikaevangelist, ABBYY – intervjuusari

mm
Ajakohastatud on

Andrew Pery on ettevõtte eetikaevangelist ABBYY, digitaalse luure ettevõte. Need annavad organisatsioonidele juurdepääsu väärtuslikule, kuid sageli raskesti saavutatavale ülevaatele oma tegevusest, mis võimaldab ettevõtte tõelist ümberkujundamist.

ABBYY avaldas hiljuti a Ülemaailmne algatus usaldusväärse tehisintellekti arendamise edendamiseks. Otsustasime esitada Andrew’le küsimusi tehisintellekti eetika, tehisintellekti kuritarvitamise ja selle kohta, mida tehisintellekti tööstus saab nende probleemide lahendamiseks ette võtta.

Mis on see, mis tekitas teie huvi AI-eetika vastu?

Algselt tekitas minus huvi AI-eetika vastu sügav huvi seaduse ja tehisintellekti tehnoloogia ristumiskoha vastu. Alustasin oma karjääri kriminaalõigussüsteemis, esindades vaeseid süüdistatavaid, kellel ei olnud rahalisi vahendeid õigusteenuste pakkumiseks. Seejärel läksin üle tehnoloogiasse, keskendudes täiustatud otsingu ja tehisintellekti rakendamisele õiguspraktikas. Sertifitseeritud andmeprivaatsuse professionaalina suhtun eriti kirglikult privaatsusseadustesse ja tehisintellekti tehnoloogia õigesse kasutusse, mis on kooskõlas privaatsusõigustega ja suurendab neid.

Näotuvastustehnoloogiat kuritarvitavad sageli võimuallikad, sealhulgas USA valitsus. Kui suur see ühiskondlik mure peaks olema?

Näotuvastustehnoloogia tagajärjed peaksid olema ühiskonna jaoks oluline probleem, kuna see tehnoloogia võib mõjutada nii paljusid põhiõigusi, sealhulgas majanduslikke, sotsiaalseid ja turvaõigusi.

On selgeid ja veenvaid tõendeid selle kohta, et näotuvastusalgoritmid ei ole usaldusväärsed. An NIST uuring Näotuvastusalgoritmidest selgus, et afroameeriklastel oli kuni 100 korda suurem tõenäosus, et neid tuvastatakse valesti. Georgetowni õigusteaduskonna sarnases uuringus leiti, et kruusivõtetel põhinevad näotuvastusalgoritmid andsid suure protsendi valepositiivseid tulemusi, mis on seotud afroameeriklastega.  2018. aasta MIT-i uuring Amazoni näotuvastustarkvara kohta avastas, et kuigi valged mehed tuvastati täpselt 99% ajast, tekitasid tumedanahalised kuni 35% valepositiivseid tulemusi.

Just neil põhjustel hakkavad reguleerivad asutused astuma samme, et keelata näotuvastustehnoloogia kasutamine, eriti järelevalve ja profiilide koostamise kontekstis. Näiteks California senat läbis üleriigilise keelu näotuvastustehnoloogia ja muude biomeetriliste seiremeetodite kasutamise kohta.

Tehnikaringkondades on hoogu ka näotuvastustarkvara turundamisest loobumiseks. IBM teatas, et lõpetab näotuvastustarkvara müügi, viidates sellele, et see rikub põhilisi inimõigusi ja põhivabadusi. Microsoft teatas ka sarnasest otsusest lõpetada oma näotuvastustehnoloogia müük, viidates ka põhilistele inimõigustele.

Tarkvara COMPAS, mida USA kohtud on kuritegevuse riskide hindamiseks kasutanud, on ekslikult märgistanud nähtavad vähemusõigusrikkujad kui valgete õigusrikkujate korduva toimepanemise tõenäosus. Kas seda teades peaks AI kasutamine kohtutes isegi olema valik?

Uuringud COMPASist leidis, et ta ei ennusta kuritegusid paremini kui juhuslikud inimesed. Kuigi ennustav analüütika annab ärilises kontekstis märkimisväärset väärtust, on tõestatud, et see toob kaasa ebavõrdsuse selle rakendamisel kriminaalõiguses. See ilmneb a aru avaldas Pro Publica, kes leidis selle COMPAS, mis on USA kohtute kõige populaarsem tarkvara kuritegevuse riskide hindamiseks, märkis ekslikult, et nähtavad vähemusõigusrikkujad sooritavad kaks korda suurema tõenäosusega süütegusid kui valged õigusrikkujad.

Need ebavõrdsused ajendasid tollast peaprokuröri Eric Holderit kahtluse alla seadma õigluse ja väljendada muret võimaliku ebavõrdsuse kohta, mida tekitab tehisintellekti tehnoloogia rakendamine kurjategijate hulgas retsidiivsuse määra ennustamiseks.

Kuidas saab ühiskond vältida tahtmatut AI-süsteemide negatiivsete eelarvamuste programmeerimist?

Esiteks tuleb tunnistada, et tehisintellektil võib olla kalduvus tekitada tahtmatut eelarvamust, mida nimetatakse alateadlikuks eelarvamuseks. Selle kahjuliku mõju leevendamine nõuab terviklikku lähenemisviisi, mis koosneb eetiliste tehisintellekti juhiste väljatöötamisest, nagu on välja pakutud OECD eetikaraamistikus. See põhineb seitsmel aluspõhimõttel, sealhulgas inimeste tegutsemine ja järelevalve, tehniline vastupidavus ja ohutus, privaatsus ja juhtimine, läbipaistvus, mitmekesisus ja mittediskrimineerimine, ühiskondlik heaolu ja vastutus.

Teiseks on võtmetähtsusega automatiseeritud profiilide koostamise eest kaitsvate õigusraamistike järgimine. Näiteks on ELil olnud pikk ajalugu eraelu puutumatuse õiguste austamisel ja kaitsmisel, kusjuures kõige värskem ja võimsam väljend on isikuandmete kaitse üldmäärus (GDPR), mis kaitseb konkreetselt automatiseeritud otsuste tegemine.

Kolmandaks peab tööstusharu vastutama tehisintellekti tehnoloogia arendamise eest ja tagama läbipaistvuse, ilma et see mõjutaks nende varalisi intellektuaalomandi õigusi. Siin on positiivsed arengud. Näiteks Partnership on AI on organisatsioon, millel on üle 80 liikme 13 riigis ja mis on pühendunud tehisintellekti peamiste probleemide uurimisele ja arutelule.

Lõpetuseks peaksid tehnoloogiaorganisatsioonid täitma kohustust viia enne tehisintellekti algoritmide turuletoomist läbi eelarvamuste mõju hindamine, eriti kui nende rakendused mõjutavad privaatsust ja turvaõigusi. Tehnoloogiajuhid peaksid enne uute tehisintellektiga rakenduste avaldamist kaaluma järgmist: kas andmed, mille kohta seda tehnoloogiat koolitati, on piisavalt mitmekesised? Kuidas erapoolikust tuvastatakse? Kuidas seda testitakse ja kelle poolt? Millised on arendaja stiimulid? Kes saab sellest ärilist kasu?

Oluline on meeles pidada, et tehisintellekti lahendused kajastavad aluseks olevaid andmeid, mille kohta need rakendused on koolitatud, mistõttu on ülioluline tagada, et need andmed ei oleks kallutatud ja kajastaksid õigesti lahenduse kasutatavate komponentide mitmekesisust. AI-uurija professori sõnadega Joanna Bryson, "Kui aluseks olevad andmed peegeldavad stereotüüpe või kui treenite tehisintellekti inimkultuurist, leiate eelarvamusi. Ja kui me ei ole ettevaatlikud, riskime selle eelarvamusega integreerida arvutiprogrammidesse, mis võtavad kiiresti üle kõige juhtimise haiglatest koolide ja vanglateni – programmidesse, mis peaksid need eelarvamused ennekõike kõrvaldama.

ABBYY käivitas hiljuti ülemaailmse algatuse, mis edendab usaldusväärse tehisintellekti arendamist. Kui oluline on see algatus ABBYY tuleviku jaoks?

Otsus arendada meie globaalne algatus usaldusväärse AI jaoks on oluline otsus, mis on ajendatud meie veendumusest, et organisatsioonina, mille tehnoloogiad mõjutavad ettevõtteid üle maailma ja teenindavad kümneid tuhandeid üksikkasutajaid, on meil kohustus olla head korporatiivkodanikud, kellel on sotsiaalne südametunnistus. See mitte ainult ei aita tekitada meie ülemaailmsete klientide ja partnerite suuremat usaldust, vaid aitab ka tagada, et meie tehnoloogiad avaldavad jätkuvalt sügavat mõju viisil, mis toob kasu ühisele heaolule.

Samuti on äriliselt mõttekas edendada ja toetada AI usaldusväärset kasutamist. See tugevdab meie brändiväärtust, tekitab usaldust meie globaalsete klientide ja partnerite ökosüsteemi vastu. Usaldus väljendub korduvas äritegevuses ja jätkusuutlikus kasvus.

Osa sellest algatusest on ABBYY kohustus edendada kultuuri, mis edendab tehisintellekti eetilist kasutamist ja selle sotsiaalset kasulikkust. Mida tuleb teha, et teised ettevõtted edendaksid sarnast kultuuri?

Tehnoloogiaettevõtted peavad välja töötama raamistiku tehisintellekti eetiliseks kasutamiseks. Sellise kohustuse ulatus sõltub AI-algoritmide kavandatavatest rakendustest. Parim viis selle mõju mõõtmiseks on rakendada põhimõte ära tee kahju ja on ülalt alla pühendunud tehisintellekti usaldusväärsele kasutamisele.

Sama oluline on läbipaistvuse tagamine. Kuigi intellektuaalomandi õigused peaksid olema tasakaalus usaldusväärse tehisintellekti põhimõttega, tuleks tehisintellekti vastutustundliku kasutamise läbipaistvuse ja vastutuse tähtsust selgelt väljendada ja sellest teavitada kogu organisatsioonis.

Üks ABBYY algatusi on sotsiaalselt ja majanduslikult kasulike tehisintellekti tehnoloogiate pakkumine. Seda tasakaalu võib olla raske saavutada. Kuidas saavad ettevõtted seda kõige paremini rakendada?

Juhid saavad selle tasakaalu saavutada, võttes arvesse poolt pakutavaid soovitusi Deloitte: Tehisintellekti eetika kujundamine algab sidusrühmade (nt kliendid, töötajad, reguleerivad asutused ja üldsus) jaoks olulise tähtsusega. Ettevõtted peaksid moodustama funktsionaalsetest juhtidest ja välisnõustajatest spetsiaalse tehisintellekti juhtimis- ja nõuandekomitee, mis suhtleks mitme sidusrühmaga töörühmadega ning looks tehisintellekti toega lahenduste haldamise, sealhulgas nende kavandamise, arendamise, juurutamise ja kasutamise ning jälgiks nende juhtimist.

Viimati näitas koroonaviiruse pandeemia ajal, kuidas me tasakaalustame oma ärihuve ja sotsiaalset hüve. Tegime paljud oma tehnoloogiad tasuta või soodushinnaga kättesaadavaks, et aidata üksikisikutel ja organisatsioonidel kriisist üle saada, säilitada äritegevuse järjepidevust ja toetada oma kliente ettearvamatutes olukordades.

Samuti tegime hiljuti oma tehnoloogiaraamistikud kättesaadavaks NeoML, meie platvormideülene avatud lähtekoodiga masinõppeteek, mis võimaldab tarkvaraarendajatel kasutada AI innovatsiooni edendamiseks tõestatud ja usaldusväärseid mudeleid.

Kas saaksite jagada seisukohti COVID-19 rakenduste tehisintellekti kasutamise kohta kontaktide jälgimiseks ja privaatsusõiguse tasakaalustamise vajaduste kohta?

See on eriti murettekitav probleem. On neid, kes väidavad, et mobiilsete jälgimisrakenduste rakendamine kujutab endast soovimatut sekkumist privaatsusõigustesse. Teisest küljest, kui rääkida avalikust turvalisusest, on õigustel üldiselt alati piirangud. See on kompromiss õiguste ja kohustuste vahel. Samas ei ole õigused absoluutsed. Ülemaailmse pandeemia ohjeldamine nõuab kooskõlastatud tegevust ning ressursside ja tehnoloogiate rakendamist, mida saab vastutustundlikult kasutada elanikkonna kaitsmiseks laiemalt.

Seda tasakaalu üksikisiku privaatsusõiguste ja ühise hüve vahel tunnustatakse õigusraamistikus. Näiteks määratleb GDPR kuus isikut tuvastava teabe seadusliku töötlemise alust, sealhulgas säte, et kui töötlemine on avalikes huvides hädavajalik, on isikuandmete töötlemine õigustatud ilma andmesubjekti nõusolekuta.

Lisaks on GDPR-i põhjenduses 46 otseselt sätestatud, et isikuandmete töötlemine on õigustatud ilma andmesubjekti nõusolekuta humanitaarhädaolukordades, sealhulgas epideemiates. Siiski on oluline märkida, et põhjenduses 46 tõlgendatakse avaliku huvi sätte kohaldamist väga kitsalt, märkides, et see peaks toimuma ainult siis, kui see ei saa põhineda muul õiguslikul alusel.

Lisaks privaatsusõiguste ja avalike huvide tasakaalustamisele on tehnoloogiasektoril ja poliitikakujundajatel kohustus rakendada eetiliselt usaldusväärseid, läbipaistvaid ja õiglasi juhiseid, mis on seotud tehisintellektil põhineva profiili koostamise ja ülitundliku terviseteabe jagamisega. Suured tehnoloogiaettevõtted, sealhulgas Google ja Facebook, on juba alustanud algatusi kasutajate liikumise jälgimiseks, et tuvastada viiruse levik ja hinnata sotsiaalse distantseerumise meetmete tõhusust.

Usun, et seni, kuni teave on anonüümne, on selle kasutamine sotsiaalselt kasulik.

Kas on veel midagi, mida soovite jagada seoses ABBYY uue ülemaailmse algatusega, mis edendab usaldusväärse tehisintellekti arendamist?

Määrused kipuvad tehnoloogilisest innovatsioonist maha jääma, seetõttu peavad ettevõtted võtma ennetava rolli AI-tehnoloogiate läbipaistvuse ja vastutuse edendamisel ning nende mõju privaatsusele ja turvaõigustele. Meie algatus peegeldab meie pühendumust selles ettevõtmises. Alates asutamisest oleme loonud uuenduslikke tehnoloogiaid, mis säilitavad väärtuslikku teavet ja muudavad selle praktiliseks teadmiseks.

Lisaks ei tohiks tehisintellektitehnoloogiate eetilist kasutamist käsitleda mitte ainult õiguslikul alusel, vaid ka moraalse kohustusena ja ärilise kohustusena. Kui teie lahendused on kaugeleulatuvad ja mõjutavad ärikriitilisi funktsioone, peaks see olema tööstusharu standard, et olla tehisintellekti tehnoloogiate rakendamisel läbipaistev.

Tänan teid väga nendele olulistele küsimustele vastamise eest. ABBYY juhtpõhimõtete ja lähenemisviiside vaatamiseks usaldusväärsete tehisintellekti põhimõtete järgimisel ja propageerimisel palun kliki siia. Kõik, kes soovivad ABBYY kohta üldiselt rohkem teada saada, võivad külastada veebilehte ABBYY veebisait.

Unite.AI asutajapartner ja liige Forbesi tehnoloogianõukogu, Antoine on a futurist kes on kirglik tehisintellekti ja robootika tuleviku vastu.

Ta on ka asutaja Securities.io, veebisait, mis keskendub häirivasse tehnoloogiasse investeerimisele.