tynkä Juliette Powell & Art Kleiner, The AI ​​Dilemma - haastattelusarjan kirjoittajat - Unite.AI
Liity verkostomme!

Haastattelut

Juliette Powell & Art Kleiner, The AI ​​Dilemma – haastattelusarjan kirjoittajat

mm

Julkaistu

 on

AI Dilemman ovat kirjoittaneet Juliette Powell & Art Kleiner.

Juliette Powell on kirjailija, television luoja, jolla on 9,000 130 live-ohjelmaa, sekä teknologia- ja sosiologi. Hän on myös kommentaattori Bloomberg TV/ Business News Networksissa ja puhuja Economistin ja International Finance Corporationin järjestämissä konferensseissa. Hänen TED-puheensa on katsottu YouTubessa XNUMX XNUMX kertaa. Juliette tunnistaa menestyneiden yritysjohtajien mallit ja käytännöt, jotka hyödyntävät eettistä tekoälyä ja dataa voittaakseen. Hän on opettajana NYU:n ITP:ssä, jossa hän opettaa neljää kurssia, mukaan lukien Design Skills for Responsible Media -kurssi, joka perustuu hänen kirjaansa.

"AI dilemma” on kirja, joka keskittyy tekoälyteknologian vaaroihin väärissä käsissä ja tunnustaa silti tekoälyn yhteiskunnalle tarjoamat edut.

Ongelmia syntyy, koska taustalla oleva tekniikka on niin monimutkaista, että loppukäyttäjän on mahdotonta todella ymmärtää suljetun laatikon järjestelmän sisäistä toimintaa.

Yksi merkittävimmistä korostetuista kysymyksistä on se, miten vastuullisen tekoälyn määritelmä muuttuu jatkuvasti, koska yhteiskunnalliset arvot eivät usein pysy johdonmukaisina ajan myötä.

Nautin "The AI ​​Dilemman" lukemisesta. Se on kirja, joka ei tee sensaatiomaiseksi tekoälyn vaaroja tai sukeltaa syvälle tekoälyn (AGI) mahdollisiin sudenkuoppiin. Sen sijaan lukijat oppivat yllättävistä tavoista, joilla henkilötietojamme käytetään tietämättämme, sekä joistakin tekoälyn nykyisistä rajoituksista ja syistä huoleen.

Alla on muutamia kysymyksiä, joiden tarkoituksena on näyttää lukijoillemme, mitä he voivat odottaa tältä uraauurtavalta kirjalta.

Mikä alun perin inspiroi sinua kirjoittamaan "The AI ​​Dilemma"?

Juliette meni Kolumbiaan osittain tutkimaan tekoälyn säätelyn rajoja ja mahdollisuuksia. Hän oli kuullut tekoälyprojektien parissa työskenteleviltä ystäviltä ensi käden noihin projekteihin liittyvästä jännitteestä. Hän tuli siihen tulokseen, että tekoäly-dilemma oli paljon suurempi ongelma kuin itsesääntely. Hän kehitti Apexin benchmark-mallin – mallin siitä, kuinka tekoälyä koskevissa päätöksissä oli alhainen vastuu yritysten ja ryhmien välisten yritysten välisten vuorovaikutusten vuoksi. Se johti hänen väitöskirjaansa.

Art oli työskennellyt Julietten kanssa useissa kirjoitusprojekteissa. Hän luki hänen väitöskirjansa ja sanoi: "Sinulla on kirja täällä." Juliette kutsui hänet yhteiskirjoittajaksi. Yhdessä työskennellessään he huomasivat, että heillä oli hyvin erilaisia ​​näkökulmia, mutta heillä oli vahva näkemys siitä, että tämä monimutkainen, erittäin riskialtista tekoälyilmiötä olisi ymmärrettävä paremmin, jotta sitä käyttävät ihmiset voisivat toimia vastuullisemmin ja tehokkaammin.

Yksi The AI ​​Dilemma -kirjassa korostetuista perusongelmista on se, kuinka tällä hetkellä on mahdotonta ymmärtää, onko tekoälyjärjestelmä vastuullinen vai ylläpitääkö se sosiaalista eriarvoisuutta yksinkertaisesti tutkimalla sen lähdekoodia. Kuinka suuri ongelma tämä on?

Ongelma ei ole ensisijaisesti lähdekoodissa. Kuten Cathy O'Neil huomauttaa, kun on olemassa suljettu järjestelmä, se ei ole vain koodi. Se on sosiotekninen järjestelmä - inhimilliset ja teknologiset voimat, jotka muokkaavat toisiaan - jota on tutkittava. Tekoälyjärjestelmän rakentamiseen ja julkaisuun perustuva logiikka sisälsi tarkoituksen tunnistamisen, datan tunnistamisen, prioriteettien asettamisen, mallien luomisen, ohjeiden ja suojakaiteiden asettamisen koneoppimiselle sekä sen päättämisen, milloin ja miten ihmisen tulisi puuttua asiaan. Tämä on se osa, joka on tehtävä läpinäkyväksi - ainakin tarkkailijoille ja tarkastajille. Sosiaalisen eriarvoisuuden ja muiden riskien riski on paljon suurempi, kun nämä prosessin osat piilotetaan. Suunnittelulogiikkaa ei todellakaan voi suunnitella uudelleen lähdekoodista.

Voi keskittyä Selitettävä AI (XAI) on koskaan käsitellyt tätä?

Insinööreille selitettävissä oleva tekoäly on tällä hetkellä joukko teknisiä rajoitteita ja käytäntöjä, joiden tarkoituksena on tehdä malleista läpinäkyvämpiä niiden parissa työskenteleville ihmisille. Jollekin, jota syytetään väärin, selitettävyydellä on aivan eri merkitys ja kiireellinen merkitys. He tarvitsevat selitettävyyttä voidakseen työntää omaa puolustustaan. Me kaikki tarvitsemme selitettävyyttä siinä mielessä, että mallien taustalla olevat liike- tai hallituspäätökset tehdään selkeiksi. Ainakin Yhdysvalloissa tulee aina olemaan jännite selitettävyyden – ihmiskunnan oikeuden tietää – ja organisaation oikeuden kilpailla ja innovoida välillä. Tilintarkastajat ja sääntelijät tarvitsevat eri tason selitettävyyttä. Käsittelemme tätä yksityiskohtaisemmin AI-dilemmassa.

Voitko kertoa lyhyesti näkemyksesi siitä, kuinka tärkeää on pitää sidosryhmät (AI-yritykset) vastuussa koodista, jonka ne julkaisevat maailmalle?

Toistaiseksi esimerkiksi Tempe, AZ itse ajavan auton törmäyksessä, jossa kuoli jalankulkija, kuljettaja oli vastuussa. Yksilö joutui vankilaan. Lopulta se oli kuitenkin organisatorinen epäonnistuminen.

Kun silta romahtaa, koneinsinööri on vastuussa. Tämä johtuu siitä, että mekaaniset insinöörit koulutetaan, koulutetaan jatkuvasti uudelleen ja he ovat vastuussa ammattinsa puolesta. Tietokoneinsinöörit eivät ole.

Pitäisikö sidosryhmiä, mukaan lukien tekoälyyritykset, kouluttaa ja kouluttaa uudelleen tekemään parempia päätöksiä ja enemmän vastuuta?

AI Dilemma keskittyi paljon siihen, kuinka yritykset, kuten Google ja Meta, voivat kerätä ja kaupallistaa henkilötietojamme. Voitko jakaa esimerkin tietojemme merkittävästä väärinkäytöstä, jonka pitäisi olla kaikkien tutkassa?

Tekoälydilemmasta sivulta 67 eteenpäin:

Uudet järjestelmälliset henkilötietojen väärinkäyttötapaukset nousevat edelleen julkisuuteen, ja moniin liittyy kasvojentunnistuksen salainen käyttö. Joulukuussa 2022 MIT Technology Review julkaisi selostuksia pitkäaikaisesta iRobot-käytännöstä. Roomban kotitalousrobotit tallentavat kuvia ja videoita, jotka on otettu vapaaehtoisten beta-testaajien kodeissa, mikä tarkoittaa väistämättä intiimien henkilökohtaisten ja perheeseen liittyvien kuvien keräämistä. Nämä jaetaan testaajien tietämättä ryhmille maan ulkopuolella. Ainakin yhdessä tapauksessa Facebookiin julkaistiin kuva yksilöstä wc:ssä. Samaan aikaan Iranissa viranomaiset ovat alkaneet käyttää kasvojentunnistusjärjestelmien tietoja jäljittääkseen ja pidättääkseen naisia, jotka eivät käytä hijabeja.16

Näitä tarinoita on turha jatkaa. Niitä on niin paljon. On kuitenkin tärkeää tunnistaa tällaisen elämisen kumulatiivinen vaikutus. Menetämme elämämme hallinnan tunteen, kun tunnemme, että yksityisiä tietojamme saatetaan käyttää meitä vastaan ​​milloin tahansa ilman varoitusta.

Eräs vaarallinen käsite, joka tuotiin esille, on se, kuinka koko maailmamme on suunniteltu kitkaton, ja kitkan määritelmä on "mikä tahansa kohta asiakkaan matkalla yrityksen kanssa, jossa hän törmää hankaluuksiin, joka hidastaa häntä tai aiheuttaa tyytymättömyyttä". Kuinka odotuksemme kitkattomasta kokemuksesta voi johtaa vaaralliseen tekoälyyn?

Uudessa-Seelannissa Pak'n'Saven taitava ateriabotti ehdotti reseptiä, joka synnyttäisi kloorikaasua, jos sitä käytetään. Tätä mainostettiin asiakkaiden tapana käyttää ylijäämät ja säästää rahaa.

Kitkattomuus luo illuusion hallinnasta. On nopeampaa ja helpompaa kuunnella sovellusta kuin etsiä mummon reseptiä. Ihmiset seuraavat vähimmän vastustuksen polkua eivätkä ymmärrä, mihin se heidät vie.

Kitka sitä vastoin on luovaa. Tulet mukaan. Tämä johtaa todelliseen valvontaan. Todellinen hallinta vaatii huomiota ja työtä sekä – tekoälyn tapauksessa – laajennetun kustannus-hyötyanalyysin tekemistä.

Hallitsemisen illuusiossa tuntuu kuin elämme maailmassa, jossa tekoälyjärjestelmät kannustavat ihmisiä sen sijaan, että ihmiset pysyisivät täysin hallinnassa. Mitä esimerkkejä voit antaa ihmisistä, jotka uskovat kollektiivisesti hallitsevansa, vaikka todellisuudessa heillä ei ole sitä?

San Francisco juuri nyt, robottaksin kanssa. Ajatus itseohjautuvista takseista herättää yleensä kaksi ristiriitaista tunnetta: jännitystä ("taksit paljon halvemmalla!") ja pelkoa ("oskeeko ne minua?"). Siksi monet sääntelijät ehdottavat, että autoja testataan ihmisten kanssa. kuka voi hallita ohjaimia. Valitettavasti ihmisten valppaus, valmiina ohittamaan järjestelmät reaaliajassa, ei välttämättä ole hyvä testi yleiselle turvallisuudelle. Yliluottamus on usein dynamiikkaa tekoälyjärjestelmissä. Mitä autonomisempi järjestelmä, sitä enemmän inhimilliset toimijat yleensä luottavat siihen eivätkä kiinnitä täyttä huomiota. Kyllästymme seuraamaan näitä teknologioita. Kun onnettomuus on todella tapahtumassa, emme odota sitä emmekä usein reagoi ajoissa.

Tätä kirjaa on tutkittu paljon, oliko jokin, mikä yllätti sinut?

Yksi asia, joka todella yllätti meidät, oli se, että ihmiset ympäri maailmaa eivät päässeet yksimielisyyteen siitä, kenen pitäisi elää ja keneen pitäisi kuolla Moraalikoneen simulaatio itse ajavan auton törmäyksestä. Jos emme pääse tästä yksimielisyyteen, on vaikea kuvitella, että meillä voisi olla yhtenäinen globaali hallinto tai yleismaailmalliset standardit tekoälyjärjestelmille.

Kuvailette itseänne yrittäjiksi, miten opitut ja raportoimasi asiat vaikuttavat tuleviin pyrkimyksiinne?

AI Advisory -käytäntömme on suunnattu auttamaan organisaatioita kasvamaan vastuullisesti teknologian avulla. Lakimiehet, insinöörit, yhteiskuntatieteilijät ja liikeajattelijat ovat kaikki sidosryhmiä tekoälyn tulevaisuudessa. Työssämme tuomme kaikki nämä näkökulmat yhteen ja harjoittelemme luovaa kitkaa löytääksemme parempia ratkaisuja. Olemme kehittäneet puitteita, kuten tahallisen riskin laskennan, auttamaan näiden ongelmien ratkaisemisessa.

Kiitos loistavista vastauksista, lukijoiden, jotka haluavat tietää lisää, kannattaa käydä AI dilemma.

Unite.AI:n perustajaosakas ja jäsen Forbes Technology Council, Antoine on a futurist joka on intohimoinen tekoälyn ja robotiikan tulevaisuudesta.

Hän on myös perustaja Securities.io, verkkosivusto, joka keskittyy investoimaan häiritsevään teknologiaan.