Stumm Juliette Powell & Art Kleiner, Auteuren vum The AI ​​Dilemma - Interview Series - Unite.AI
Connect mat eis

Interviewen

Juliette Powell & Art Kleiner, Auteuren vum The AI ​​Dilemma - Interview Series

mm

publizéiert

 on

Den AI Dilemma ass geschriwwen vum Juliette Powell & Art Kleiner.

Juliete Powell ass en Auteur, en Fernsehcreator mat 9,000 Live Shows ënner hirem Rimm, an en Technolog a Soziolog. Si ass och e Kommentator op Bloomberg TV / Business News Networks an e Spriecher op Konferenzen organiséiert vum Economist an der International Finance Corporation. Hir TED Talk huet 130K Meenungen op YouTube. D'Juliette identifizéiert d'Musteren an d'Praktike vun erfollegräiche Geschäftsleit, déi op ethesch AI an Daten bankéieren fir ze gewannen. Si ass op der Fakultéit op der NYU's ITP wou si véier Coursen léiert, dorënner Design Skills for Responsible Media, e Cours baséiert op hirem Buch.

"Den AI Dilemma” ass e Buch dat sech op d'Gefore vun der AI Technologie an de falschen Hänn konzentréiert, wärend d'Virdeeler déi AI fir d'Gesellschaft ubitt unerkennen.

Probleemer entstinn well d'Basisdaten Technologie sou komplex ass datt et fir den Endbenotzer onméiglech gëtt déi bannenzeg Aarbechte vun engem zouenen Box System wierklech ze verstoen.

Ee vun de bedeitendsten Themen beliicht ass wéi d'Definitioun vu verantwortlechen AI ëmmer verännert, well gesellschaftlech Wäerter dacks net konsequent mat der Zäit bleiwen.

Ech hu ganz gär "The AI ​​Dilemma" gelies. Et ass e Buch dat d'Gefore vun der AI net sensationaliséiert oder déif an déi potenziell Falen vun der Artificial General Intelligence (AGI) verdéiwen. Amplaz léieren d'Lieser iwwer déi iwwerraschend Manéier wéi eis perséinlech Donnéeën ouni eis Wëssen benotzt ginn, souwéi e puer vun den aktuellen Aschränkungen vun AI a Grënn fir Suergen.

Drënner sinn e puer Froen déi entwéckelt sinn fir eise Lieser ze weisen wat se vun dësem banebriechende Buch erwaarden kënnen.

Wat huet Iech am Ufank inspiréiert fir "The AI ​​Dilemma" ze schreiwen?

D'Juliette ass deelweis op Columbia gaangen fir d'Limiten an d'Méiglechkeeten vun der Reguléierung vun AI ze studéieren. Si hat éischthand vu Frënn héieren, déi un AI-Projeten schaffen, iwwer d'Spannungen, déi an dëse Projeten inherent sinn. Si ass zur Conclusioun komm datt et en AI Dilemma gëtt, e vill méi grousse Problem wéi Selbstreguléierung. Si huet den Apex Benchmark Modell entwéckelt - e Modell vu wéi Entscheedungen iwwer AI op eng geréng Verantwortung tendéieren wéinst den Interaktiounen tëscht Firmen a Gruppen bannent Firmen. Dat huet zu hirer Dissertatioun gefouert.

Art hat mat Juliette un enger Rei vu Schreifprojete geschafft. Hien huet hir Dissertatioun gelies a gesot: "Dir hutt e Buch hei." D'Juliette huet hien invitéiert et matzeschaffen. Wann se zesumme schaffen, hunn se entdeckt datt si ganz verschidde Perspektiven hunn, awer eng staark Meenung gedeelt datt dëst komplext, héich riskant AI Phänomen besser verstee muss, fir datt d'Leit et benotze kënnen méi verantwortlech an effektiv handelen.

Ee vun de fundamentale Probleemer, déi am The AI ​​Dilemma beliicht ass, ass wéi et de Moment onméiglech ass ze verstoen ob en AI System verantwortlech ass oder ob et sozial Ongläichheet behält andeems se einfach säi Quellcode studéieren. Wéi grouss ass dëst Problem?

De Problem ass net primär mam Quellcode. Wéi d'Cathy O'Neil drop higewisen, wann et e zougemaach-Box System ass, ass et net nëmmen de Code. Et ass de soziotechnesche System - déi mënschlech an technologesch Kräften déi sech géigesäiteg formen - dee muss exploréiert ginn. D'Logik, déi den AI-System gebaut a verëffentlecht huet, huet involvéiert en Zweck z'identifizéieren, Daten z'identifizéieren, d'Prioritéite setzen, Modeller ze kreéieren, Richtlinnen a Schutzschirmer opzestellen fir Maschinnléieren, an ze entscheeden wéini a wéi e Mënsch soll intervenéieren. Dat ass deen Deel dee muss transparent gemaach ginn - op d'mannst fir Observateuren an Auditeuren. De Risiko vu sozialer Ongläichheet an aner Risiken si vill méi grouss wann dës Deeler vum Prozess verstoppt sinn. Dir kënnt d'Designlogik net wierklech aus dem Quellcode nei konstruéieren.

Kann op konzentréieren Erklärbar AI (XAI) jeemools dëst adresséiert?

Fir Ingenieuren ass erklärbar AI de Moment als eng Grupp vun technologeschen Aschränkungen a Praktiken geduecht, fir d'Modeller méi transparent ze maachen fir d'Leit un hinnen ze schaffen. Fir een dee falsch virgeworf gëtt, huet d'Erklärbarkeet eng ganz aner Bedeitung an Dringendes. Si brauchen Erklärbarkeet fir an hirer eegener Verteidegung zréckzedrécken. Mir brauchen all Erklärbarkeet am Sënn fir d'Geschäfts- oder Regierungsentscheedungen déi d'Modeller ënnersträichen kloer ze maachen. Op d'mannst an den USA gëtt et ëmmer eng Spannung tëscht Erklärbarkeet - d'Recht vun der Mënschheet ze wëssen - an d'Recht vun enger Organisatioun fir ze konkurréieren an ze innovéieren. Auditeuren a Reguléierer brauchen en aneren Niveau vun der Erklärbarkeet. Mir ginn op dëst méi am Detail am AI Dilemma.

Kënnt Dir kuerz Är Meenung iwwer d'Wichtegkeet deelen fir Akteuren (AI Firmen) verantwortlech ze halen fir de Code deen se an d'Welt verëffentlechen?

Bis elo, zum Beispill an der Tempe, AZ Self-Driven Auto Kollisioun, déi e Foussgänger ëmbruecht huet, gouf de Bedreiwer verantwortlech gemaach. Eng Persoun ass an de Prisong gaang. Schlussendlech war et awer en organisatoresche Feeler.

Wann eng Bréck zesummeklappt, gëtt de mechanesche Ingenieur verantwortlech gemaach. Dat ass well mechanesch Ingenieuren trainéiert ginn, kontinuéierlech nei ausgebilt ginn a vun hirem Beruff verantwortlech gemaach ginn. Computer Ingenieuren sinn net.

Sollten Akteuren, dorënner AI Firmen, trainéiert a retrainéiert ginn fir besser Entscheedungen ze huelen a méi Verantwortung ze hunn?

Den AI Dilemma konzentréiert sech vill op wéi Firme wéi Google a Meta eis perséinlech Donnéeën ernte kënnen an monetiséieren. Kënnt Dir e Beispill vu bedeitende Mëssbrauch vun eisen Donnéeën deelen, déi op jidderee säi Radar solle sinn?

Aus dem AI Dilemma, Säit 67ff:

Nei Fäll vu systematesche Mëssbrauch vu perséinlechen Date komme weider an d'ëffentlech Vue op, vill involvéiert geheime Gebrauch vu Gesiichtserkennung. Am Dezember 2022, MIT Technology Review publizéiert Konte vun enger laangjäreger iRobot Praxis. Roomba Haushaltsroboter notéieren Biller a Videoe gemaach an de fräiwëllegen Beta-Tester Haiser, wat zwangsleefeg bedeit intim perséinlech a familiäre Biller ze sammelen. Dës ginn, ouni d'Bewosstsinn vun den Tester, mat Gruppen ausserhalb vum Land gedeelt. Op d'mannst ee Fall gouf e Bild vun engem Individuum op enger Toilette op Facebook gepost. Mëttlerweil hunn d'Autoritéiten am Iran ugefaang Daten aus Gesiichtserkennungssystemer ze benotzen fir Fraen ze verfolgen an ze verhaften déi keng Hijabs droen.16

Et ass net néideg dës Geschichten weider ze belaaschten. Et ginn esou vill vun hinnen. Et ass awer wichteg de kumulative Effekt vum Liewen op dës Manéier z'identifizéieren. Mir verléieren eise Sënn fir Kontroll iwwer eist Liewen ze hunn wa mir mengen datt eis privat Informatioune géint eis benotzt kënne ginn, zu all Moment, ouni Warnung.

E geféierlecht Konzept dat opgeworf gouf ass wéi eis ganz Welt entwéckelt ass fir Reibung ze sinn, mat der Definitioun vu Reibung ass "all Punkt op der Rees vum Client mat enger Firma wou se e Schrack treffen deen se verlangsamt oder Onzefriddenheet verursaacht." Wéi féiert eis Erwaardung vun enger Reibungsloser Erfahrung potenziell zu geféierlechen AI?

An Neuseeland huet e Pak'n'Save erfuerene Mielbot e Rezept proposéiert dat Chlorgas géif kreéieren wa se benotzt gëtt. Dëst gouf gefördert als e Wee fir Clienten d'Iwwerreschter ze benotzen a Suen ze spueren.

Frictionlessness schaaft eng Illusioun vu Kontroll. Et ass méi séier a méi einfach d'App ze lauschteren wéi d'Rezept vun der Bomi nozekucken. D'Leit verfollegen de Wee vun der mannsten Resistenz a realiséiere net wou et se bréngt.

Reibung, am Géigesaz, ass kreativ. Dir maacht Iech mat. Dëst féiert zu tatsächlech Kontroll. Tatsächlech Kontroll erfuerdert Opmierksamkeet an Aarbecht, an - am Fall vun AI - eng erweidert Käschte-Virdeeler Analyse maachen.

Mat der Illusioun vu Kontroll fillt et sech wéi wann mir an enger Welt liewen wou AI Systemer d'Mënschen opfuerderen, anstatt datt d'Mënschen voll a Kontroll bleiwen. Wat sinn e puer Beispiller, déi Dir vu Mënsche ka ginn, déi kollektiv gleewen datt se Kontroll hunn, wann se wierklech keng hunn?

San Francisco grad elo, mat Robotaxis. D'Iddi vu selbstfueren Taxien tendéiert zwee konfliktend Emotiounen opzebréngen: Opreegung ("Taxien zu vill méi niddrege Käschte!") An Angscht ("wäerten se mech schloen?") Also proposéiere vill Reguléierer datt d'Autoen mat de Leit getest ginn an hinnen, déi d'Kontrollen verwalten kann. Leider kann d'Mënschen op Alarm sinn, prett fir Systemer an Echtzäit ze iwwerschreiden, vläicht net e gudden Test vun der ëffentlecher Sécherheet. Iwwervertrauen ass eng heefeg Dynamik mat AI Systemer. Wat méi autonom de System ass, wat méi mënschlech Betreiber tendéieren et ze trauen an net voll Opmierksamkeet ze bezuelen. Mir langweilen iwwer dës Technologien kucken. Wann en Accident eigentlech amgaang ass ze geschéien, erwaarden mir et net a reagéiere dacks net zu Zäit.

Vill Fuerschung ass an dëst Buch gaang, war et eppes wat Iech iwwerrascht huet?

Eng Saach, déi eis wierklech iwwerrascht huet, war datt d'Leit ronderëm d'Welt sech net eens konnten iwwer wien soll liewen a wien stierwe soll D'Moral Maschinn Simulatioun vun enger selbstfahrenden Autokollisioun. Wa mir net domat averstane sinn, dann ass et schwéier virzestellen datt mir eng vereenegt global Gouvernance oder universell Standarde fir AI Systemer hätten.

Dir beschreiwt Iech allebéid als Entrepreneuren, wéi beaflosst dat wat Dir geléiert a gemellt hutt Är zukünfteg Efforten?

Eis AI Advisory Praxis ass orientéiert fir Organisatiounen ze hëllefen verantwortlech mat der Technologie wuessen. Affekoten, Ingenieuren, Sozialwëssenschaftler a Geschäftsdenker sinn all Akteuren an der Zukunft vun AI. An eiser Aarbecht bréngen mir all dës Perspektiven zesummen a praktizéieren kreativ Reibung fir besser Léisungen ze fannen. Mir hunn Kaderen entwéckelt wéi de Berechnung vum virsätzleche Risiko fir dës Themen ze navigéieren.

Merci fir déi super Äntwerten, Lieser déi méi gewuer ginn solle besichen Den AI Dilemma.

A founding partner of unite.AI & e Member vun der Forbes Technology Council, Den Antoine ass a futuristesch déi passionéiert ass iwwer d'Zukunft vun AI & Robotik.

Hien ass och de Grënner vun Securities.io, eng Websäit déi sech op d'Investitioun an d'Stéierungstechnologie konzentréiert.