cung Juliette Powell & Art Kleiner, Autorë të Dilemës së AI - Seria e intervistave - Unite.AI
Lidhu me ne

intervistat

Juliette Powell & Art Kleiner, Autorë të Dilemës së AI – Seria e Intervistave

mm

Publikuar

 on

Dilema e AI është shkruar nga Juliette Powell & Art Kleiner.

Xhulietae Powell është një autore, një krijuese televizive me 9,000 shfaqje live nën brezin e saj dhe një teknologe dhe sociologe. Ajo është gjithashtu një komentuese në Bloomberg TV/Business News Networks dhe folëse në konferencat e organizuara nga Economist dhe International Finance Corporation. Fjalimi i saj në TED ka 130 mijë shikime në YouTube. Juliette identifikon modelet dhe praktikat e liderëve të suksesshëm të biznesit që përdorin inteligjencën artificiale etike dhe të dhëna për të fituar. Ajo është në fakultet në ITP të NYU ku jep katër kurse, duke përfshirë Aftësitë e Dizajnit për Mediat e Përgjegjshme, një kurs i bazuar në librin e saj.

"Dilema e AI” është një libër që fokusohet në rreziqet e teknologjisë së AI në duart e gabuara, ndërkohë që pranon ende përfitimet që AI ofron për shoqërinë.

Problemet lindin sepse teknologjia themelore është kaq komplekse saqë bëhet e pamundur për përdoruesin përfundimtar të kuptojë me të vërtetë funksionimin e brendshëm të një sistemi me kuti të mbyllura.

Një nga çështjet më të rëndësishme të theksuara është se si përkufizimi i AI përgjegjëse po ndryshon gjithmonë, pasi vlerat shoqërore shpesh nuk mbeten të qëndrueshme me kalimin e kohës.

Më pëlqeu mjaft duke lexuar "Dilema e AI". Është një libër që nuk sensacionalizon rreziqet e inteligjencës artificiale dhe nuk gërmon thellë në grackat e mundshme të Inteligjencës së Përgjithshme Artificiale (AGI). Në vend të kësaj, lexuesit mësojnë për mënyrat befasuese se si përdoren të dhënat tona personale pa dijeninë tonë, si dhe disa nga kufizimet aktuale të AI dhe arsyet për shqetësim.

Më poshtë janë disa pyetje që janë krijuar për t'u treguar lexuesve tanë se çfarë mund të presin nga ky libër themelor.

Çfarë ju frymëzoi fillimisht për të shkruar "Dilema e AI"?

Juliette shkoi pjesërisht në Kolumbi për të studiuar kufijtë dhe mundësitë e rregullimit të AI. Ajo kishte dëgjuar drejtpërdrejt nga miqtë që punonin në projektet e AI për tensionin e natyrshëm në ato projekte. Ajo arriti në përfundimin se kishte një dilemë të AI, një problem shumë më i madh se vetërregullimi. Ajo zhvilloi modelin e standardit Apex - një model se si vendimet për AI prireshin drejt përgjegjësisë së ulët për shkak të ndërveprimeve midis kompanive dhe grupeve brenda kompanive. Kjo çoi në disertacionin e saj.

Art kishte punuar me Juliette në një numër projektesh shkrimi. Ai lexoi disertacionin e saj dhe tha: "Ke një libër këtu". Juliette e ftoi atë të bashkautoriste. Duke punuar së bashku për të, ata zbuluan se kishin këndvështrime shumë të ndryshme, por ndanë një pikëpamje të fortë se ky fenomen kompleks dhe shumë i rrezikshëm i AI do të duhej të kuptohej më mirë në mënyrë që njerëzit që e përdorin atë të mund të vepronin me më shumë përgjegjësi dhe efektivitet.

Një nga problemet themelore që theksohet në Dilemën e AI është se si aktualisht është e pamundur të kuptohet nëse një sistem i AI është përgjegjës ose nëse ai përjetëson pabarazinë sociale thjesht duke studiuar kodin e tij burimor. Sa problem i madh është ky?

Problemi nuk është kryesisht me kodin burimor. Siç thekson Cathy O'Neil, kur ka një sistem me kuti të mbyllura, nuk është vetëm kodi. Është sistemi socioteknik – forcat njerëzore dhe teknologjike që formojnë njëra-tjetrën – që duhet të eksplorohen. Logjika që ndërtoi dhe lëshoi ​​sistemin e AI përfshinte identifikimin e një qëllimi, identifikimin e të dhënave, vendosjen e prioriteteve, krijimin e modeleve, vendosjen e udhëzimeve dhe parmakët për mësimin e makinerive dhe vendosjen kur dhe si duhet të ndërhyjë një njeri. Kjo është pjesa që duhet bërë transparente – të paktën për vëzhguesit dhe auditorët. Rreziku i pabarazisë sociale dhe rreziqeve të tjera janë shumë më të mëdha kur këto pjesë të procesit janë të fshehura. Ju nuk mund ta riinxhinieroni logjikën e dizajnit nga kodi burimor.

Mund të fokusohet në AI e shpjegueshme (XAI) e ka adresuar ndonjëherë këtë?

Për inxhinierët, AI i shpjegueshëm aktualisht mendohet si një grup kufizimesh dhe praktikash teknologjike, që synojnë t'i bëjnë modelet më transparente për njerëzit që punojnë në to. Për dikë që akuzohet në mënyrë të rreme, shpjegueshmëria ka një kuptim dhe urgjencë krejtësisht të ndryshme. Ata kanë nevojë për shpjegueshmëri për të qenë në gjendje të tërhiqen në mbrojtjen e tyre. Ne të gjithë kemi nevojë për shpjegueshmëri në kuptimin e bërjes së qartë të vendimeve të biznesit ose qeverisë në bazë të modeleve. Të paktën në Shtetet e Bashkuara, gjithmonë do të ketë një tension midis shpjegueshmërisë – të drejtës së njerëzimit për të ditur – dhe të drejtës së një organizate për të konkurruar dhe për të inovuar. Auditorët dhe rregullatorët kanë nevojë për një nivel të ndryshëm shpjegueshmërie. Ne hyjmë në këtë në më shumë detaje në Dilemën e AI.

A mund të ndani shkurtimisht pikëpamjet tuaja mbi rëndësinë e mbajtjes përgjegjëse të palëve të interesuara (kompanitë e AI) për kodin që ata lëshojnë në botë?

Deri më tani, për shembull në përplasjen e makinës vetë-drejtuese në Tempe, AZ që vrau një këmbësor, operatori u konsiderua përgjegjës. Një individ shkoi në burg. Në fund të fundit, megjithatë, ishte një dështim organizativ.

Kur një urë shembet, përgjegjës është inxhinieri mekanik. Kjo sepse inxhinierët mekanikë trajnohen, rikualifikohen vazhdimisht dhe mbahen përgjegjës për profesionin e tyre. Inxhinierët e kompjuterave nuk janë.

A duhet që palët e interesuara, përfshirë kompanitë e AI, të trajnohen dhe të rikualifikohen për të marrë vendime më të mira dhe për të pasur më shumë përgjegjësi?

Dilema e AI u fokusua shumë në mënyrën se si kompani si Google dhe Meta mund të mbledhin dhe fitojnë para të dhënat tona personale. A mund të ndani një shembull të keqpërdorimit të konsiderueshëm të të dhënave tona që duhet të jenë në radarin e të gjithëve?

Nga Dilema e AI, faqe 67ff:

Rastet e reja të keqpërdorimit sistematik të të dhënave personale vazhdojnë të shfaqen në publik, shumë prej të cilave përfshijnë përdorimin e fshehtë të njohjes së fytyrës. Në dhjetor 2022, MIT Technology Review publikoi llogaritë e një praktike të gjatë iRobot. Robotët shtëpiake Roomba regjistrojnë imazhe dhe video të marra në shtëpitë e testuesve beta vullnetarë, gjë që në mënyrë të pashmangshme nënkupton mbledhjen e imazheve intime personale dhe të lidhura me familjen. Këto ndahen, pa ndërgjegjësimin e testuesve, me grupe jashtë vendit. Në të paktën një rast, një imazh i një individi në një tualet është postuar në Facebook. Ndërkohë, në Iran, autoritetet kanë filluar të përdorin të dhëna nga sistemet e njohjes së fytyrës për të gjurmuar dhe arrestuar gratë që nuk mbajnë hixhabe.16

Nuk ka nevojë t'i trajtojmë më tej këto histori. Ka kaq shumë prej tyre. Megjithatë, është e rëndësishme të identifikohet efekti kumulativ i të jetuarit në këtë mënyrë. Ne e humbasim ndjenjën për të pasur kontroll mbi jetën tonë kur mendojmë se informacioni ynë privat mund të përdoret kundër nesh, në çdo kohë, pa paralajmërim.

Një koncept i rrezikshëm që u ngrit është se si e gjithë bota jonë është krijuar për të qenë pa fërkime, me përkufizimin e fërkimit që është "çdo pikë në udhëtimin e klientit me një kompani ku ata godasin një pengesë që i ngadalëson ose shkakton pakënaqësi". Si çon pritshmëria jonë për një përvojë pa fërkime potencialisht në AI të rrezikshme?

Në Zelandën e Re, një bot ushqimor i njohur Pak'n'Save sugjeroi një recetë që do të krijonte gaz klor nëse përdoret. Kjo u promovua si një mënyrë që klientët të përdorin mbetjet dhe të kursejnë para.

Pa fërkime krijon një iluzion kontrolli. Është më e shpejtë dhe më e lehtë të dëgjosh aplikacionin sesa të kërkosh recetën e gjyshes. Njerëzit ndjekin rrugën e rezistencës më të vogël dhe nuk e kuptojnë se ku po i çon.

Fërkimi, përkundrazi, është krijues. Ju përfshiheni. Kjo çon në kontrollin aktual. Kontrolli aktual kërkon vëmendje dhe punë, dhe – në rastin e AI – të bëhet një analizë e zgjeruar kosto-përfitim.

Me iluzionin e kontrollit, ndihet sikur jetojmë në një botë ku sistemet e AI po i nxisin njerëzit, në vend që njerëzit të mbeten plotësisht nën kontroll. Cilët janë disa shembuj që mund të jepni të njerëzve që besojnë kolektivisht se kanë kontroll, kur me të vërtetë nuk kanë asnjë?

San Francisko tani, me robotaksi. Ideja e taksive vetë-drejtuese priret të sjellë dy emocione kontradiktore: Eksitim (“taksi me një kosto shumë më të ulët!”) dhe frikë (“a do të më godasin?”) Kështu, shumë rregullatorë sugjerojnë që makinat të testohen me njerëz. në to, të cilët mund të menaxhojnë kontrollet. Fatkeqësisht, të kesh njerëz në gatishmëri, të gatshëm për të kapërcyer sistemet në kohë reale, mund të mos jetë një provë e mirë e sigurisë publike. Vetëbesimi i tepërt është një dinamikë e shpeshtë me sistemet e AI. Sa më autonom të jetë sistemi, aq më shumë operatorët njerëz priren t'i besojnë atij dhe të mos i kushtojnë vëmendje të plotë. Ne mërzitemi duke i parë këto teknologji. Kur një aksident në të vërtetë do të ndodhë, ne nuk e presim atë dhe shpesh nuk reagojmë në kohë.

Shumë kërkime u bënë për këtë libër, a kishte ndonjë gjë që ju befasoi?

Një gjë që na befasoi vërtet ishte se njerëzit në mbarë botën nuk mund të bien dakord se kush duhet të jetojë dhe kush duhet të vdesë Simulimi i makinës morale nga përplasja e një makine që drejtonte vetë. Nëse nuk mund të biem dakord për këtë, atëherë është e vështirë të imagjinohet se mund të kemi qeverisje të unifikuar globale ose standarde universale për sistemet e AI.

Ju të dy e përshkruani veten si sipërmarrës, si do të ndikojë ajo që keni mësuar dhe raportuar në përpjekjet tuaja të ardhshme?

Praktika jonë e këshillimit të AI është e orientuar drejt ndihmës së organizatave të rriten me përgjegjësi me teknologjinë. Juristët, inxhinierët, shkencëtarët socialë dhe mendimtarët e biznesit janë të gjithë palët e interesuara në të ardhmen e AI. Në punën tonë, ne i bashkojmë të gjitha këto këndvështrime dhe praktikojmë fërkime krijuese për të gjetur zgjidhje më të mira. Ne kemi zhvilluar korniza si llogaritja e rrezikut të qëllimshëm për të ndihmuar në lundrimin e këtyre çështjeve.

Faleminderit për përgjigjet e shkëlqyera, lexuesit që dëshirojnë të mësojnë më shumë duhet ta vizitojnë Dilema e AI.

Një partner themelues i unite.AI dhe një anëtar i Këshilli i Teknologjisë i Forbes, Antoine është një futurist i cili është i apasionuar pas të ardhmes së AI dhe robotikës.

Ai është gjithashtu Themeluesi i Letrat me vlerë.io, një faqe interneti që fokusohet në investimin në teknologjinë përçarëse.