Tanke ledere
Som industriforberedelse til accelereret AI-adoption, nyt fokus pĂĄ etik og ansvar

By: Pandurang Kamat, CTO for Vedvarende systemer
Kunstig intelligens (AI) i sin kerne er machine learning (ML), den proces, hvorved maskiner lærer at forbedre ydeevnen baseret på datainput. Alene mængden af ​​eksisterende data i dag betyder, at AI har haft grobund for at blomstre, accelereret i et hæsblæsende tempo de seneste par år. Og AI's løfte har fået teknologer og ledere i vidtrækkende industrier til at tænke kreativt om dens forskellige applikationer.
Fra den industrielle revolution og fremefter er enhver periode med hurtige teknologiske fremskridt præget af lige dele entusiasme og ængstelse. Det World Wide Web Consortium (W3C), en gruppe, der skaber webudviklerindustristandarder, påpeger, at "der er stigende bevidsthed om, at anvendelsen af ​​maskinlæring udgør risici og kan føre til skader" - herunder på områder som: bias, privatliv, sikkerhed, bæredygtighed og overordnet ansvarlighed.
"Der er en klar efterspørgsel efter en etisk tilgang til ML set gennem aktivisme fra civilsamfundet, fremkomsten af ​​~100 sæt etiske AI-principper globalt, og regeringen bevæger sig over hele verden for at regulere AI." skrev gruppen. "Hvis teknologier ikke er tilpasset værdierne i de samfund, de opererer i, risikerer de at underminere dem."
Vælg klogt
På overfladen er det svært at hævde, at øget hastighed og output er dårligt for forretningen. Men for visse industrier er der meget på spil med beslutningsprocessen, som nogle hævder ikke bør overlades til en algoritme. Når vi ser på nogle af de største industrier, kan vi se, hvor sårbare vi er over for maskinfejl, og hvorfor ansvarlig AI er så altafgørende.
Bank, finansielle tjenesteydelser og forsikring (BFSI)
World Economic Forum (WEF) og Deloitte undersøgte processen med at implementere AI i BFSI-virksomheder og fandt ud af, at "mens AI kan hjælpe med at skabe nyttig forretningsindsigt ud fra en overvældende mængde information", vil "AIs fremmedhed" være en kilde til vedvarende alvorlig risiko.
"AI ræsonnerer på umenneskelige måder," lyder rapporten. "AI-systemer følger ikke menneskelige logiske konstruktioner og opfører sig meget anderledes end menneskelige aktører, der får den samme opgave. Ydermere giver AI-systemers selvlærende natur dem mulighed for at udvikle sig uden menneskelig input, hvilket kan føre til uventede resultater baseret på ukendte variabler."
Fortalere for ansvarlig AI hævder, at maskinlæring giver alvorlige problemer i ting som automatisk risikoscoring, kredit- og udlånsbeslutninger, som alle er historisk skadelige for visse demografiske forhold. Nylige undersøgelser har vist, at långivere, der bruger AI-baserede beslutningsmotorer, var mere tilbøjelige til at nægte boliglån til farvede mennesker – i nogle tilfælde, 80 % af sorte ansøgere er mere tilbøjelige til at blive afvist.
Medicinal
For få år siden, den Journal of the American Medical Association (JAMA) tog et kig på adoptionen af ​​kunstig intelligens i sundhedsvæsenet og fandt ud af, at udfordringerne er mange, herunder "urealistiske forventninger, partiske og ikke-repræsentative data, utilstrækkelig prioritering af retfærdighed og inklusion, risikoen for at forværre uligheder i sundhedsvæsenet, lave niveauer af tillid og usikker regulatoriske miljøer."
Ikke ligefrem en klingende påtegning, men der er en højere bar for ansvarlig AI i sundhedsvæsenet, især i betragtning af dets bogstavelige liv-eller-død-potentiale. I det hele taget er sundhedsprofessionelle optimistiske, men vogtede over fremtiden for AI, og de vælger at fokusere deres indsats på at uddanne andre praktiserende læger om brugen af ​​det i kliniske omgivelser og skabe retningslinjer for, hvordan man kommer videre ansvarligt på en måde, der gavner alle patienter.
Medier
PwC anslår, at kunstig intelligens vil give 15.7 billioner dollars i global økonomisk vækst i 2030, men ifølge Salesforce færre end halvdelen (48 %) af kunderne stoler på, at virksomheder bruger AI etisk, og 65 % er bekymrede over uetisk brug af AI. I forbindelse med overskud og tillid er der medievirksomheder – early adopters med enorm rækkevidde og indflydelse. Og der er bekymring over, at AI ikke er en "indstil det og glem det"-applikation, hvilket betyder, at for medievirksomheder er deres ansvar ikke kun i produktionen af ​​indhold, men også dets løbende overvågning efter implementering.
Hvordan bliver annoncer vist og tilpasset? Hvordan når indholdet ud til en bestemt målgruppe, og hvad er budskabet? Hvem lærer AI "hvordan" man lærer? Og hvordan kan du målrette mod specifikke forbrugere og samtidig respektere privatlivets fred? Dette er blot nogle af de spørgsmål, der irriterer medievirksomheder, da de balancerer etik med at opnå en konkurrencefordel.
Svaret pĂĄ ansvar
Fremskridt med at udvikle ansvarlig AI er tydeligt hver dag – lovgivere udarbejder regler, forbrugere kræver mere gennemsigtighed, og mange virksomheder har oprettet specifikke afdelinger, der har til opgave at sikre, at deres AI bliver brugt korrekt. Virksomheder har brug for en veldefineret ansvarlig AI-ramme der dækker etik, gennemsigtighed, ansvarlighed, retfærdighed, privatliv og sikkerhed. Mens debatter og reformer fortsætter, a nylig fælles undersøgelse af MIT Sloan Management Review og Boston Consulting Group giver nogle enkle overordnede vejledninger - de skrev: "Hvis du vil være en ansvarlig AI-leder, skal du fokusere på at være en ansvarlig virksomhed."