Tankeledare
Medan branscher förbereder sig för accelererad AI-antagande, ny fokus på etik och ansvar

Av: Pandurang Kamat, CTO på Persistent Systems
Artificiell intelligens (AI) i sin kärna är maskinlärning (ML), processen genom vilken maskiner lär sig att förbättra prestanda baserat på datainmatningar. Den renodlade mängden befintliga data idag innebär att AI har haft en bördig jord att blomstra, accelererar i en rasande takt under bara de senaste åren. Och AI:s löfte har fått teknologer och chefer inom långtgående branscher att tänka kreativt om dess olika tillämpningar.
Från den industriella revolutionen och framåt, varje period av snabb teknisk framsteg kännetecknas av lika delar entusiasm och tveksamhet. World Wide Web Consortium (W3C), en grupp som skapar webbutvecklingsbranschens standarder, påpekar att “det finns en ökande medvetenhet om att tillämpningen av maskinlärning medför risker och kan leda till skador” – inklusive områden som: fördomar, integritet, säkerhet, hållbarhet och övergripande ansvar.
“Det finns ett tydligt krav på en etisk tillvägagångssätt för ML, som ses genom aktivism från det civila samhället, uppkomsten av ~100 uppsättningar etiska AI-principer globalt och regeringsrörelser över hela världen för att reglera AI”, skrev gruppen. “Om tekniker inte är anpassade till de värderingar som de opererar i, riskerar de att undergräva dem.”
Välj med omsorg
På ytan är det svårt att argumentera för att förbättrad hastighet och utdata är dåligt för affärer. Men för vissa branscher står mycket på spel med beslutsprocessen som vissa hävdar inte bör lämnas till en algoritm. Om vi tittar på några av de största branscherna kan vi se hur sårbara vi är för maskinfel och varför ansvarsfull AI är så viktig.
Bank, finansiella tjänster och försäkring (BFSI)
World Economic Forum (WEF) och Deloitte undersökte processen att distribuera AI i BFSI-företag och fann att “medan AI kan hjälpa till att skapa användbara affärsinsikter från en överväldigande mängd information”, “främmandheten för AI” kommer att vara en källa till pågående allvarlig risk.
“AI resonerar på ohumanistiska sätt”, står det i rapporten. “AI-system följer inte mänskliga konstruktioner av logik och beter sig mycket annorlunda än mänskliga aktörer som får samma uppgift. Dessutom tillåter AI-systemens självlärande natur dem att utvecklas utan mänsklig inmatning, vilket kan leda till oväntade resultat baserat på okända variabler.”
Förespråkare för ansvarsfull AI hävdar att maskinlärning presenterar allvarliga problem i saker som automatisk riskbedömning, kredit och lånebeslut, alla som historiskt sett är fördomsfulla mot vissa demografiska grupper. Nya studier har visat att långivare som använder AI-baserade beslutsmotorer var mer benägna att neka bostadslån till personer med färg – i vissa fall 80% av svarta sökande är mer benägna att bli nekad.
Hälso- och sjukvård
För några år sedan undersökte Journal of the American Medical Association (JAMA) antagandet av AI i hälso- och sjukvården och fann att utmaningarna är många, inklusive “orealistiska förväntningar, fördomsfull och icke-representativ data, otillräcklig prioritering av jämlikhet och inkludering, risken för att förvärra hälso- och sjukvårdsklyftor, låga nivåer av förtroende och osäkra regulatoriska miljöer”.
Inte exakt ett ringande betyg, men det finns en högre ribba för ansvarsfull AI inom hälso- och sjukvården, särskilt med tanke på dess bokstavligen livsavgörande potential. I sin helhet är hälso- och sjukvårdspersonal optimistiska men försiktiga med framtiden för AI och väljer att fokusera sina ansträngningar på att utbilda andra praktiker om dess användning i den kliniska miljön och skapa riktlinjer för hur man ska gå vidare på ett ansvarsfullt sätt som gynnar alla patienter.
Media
PwC uppskattar att AI kommer att ge 15,7 biljoner dollar i global ekonomisk tillväxt till 2030, men enligt Salesforce litar färre än hälften (48%) av kunderna på att företag använder AI på ett etiskt sätt, och 65% är oroliga för oetisk användning av AI. I skärningspunkten mellan vinster och förtroende finns medieföretag – tidiga antagare med enorm räckvidd och inflytande. Och det finns farhågor om att AI inte är en “ställ in och glöm” -applikation, vilket innebär att medieföretag har ansvar inte bara för innehållsproduktion, utan också för dess kontinuerliga övervakning efter distribution.
Hur serveras annonser och personanpassas? Hur når innehåll en viss publik och vad är budskapet? Vem lär AI “hur” man lär? Och hur kan man rikta sig till specifika konsumenter samtidigt som man respekterar integritet? Detta är bara några av frågorna som plågar medieföretag när de balanserar etik med att få en konkurrensfördel.
Reaktionen på ansvar
Framsteg i utvecklingen av ansvarsfull AI är tydligt varje dag – lagstiftare utarbetar regler, konsumenter kräver mer transparens och många företag har skapat specifika avdelningar som ansvarar för att deras AI används på lämpligt sätt. Företag behöver en väldefinierad ram för ansvarsfull AI som omfattar etik, transparens, ansvar, rättvisa, integritet och säkerhet. Medan debatter och reformer fortsätter, ger en nylig gemensam studie av MIT Sloan Management Review och Boston Consulting Group någon enkel övergripande vägledning – de skrev, “Om du vill vara en ansvarsfull AI-ledare, fokusera på att vara ett ansvarsfullt företag”.












