Connect with us

Hur företag kan skapa ansvarsfull och transparent AI – Tankeledare

Etik

Hur företag kan skapa ansvarsfull och transparent AI – Tankeledare

mm

Av Eric Paternoster, VD för Infosys Public Services

Sundar Pichai, VD för Google-modarföretaget Alphabet, har beskrivit utvecklingen inom AI som “mer genomgripande än eld eller elektricitet”, och COVID-19 har skapat en ny brådska i att frigöra denna teknikens löfte. Tillämpningar av AI är nu tydligt i fokus, förbättrar COVID-behandlingar, spårar potentiella COVID-bärare och distribuerar realtidschattbotar för försörjningshindrade användare av detaljhandelswebbplatser. Dessa tillämpningar har visat att AI förbättrar ett företags motståndskraft och gynnar det breda samhället.

Så, tillsammans med “molnbaserad”, kan buzzwordet för det senaste kvartalet vara “AI-först-transformation”, en term som branschpraktiker tror kommer att vara sann även efter att COVID försvinner. För många företag är löftet om lägre kostnader (t.ex. supply chain-algoritmer som matchar utbud med efterfrågan) och beundransvärda produktivitetsökningar (t.ex. när banker använder dokument- och identitetsverifiering i realtid) för bra för att ignorera.

Varför AI-först-transformation?

I AI-först-transformation använder ett företag AI som en nordstjärna, arbetar för att använda den inte bara intelligent utan också på ett sätt som påverkar beslut fattade av människor, processer och system i stor skala. Det stämmer in organisationer i förändrade dynamik mellan anställda, partner och kunder. Detta möjliggör för dem att snabbt ändra riktning och möta skiftande krav samtidigt som de skapar en långsiktig konkurrensfördel.

Men inte alla företag är på samma nivå av AI-mognad. Det finns några som kan kallas “konventionell AI-grupp”, eller H1. Dessa företag, som har mindre erfarenhet och investering, använder vanligtvis klassiska algoritmer som naiv Bayes, som funnits i 250 år, eller slumpmässig skog (utvecklad av Tin Kam Ho 1995) för att förstärka fragmenterad intelligens inom befintliga system. Sådana användningar av AI är strikt regelbaserade och ganska stela, saknar förmågan att generalisera från reglerna de upptäcker. Sedan finns det “djupinlärningsgruppen”, eller H2. Dessa företag omfamnar mer komplex AI, inklusive neuralt maskinöversättning och transkriptionsbaserade system, för att utvinna konversationsinsikter. Sådana system har mer kraft men förklarar inte lätt varför de gör de saker de gör. De saknar också transparens. För dessa två grupper används AI ofta inte på ett tillförlitligt eller pålitligt sätt och kan fatta partiska beslut som bringar företaget negativ uppmärksamhet från myndigheter, tillsynsmyndigheter och allmänheten.

Dessa företag måste göra drag nu för att ta sina AI-implementeringar ett steg längre – till en tredje läger (H3) där AI är självlärande och generativ. På denna punkt är AI-systemen semiovervakade eller till och med oövervakade. De är transparenta och uppnår “allmänna sinnesförnimmelser” genom multitask-inlärning. Dessa system levererar rikare intelligens och ger realtids-, agerbara insikter. Detta görs genom väl hanterad, styrd AI som är tolkningsbar och förklarbar i alla skeden.

Hur man kan arbeta mot mer ansvarsfull och transparent AI

AI används alltmer för att hantera skolor, arbetsplatser och andra offentliga enheter. I dessa miljöer är det viktigare än någonsin att AI är rättvis och transparent. Men medan samhället arbetar igenom denna explosion av AI-antagande, ger regleringsorgan begränsad vägledning om lämplig utveckling och distribution av AI-teknologier. Därför ligger bördan på företagen att ta ledningen. Den bredare tech-industrin måste sätta finansiell muskel och mänskligt kapital i arbete, omvandla initiala implementeringar av fragmenterad AI till effektiva, kreativa, ansvarsfulla och transparenta intelligensdrivna ekosystem. För att flytta in i detta utrymme bör företagen göra följande fyra saker:

  • Håll människor i loopet: AI-modeller är ofta utformade för att fungera oberoende av människor. Men den mänskliga faktorn är avgörande i många fall. Människor måste granska beslut och undvika partiskhet och misstag som ofta stör AI-projekt. Två användningsfall inkluderar bedrägeridetektering och fall där brottsbekämpande myndigheter är inblandade. Vi rekommenderar att företag anställer AI-praktiker långsamt men konsekvent över tid för att få en försprång på sin AI-första resa.
  • Eliminera partiska datamängder: En opartisk datamängd är en kritisk förutsättning för att skapa tillförlitliga, rättvisa och icke-diskriminerande AI-modeller. För att få en känsla av dess betydelse används AI för att kortlista CV:n och kreditvärdering av banker, och det har till och med funnit sin väg in i vissa rättssystem. I detta landskap har outcheckade partiskheter haft mycket verkliga konsekvenser.
  • Säkerställ att beslut är förklarliga: Denna funktion har täckts av många av de stora nyhetsutgivarna, och rätt så. XAI hjälper till att förklara varför ett AI-system fattade ett visst beslut. Det avslöjar vilka funktioner i det djupa inlärningssystemet som användes mer än andra för att göra sin förutsägelse eller hypotes. Att förstå funktionens betydelse och kunna motivera hur beslut fattas är avgörande för användningsfall som autonoma fordon och datorseende som används i medicinska biopsier.
  • Tillförlitligt reproducera resultat: En vanlig nödvändighet i forskningsprojekt bör AI-modeller vara konsekventa när de ger förutsägelser över tid. Sådana modeller bör inte påverkas när de presenteras med ny data.

Dessa fyra saker kommer att skapa transparenta, intelligensdrivna ekosystem, flyttar mot vad vi kallar ett “levande företag”. Här fattas opartiska, förklarliga beslut i nästan realtid, med hela företaget som fungerar som en medveten organism som styrs av människor. Läs Infosys Knowledge Institute vitbok för att ta reda på mer.

Eric Paternoster är verkställande direktör för Infosys Public Services, ett dotterbolag till Infosys som fokuserar på den offentliga sektorn i USA och Kanada. I denna roll ansvarar han för företagets strategi och genomförande för lönsam tillväxt, och rådgiver offentliga organisationer om strategi, teknik och verksamhet. Han är också ledamot i styrelserna för Infosys Public Services och dotterbolaget McCamish till Infosys BPM.

Eric har över 30 års erfarenhet av offentlig sektor, hälsovård, konsultverksamhet och affärsteknologi med flera företag. Före sin nuvarande roll var han senior vice president och chef för företagsenheten för försäkring, hälsovård och life sciences, där han växte företaget från 90 miljoner dollar till över 700 miljoner dollar med 60+ kunder i Amerika, Europa och Asien. Eric anslöt till Infosys 2002 som chef för affärskonsultverksamheten i östra USA och Kanada.