Intervjuer
Shay Sabhikhi, VD för CognitiveScale – Intervjuserie

Akshay (Shay) Sabhikhi är VD för CognitiveScale, ett företag som utvecklar AI-programvara för företag med lösningar som hjälper kunder att lyckas med intelligenta, transparenta och pålitliga digitala system som drivs av AI/ML.
Shay ansvarar för företagets övergripande tillväxt och strategiska riktning, han har mer än 18 års erfarenhet av entreprenöriellt ledarskap, produktutveckling och ledning inom tillväxtföretag och högt växande programvarudelar inom Fortune 50-företag.
Hur viktigt är förklarbar AI?
Förklarbar AI är kritisk – Att inte kunna förklara ett beslut är ett säkert sätt att urholka förtroendet. Så många som 80% av AI- och ML-projekt går i stå på grund av brist på förtroende, transparens och förklarbarhet i modeller och data. Att ha möjlighet att förstå och framför allt lita på resultaten och utdata från ML-algoritmer säkerställer att organisationer kan beskriva modeller på ett korrekt sätt, förstå effekterna och skydda mot potentiella och oförutsedda fördomar. Förklarbar AI säkerställer noggrannhet, rättvisa och transparens i AI-baserat beslutsfattande och är avgörande för att bygga förtroende och förtroende när modeller tas i produktion. Enkelt uttryckt hjälper förklarbar AI digitalt kunniga organisationer att anta ett ansvarsfullt tillvägagångssätt för AI.
Kunde du gå in på några detaljer om när och hur CognitiveScale ursprungligen banade väg för konceptet ‘Trusted AI’?
Vi skapade CognitiveScale med ett mål i åtanke: att ge företag förtroende och tillit till de digitala systemen de behöver för att blomstra. Vi förstod att när företag alltmer antar digitala system för engagemang, kommer det att vara en nödvändighet att odla förtroende inom beslutsprocesserna över alla intressenter – kunder, anställda, revisorer. Så vi definierade förankringar för pålitlig AI – Förklarbarhet, Personalisering, Rättvisa, Robusthet och Efterlevnad – principer enligt vilka automatiserade beslutsfattande system blir pålitliga och ansvarsfulla. Vi lärde oss genom att tillämpa dessa principer i tungt reglerade branscher som hälsovård och finansiella tjänster för att driva exponentiella resultat för våra kunder i form av ökad patientengagemang, minskade vårdkostnader och förbättrad kundservice för att öka lojaliteten. Vi var också en av grundarna av Responsible AI Institute (RAI), en oberoende organisation som fokuserar på att definiera branschspecifika policys och standarder för företags antagande av ansvarsfull AI. CognitiveScale erkändes av Världsekonomiskt forum 2019 som en teknisk pionjär som formar antagandet av ansvarsfull AI i reglerade branscher som hälsovård och finansiella tjänster.
Vilka är några sätt som CognitiveScale arbetar för att både erbjuda förklarbar AI och förbättra AI-transparens?
Genom att ge företag verktygen för att snabbt bygga, distribuera och hantera AI-system med pålitliga AI-principer, säkerställer vi process- och operativ transparens. Pålitliga AI-system säkerställer att de data och modeller som används är representativa för den verkliga världen och att modellerna är fria från inbyggda fördomar som kan snedvrida beslutsfattande och resonemang, vilket leder till beslutsfel och oavsiktliga konsekvenser. Genom Cortex-plattformen levererar vi en plattform från slutet till slutet för design, distribution och hantering av intelligenta system som är både förklarbara och ansvarsfulla, vilket främjar förtroende och transparens.
Kunde du förklara hur CognitiveScales Cortex-plattform kan utnyttja i princip vilken data som helst och vilken svart låda-modell som helst, för att erbjuda skiktad AI-kontroll, automatiserad byggnad och färdiga applikationer?
Cortex Fabric är vår lågkodsutvecklingsplattform för automatiserad utveckling av pålitliga AI-applikationer som en AI-mjukvara. Den distribueras på vilken molntjänst som helst – AWS, Azure, Google, IBM Cloud eller på egen server — och fungerar genom att förenkla integrationen av data, modeller, regler och även analyser byggda på äldre företagssystem. Med över 127 kopplingar ansluter Fabric till data från första- och tredjepartskällor, både batch och ström, och syr ihop dem till en semantisk datastruktur fokuserad på entiteter som kunder, produkter, anställda etc. Den drar unika och personliga inferenser via maskinlärningsmodeller för att identifiera intelligenta insikter som sedan levereras till system för engagemang. Som AI-mjukvarulagret är det tätt integrerat i vår AI-styrningslager som levereras via Cortex Certifai, för att möjliggöra kontinuerlig, slut-till-slut-styrning av AI-applikationer för att upptäcka och avhjälpa AI-risken som rättvisa, förklarbarhet, robusthet och prestanda. Cortex erbjuder också branschspecifika mallar som kallas Cortex-applikationsmallar, som påskyndar tiden att bygga och distribuera pålitliga AI-applikationer. Förra månaden lanserade vi Fabric Version 6, som utökar funktionerna genom att göra det enklare för medborgarutvecklare att designa och spåra mål-drivna AI-applikationer, anpassade till affärsnyckeltal för ännu snabbare tid till värde.
Med CognitiveScales Cortex Certifai kan företag bygga förtroende i sina digitala system genom att upptäcka och poängsätta svart låda-modellrisk. Kunde du förklara denna lösning och hur den fungerar för att skapa den första sammansatta förtroendepoängen, AI-förtroendepoängen?
Cortex Certifai är vår modellintelligensplattform för design och distribution av transparenta, rättvisa och presterande AI-system, samtidigt som den minskar affärsrisken associerad med dolda fördomar i AI-modeller, säkerställer att de är förklarbara och robusta mot förändringar i data och datakvalitet. Cortex Certifais visuella gränssnitt låter nyckelintressenter (datavetare, revisions- och efterlevnadsavdelningar, linjeägare) förstå, utvärdera och avhjälpa potentiell AI-affärsrisk. Vi tillhandahåller en sammansatt poäng som kallas AI-förtroendepoängen över fyra dimensioner av AI-risk (Fördom, Förklarbarhet, Robusthet, Prestanda) som kan konfigureras av en organisation baserat på branschstandarder och policys. Vi samarbetar med Responsible AI Institute (RAI) som en oberoende organisation för att hjälpa organisationer att tolka och poängsätta sin affärsrisk mot regelefterlevnadsstandarder. Cortex Certifai fungerar med alla svarta lådor-modeller, inklusive maskinlärningsmodeller, statistiska modeller, affärsregler och andra prediktiva modeller.
Hur kan AI-applikationer hjälpa till att förbättra patientresultat med personlig och personlig hälsovård?
AI inom hälsovården har en djupgående inverkan på patientresultat, service och driftskostnader. Cortex förbyggda AI-applikationer inom hälsovården kan påskynda medlemmar och patientengagemang inom områden som vårdoptimering (vårdkostnad, förbättring av stjärnklassificering) och serviceupplevelse (chattbot, intelligent ringsignalering, själv- eller agentassisterad service) och leverera prediktiv, proaktiv och personlig interaktion för förbättrade resultat.
Kraften i CognitiveScales personlisering kommer från vår Profile-of-One-teknik — en rik och unik kunskapsbas byggd för varje enhet (kunder, produkter, agenter). Profile-of-One driver hyperpersonliga ingrepp för utsträckning — smarta rekommendationer — utformade för att ändra bana eller handlingsplan för det bättre. Med andra ord, genom att kombinera deklarerade attribut, observerade beteenden och inferenser, levererar vår Profile-of-One personlig och kontextuell utsträckning, vare sig det är att hjälpa medlemmar att hitta en mer lämplig hälsovårdsplan, boka en tid som de troligen kommer att göra eller upptäcka en leverantör som är närmare hemmet. Dessa intelligenta ingrepp levereras sedan till befintliga system för engagemang som inkluderar mobilappar, webbportaler, vårdhanteringsplattformar.
Vilka är några sätt som AI-applikationer kan förbättra kundengagemanget genom att sänka driftskostnaderna med prediktiv, proaktiv och personlig vård?
Inom CognitiveScales Cortex-plattform hjälper vår Profile-of-One-teknik till att driva proaktiva och personliga ingrepp. Dessa proaktiva ingrepp hjälper till att förbättra engagemanget genom att tillhandahålla kunderna med viktig information som levereras som de vill ha det, t.ex. vårdinsikter som levereras till din smarta telefon som varnar dig för krävda läkemedel, eller lämpliga produktrekommendationer inom bank och försäkring. Dessa personliga ingrepp förbättrar inte bara engagemanget och lojaliteten, utan minskar också kostnaderna, t.ex. sjukhusinläggningar orsakade av försumlig vård. Inom marknadsföring ger AI-driven leadgenerering insikt i specifika målmarknader eller kohorter och lead-attribut, som kan användas för att bestämma mer exakt keyword-utgifter och marknadsföringsaktiviteter. AI-driven intelligent försäljningsassistent kan öka säljarens produktivitet och konvertering genom prescriptiva rekommendationer, proaktiva varningar och marknadsintelligens.
Finns det något annat som du skulle vilja dela om CognitiveScale?
Från företagets tidiga dagar har vi utvecklat en etos och kultur för att lösa svåra problem som levererar enormt värde för våra kunder. Vi har bevisat detta inom tungt reglerade branscher (hälsovård och finansiella tjänster) och vår AI används för att betjäna 90 miljoner+ hälsovårdsmedlemmar i USA över ledande hälsovårdsorganisationer. Vår teknik backas upp av över 170 patentansökningar med ~100 godkända, vilket gör oss till en av de ledande AI-patentportföljerna bland alla företag, privata och offentliga. Vi erkändes av Världsekonomiskt forum 2019 som en teknisk pionjär som formar antagandet av ansvarsfull AI och vi fortsätter att samarbeta med dem för att ytterligare främja dess antagande globalt.
Tack för den utmärkta intervjun, läsare som vill lära sig mer bör besöka CognitiveScale.












