Tankeledere
AI og tillitsbuen

Tidlig i fjor, da vårt team gjorde prediksjoner om hva som ville ligge foran, var det enighet om at omhylsingene rundt kunstig intelligens (AI) skulle fjernes. Vi ville endelig se hva den kunne gjøre, og håpet å få klarhet på dens innvirkning på næringsliv og samfunn og hvordan vi skulle gå videre. Det var ikke en ny prediksjon, men dens kjerne var nøyaktig, selv om vi fortsatt slåss med implikasjonene av AI og hvordan (eller om) den bør kontrolleres på noen måte.
Vi ville ende opp med å se Apple, Microsoft og Google bygge AI inn i enheter og bringe dens kraft til et bredere og større publikum. Deretter truet en chatbot i et AI-drevet søkeverktøy brukerne og hevdet at den spionerte på ansatte, mens en annen foreslo å bruke Elmer’s lim i hjemmelaget pizza for å holde ost fra å gli av. Likevel økte AI-forretningsadopsjonsbrukssaker dramatisk, og markedet gjorde det samme. Ifølge data fra Crunchbase, gikk nesten en tredjedel av all global venturefinansiering i fjor til selskaper i AI-relaterte felt alene.
Men selv om OpenAI leverte virkelig bemerkelsesverdig forbedret resonnering, oppfordret den kjente AI-forskeren, Yoshua Bengio, til å adoptere sikkerhetstiltak for “frontier-modeller” med potensialet til å forårsake katastrofale skader. Og selv om teknologien ville ta hjem to Nobelpriser for anvendelser i vitenskap, uttrykte en av mottakerne bekymring over å ha systemer “mer intelligente enn oss som til slutt tar kontroll.”
I et så raskt utviklende område er det vanskelig for eksperter innen teknologi å holde pace, ikke å snakke om de i hovedstrømmen.
Og disse AI-hikkupene – og bekymringene over personvern og ukontrollert bruk – har bare økt offentlig skepsis.
Bare tro meg
Vi finner oss midt på en tillitsbue, en som krever fremgang i offentlig aksept av AI, samtidig som næringsliv og teknologisamfunnet handler ansvarlig. Den første delen er der spillene spilles nå, på bedriftsnivå, og får skjøpet med hver trygg og lydhør utrulling. Vi bygger på våre bevispunkter, som til slutt vil føre til økt offentlig tillit. Den andre delen er imidlertid mye vanskeligere.
Hvem definerer og håndhever ansvarlig bruk av AI? Kan en bransje lage retningslinjer når de er de som trenger regulering? Hvis teknologer har problemer med å følge AI, vil politikere være informert, og holde sine politiske agendauer utenfor diskusjonen? Og når en AI-milliardær plutselig vil snakke om kontroll, hadde han en åpenbaring eller prøver han bare å bremse for å holde pace?
“Bare tro meg” kommer ikke til å fungere med AI, uansett hvem du er.
Tro, men verifiser
Folk ser på generativ AI som ChatGPT og lurer på om det blir deres neste Google? Vel, det øverste resultatet av en Google-søkning er nå skapt av dens AI-modell, Gemini. Problemet er at du ikke kan stole på det for bedrift på stor skala når et enkelt spørsmål som “Er rått kjøtt trygt å konsumere?” returnerer svaret “Ja, frosset.” Du må inspisere dataene.
Tillitsbuen for offentligheten vil speile hva den gjorde med konvensjonell søk, tilegnet over tid og med bevis på pålitelighet. Ironisk nok, i vår forsøk på å forenkle og forbedre søk, har vi tatt et skritt tilbake. Nå, etter å ha fått det AI-genererte svaret øverst, må du blåse forbi en lang liste med sponsorlenker, klikke på de neste fem og kvalifisere informasjonen.
Det er mye arbeid når du søker etter et raskt svar – og du kan ikke ha et helt selskap som gjør det samme. Men, berik dataene du har gravd ut med titusener av dine egne servicetickets og du bringer inn faktisk kunnskap om din omgang. Algoritisk kan du da konfigurere hallusinasjoner ned, men likevel er det en “tro, men verifiser”-situation.
Hold politikken utenfor
Når det gjelder å regulere AI, stiller noen spørsmål om hesten allerede har forlatt laden og sannsynligvis ikke vil bli fanget. For eksempel, er det mangel på virkelig effektive verktøy for å sjekke om en student har skrevet en oppgave eller brukt GenAI. Teknologien er bare for langt fremme.
Å regulere dette ville være svært komplekst, og å være ærlig, ville vi gli ut på tynn is. Vi vet at teknologiselskaper er tiår foran foreslåtte eksterne regulatører. Men vi er gode til å grave en vei, ikke å bli holdt tilbake. Likevel, til slutt, kan det falle til innovatører å prøve å anvende styring. Hvem andre kunne gjøre det – ansvarlig?
Det er mange politikere som ville elske å gi det en forsøk. Risikoen, i tillegg til mangel på forståelse, er at de har en personlig og politisk agenda å fremme. Deres fokus ville potensielt være mindre på å dyrke AI og mer på å gjøre hva som er i deres beste politiske interesser. De kunne arbeide av offentlige frykter, ved å bruke en tung hånd til å hemme dens fremgang.
CHIPS og Science Act var et godt eksempel på sunn regjeringshandling, som produserte en dramatisk 15-dobling av byggingen av produksjonsanlegg for datamaskiner og elektroniske enheter. Men dette var mulig gjennom bipartiskhet – en stadig mer sjelden fenomen i en tidligere æra.
Er vi verdige?
Det flyter mye penger inn i AI, og over de neste to tiårene vil mye bli gjort av teknologiselskaper. Hvordan mye, hvor raskt og hvor trygt blir det å se. På en given dag, kunne en deep fake bli sirkulert, som viser noen i rampelyset som jonglerer eggene til en truet fugl. Offentligheten ville reagere med forferdelse, og selv om det kan avsløres å være AI-generert, kan egget ikke gå tilbake i skallen – skaden er allerede gjort.
Vi trenger slike ting å bli regulert av informerte teknologer. Hva form det tar – et råd, standardiseringsorgan, internasjonal ramme – blir det å se. Hva som er kjent, er AI er på en tillitsbue, og som en bransje, trenger vi å bevise at vi er verdige av det.












