Connect with us

Kunstig intelligens

‘Maskinbull’-problemet: Hvorfor AI lyver og hvordan stoppe det

mm

Kunstig intelligens har nådd et punkt der den kan produsere tekst som føles naturlig, sikker og overbevisende. Men bak den polerte teksten finnes det et voksende problem som forskerne nå kaller “maskinbull”. Uttrykket er ikke ment å være provokerende for sin egen skyld. Det kommer fra filosofen Harry Frankfurts arbeid, som definerte “bullshit” som tale uten hensyn til sannhet. I sammenheng med AI, beskriver det en mønster hvor systemer genererer uttalelser som lyder plausibelt, men ikke er grunnlagt i fakta. Dette er ikke det samme som en menneskelig løgn, som innebærer intensjon om å bedra. I stedet er det et resultat av hvordan disse systemene er bygget og trent. De er designet for å produsere flytende språk, ikke for å bry seg om hvorvidt språket er sant.

Hvorfor AI produserer ‘maskinbull’

Problemet er ikke et sjeldent feil eller en isolert feil. Det er et direkte resultat av hvordan store språkmodeller er fundamentalt designet og trent. Disse modellene er trent på massive mengder tekst fra internett, bøker og andre kilder. De lærer mønster av ord og hvordan de er sannsynlig å følge hverandre. Når du stiller et spørsmål, predikerer modellen det neste ordet, så det neste, og så videre. Den sjekker ikke fakta i sanntid. Den har ikke en innebygd sans for sannhet. Hvis det mest statistisk sannsynlige svaret er feil, men lyder riktig, vil den likevel produsere det. Dette er hvorfor AI kan gi deg en falsk kilde, en oppdiktet statistikk eller en forvrengt historisk faktum.

Forskere har funnet at forsterkning av læring fra menneskelig tilbakemelding, en vanlig metode brukt til å gjøre AI-svar mer nyttige og høflige, kan faktisk gjøre problemet verre. Når modeller er justert for å behage brukerne, kan de prioritere å lyde enige over å være nøyaktige. Dette kan føre til hva noen kaller “sycophancy”, hvor AI forteller deg hva den tror du vil høre. I politiske eller sensitive emner, kan dette bety å produsere vag eller unnsippende språk – hva noen studier beskriver som “weasel words”. I andre tilfeller kan AI produsere “tom retorikk”, lange passasjer som lyder tenksomme, men inneholder lite substans.

Noen forskere argumenterer for at å kalle dette beteendet “løgn” er misvisende, fordi løgn krever intensjon. En maskin har ikke overbevisninger eller motiver. Men effekten på brukeren kan være den samme som om det var løgn. Skaden kommer fra usannheten selv, ikke fra intensjonen bak den. Dette er hvorfor uttrykket “maskinbull” får mer oppmerksomhet. Det fanger ideen om at systemet er likegyldig til sannhet, selv om det ikke aktivt prøver å bedra.

Risiko og implikasjoner av misvisende AI-utgang

Risikoen for maskinbull er ikke bare akademisk. I hverdagsbruk kan det mislede mennesker som avhenger av AI for informasjon. I journalistikk kan det forurenske faktasjekkingen. I utdanning kan det gi studenter falsk tillit til feil svar. I forretning kan det forvrengle beslutningstakingen. Faren er forsterket fordi AI-utgang ofte kommer med en tone av autoritet. Mennesker er mer sannsynlig å stole på en uttalelse som er veltrent og fri for tøven. Denne tilliten kan være misplassert når systemet ikke har noen intern mekanisme for å verifisere hva det sier.

Strategier for å redusere skade og forbedre påliteligheten

Å stoppe problemet krever mer enn bare bedre treningdata. Selv om å forbedre kvaliteten og mangfoldet av data kan hjelpe, endrer det ikke faktumet at modellens grunnleggende mål er å produsere sannsynlig tekst, ikke sant tekst. En tilnærming er å integrere faktasjekkingssystemer som kjører sammen med språkmodellen. Disse systemene kan verifisere påstander mot pålitelige databaser før de presenteres til brukeren. En annen tilnærming er retrieval-augmented generering, hvor modellen søker etter relevante dokumenter i sanntid og bruker dem til å grunnlegge sine svar. Dette kan redusere hallucinasjoner, selv om det ikke eliminerer dem fullstendig.

Gjennomsiktighet er også essensiell. Brukere bør bli fortalt når en AI gjør en utdannet gjetning i stedet for å uttale en verifisert faktum. Dette kan gjøres gjennom tillitskår eller klare advarsler. Noen forskere foreslår at AI bør trenes til å uttrykke usikkerhet oftere, i stedet for å alltid gi et bestemt svar. Dette ville gjøre interaksjonen mer som å snakke med en kjent, men feilbarlig assistent.

Det er også en rolle for regulering og bransjestandarder. Hvis AI-systemer skal brukes i områder som helse, lov eller finansiell virksomhet, bør det være klare krav til nøyaktighet og ansvar. Utviklere bør kunne forklare hvordan deres systemer fungerer, hva data de ble trent på, og hva skritt som tas for å redusere usannheter. Uavhengige auditorer kan hjelpe med å sikre at disse kravene ikke bare er markedsføring.

Samtidig må brukerne utvikle en sunn skepsis mot AI-utgang. Like som vi har lært å spørre informasjon vi ser på sosiale medier, må vi spørre informasjon fra AI. Dette betyr ikke å avvise det fullstendig, men å behandle det som et utgangspunkt i stedet for et endelig svar. Å kontrollere med andre kilder bør bli en vane. Utdanningssystemer kan spille en rol her, ved å undervise i digital kompetanse som inkluderer å forstå hvordan AI fungerer og hvor det kan gå galt.

Maskinbull-problemet er ikke på vei til å forsvinne snart. Ettersom AI blir mer avansert, vil dens evne til å produsere overbevisende usannheter bare øke. Men dette betyr ikke at vi ikke kan gjøre noe. Ved å kombinere tekniske sikkerhetstiltak, gjennomsiktighet, regulering og brukerbevissthet, kan vi redusere skaden. Målet er ikke å gjøre AI perfekt – ingen system vil noen gang være feilfri – men å gjøre det mer pålitelig og mindre sannsynlig å mislede.

Bunnen av saken

Uttrykket “maskinbull” kan høres brutalt ut, men det fanger en realitet vi ikke kan ignorere. AI er ikke et nøytralt speil av menneskelig kunnskap. Det er en generator av språk formet av data, algoritmer og incitamenter. Hvis vi vil at det skal tjene sannhet i stedet for bare flytende språk, må vi designe det slik. Det betyr å tenke om ikke bare teknologien, men også verdier som styrer utviklingen. Utfordringen er like mye om menneskelige prioriteringer som det er om maskinkapasiteter. Vil vi ha systemer som er optimalisert for å lyde menneskelig, eller systemer som er optimalisert for å være sanne? De to er ikke alltid det samme. Hvis vi velger det første, risikerer vi å bygge verktøy som er overbevisende, men uansvarlige. Hvis vi velger det andre, må vi kanskje akseptere at AI noen ganger vil være mindre glatt, mindre sikker og mindre underholdende. Men det vil også være mer ærlig.

Dr. Tehseen Zia er en fast ansatt associate professor ved COMSATS University Islamabad, med en PhD i AI fra Vienna University of Technology, Østerrike. Som spesialist i kunstig intelligens, maskinlæring, datavitenskap og datavisjon, har han gjort betydelige bidrag med publikasjoner i anerkjente vitenskapelige tidsskrifter. Dr. Tehseen har også ledet flere industriprosjekter som hovedundersøker og tjenestegjort som AI-konsulent.