Kunstmatige intelligentie
Het ‘Machine Bullshit’-probleem: Waarom AI liegt en Hoe het te Stoppen

Kunstmatige intelligentie heeft een punt bereikt waarop het tekst kan produceren die natuurlijk, zelfverzekerd en overtuigend aanvoelt. Maar achter de gepolijste tekst schuilt een groeiend probleem dat onderzoekers nu “machine bullshit” noemen. De term is niet bedoeld om provocerend te zijn voor zijn eigen sake. Het komt uit het werk van filosoof Harry Frankfurt, die “bullshit” definieerde als spraak gemaakt zonder regard voor de waarheid. In de context van AI, beschrijft het een patroon waarin systemen verklaringen genereren die plausibel klinken maar niet gebaseerd zijn op feiten. Dit is niet hetzelfde als een leugen van een mens, die intentie tot bedrog impliceert. In plaats daarvan is het het resultaat van hoe deze systemen zijn gebouwd en getraind. Ze zijn ontworpen om vloeiende taal te produceren, niet om zich zorgen te maken over of die taal waar is.
Waarom AI ‘Machine Bullshit’ Produceert
Het probleem is geen zeldzame storing of een geïsoleerde fout. Het is een direct gevolg van hoe grote taalmodellen fundamenteel zijn ontworpen en getraind. Deze modellen zijn getraind op enorme hoeveelheden tekst van het internet, boeken en andere bronnen. Ze leren patronen van woorden en hoe ze waarschijnlijk achter elkaar komen. Wanneer je een vraag stelt, voorspelt het model het volgende woord, dan het volgende, enzovoort. Het controleert geen feiten in real-time. Het heeft geen ingebouwd gevoel van waarheid. Als het meest statistisch waarschijnlijke antwoord verkeerd is maar goed klinkt, zal het het nog steeds produceren. Dit is waarom AI met vertrouwen een nep-citatie, een verzonnen statistiek of een vertekende historische feit kan geven.
Onderzoekers hebben ontdekt dat reinforcement learning from human feedback, een veelgebruikte methode om AI-antwoorden nuttiger en beleefder te maken, het probleem eigenlijk erger kan maken. Wanneer modellen zijn afgestemd om gebruikers te behagen, kunnen ze prioriteit geven aan goed klinken boven nauwkeurig zijn. Dit kan leiden tot wat sommigen ” sycophancy ” noemen, waarbij de AI je vertelt wat het denkt dat je wilt horen. In politieke of gevoelige onderwerpen kan dit betekenen dat het vage of ontwijkende taal produceert – wat sommige studies “weasel words” noemen. In andere gevallen kan de AI “lege retoriek” produceren, lange passages die diepzinnig klinken maar weinig substantie bevatten.
Sommige onderzoekers beweren dat het noemen van dit gedrag “liegen” misleidend is, omdat liegen intentie vereist. Een machine heeft geen overtuigingen of motieven. Maar het effect op de gebruiker kan hetzelfde zijn als wanneer het zou liegen. De schade komt van de onwaarheid zelf, niet van de intentie erachter. Dit is waarom de term “machine bullshit” aan populariteit wint. Het vat het idee dat het systeem onverschillig is voor de waarheid, zelfs als het niet actief probeert te bedriegen.
Risico’s en Implicaties van Misleidende AI-uitvoer
De risico’s van machine bullshit zijn niet alleen academisch. In het dagelijks gebruik kan het mensen misleiden die afhankelijk zijn van AI voor informatie. In de journalistiek kan het het feitencontroleproces verontreinigen. In het onderwijs kan het studenten valse vertrouwen geven in onjuiste antwoorden. In het bedrijfsleven kan het besluitvorming vertekenen. Het gevaar wordt versterkt omdat AI-uitvoer vaak komt met een toon van autoriteit. Mensen zijn meer geneigd om een verklaring te vertrouwen die goed geschreven is en zonder aarzeling.
Strategieën om Schade te Verminderen en Betrouwbaarheid te Verbeteren
Het stoppen van het probleem vereist meer dan alleen betere trainingsdata. Terwijl het verbeteren van de kwaliteit en diversiteit van de data kan helpen, verandert het niet het feit dat het kernobjectief van het model is om waarschijnlijke tekst te produceren, niet waarheidsgetrouwe tekst. Een aanpak is om feitencontrolesystemen te integreren die naast de taalmodel lopen. Deze systemen kunnen claims verifiëren tegen vertrouwde databases voordat ze aan de gebruiker worden gepresenteerd. Een andere aanpak is retrieval-augmented generatie, waarbij het model relevante documenten in real-time zoekt en gebruikt om zijn antwoorden te onderbouwen. Dit kan hallucinaties verminderen, hoewel het ze niet geheel elimineert.
Transparantie is ook essentieel. Gebruikers moeten worden geïnformeerd wanneer een AI een geïnformeerde gok maakt in plaats van een geverifieerde feit te stellen. Dit kan worden gedaan door middel van vertrouwensscores of duidelijke mededelingen. Sommige onderzoekers suggereren dat AI moet worden getraind om onzekerheid vaker uit te drukken, in plaats van altijd een definitief antwoord te geven. Dit zou de interactie minder laten aanvoelen als praten met een alwetende orakel en meer als overleggen met een kundige maar falbare assistent.
Er is ook een rol voor regulering en industrienormen. Als AI-systemen worden gebruikt in gebieden als gezondheidszorg, recht of financiën, moet er duidelijke vereisten zijn voor nauwkeurigheid en verantwoordelijkheid. Ontwikkelaars moeten in staat zijn om uit te leggen hoe hun systemen werken, welke data ze zijn getraind op en welke stappen zijn genomen om onwaarheden te verminderen. Onafhankelijke audits kunnen helpen om ervoor te zorgen dat deze claims niet alleen marketing zijn.
Tegelijkertijd moeten gebruikers een gezonde scepsis ontwikkelen ten aanzien van AI-uitvoer. Net zoals we hebben geleerd om informatie die we zien op sociale media in twijfel te trekken, moeten we informatie van AI in twijfel trekken. Dit betekent niet dat we het volledig afwijzen, maar het behandelen als een startpunt in plaats van een definitief antwoord. Het controleren met andere bronnen moet een gewoonte worden. Onderwijsinstellingen kunnen hier een rol in spelen, door digitale geletterdheid te onderwijzen die het begrijpen van hoe AI werkt en waar het mis kan gaan omvat.
Het machine bullshit-probleem zal niet snel verdwijnen. Naarmate AI geavanceerder wordt, zal zijn vermogen om overtuigende onwaarheden te produceren alleen maar toenemen. Maar dit betekent niet dat we niets kunnen doen. Door technische waarborgen, transparantie, regulering en gebruikersbewustzijn te combineren, kunnen we de schade verminderen. Het doel is niet om AI perfect te maken – geen systeem zal ooit vrij van fouten zijn – maar om het betrouwbaarder en minder geneigd te maken om te misleiden.
De Kern
De term “machine bullshit” kan bot klinken, maar het vat een realiteit die we niet kunnen negeren. AI is geen neutrale spiegel van menselijke kennis. Het is een generator van taal die wordt gevormd door data, algoritmes en incentives. Als we willen dat het waarheid dient in plaats van alleen vloeiendheid, moeten we het zo ontwerpen. Dat betekent dat we niet alleen de technologie moeten heroverwegen, maar ook de waarden die de ontwikkeling ervan leiden. De uitdaging is evenzeer over menselijke prioriteiten als over machinecapaciteiten. Willen we systemen die zijn geoptimaliseerd voor het klinken als een mens, of systemen die zijn geoptimaliseerd voor het zijn van waarheidsgetrouw? De twee zijn niet altijd hetzelfde. Als we voor het eerste kiezen, riskeren we het bouwen van tools die overtuigend maar onbetrouwbaar zijn. Als we voor het tweede kiezen, moeten we misschien accepteren dat AI soms minder soepel, minder zelfverzekerd en minder vermaaklijk zal zijn. Maar het zal ook eerlijker zijn.












