Thought leaders
AI en de boog van vertrouwen

Vroeg vorig jaar, toen ons team voorspellingen deed over wat er in het verschiet lag, was de consensus dat de verpakkingen van kunstmatige intelligentie (AI) verwijderd zouden worden. We zouden eindelijk zien wat het kon doen en hopelijk duidelijkheid krijgen over de impact op bedrijven en de samenleving en hoe we verder moeten gaan. Het was geen nieuwe voorspelling, maar de kern was accuraat, hoewel we nog steeds worstelen met de implicaties van AI en hoe (of als) het op de een of andere manier gecontroleerd moet worden.
We zouden uiteindelijk zien dat Apple, Microsoft en Google AI in apparaten integreerden en de kracht ervan naar een bredere en grotere doelgroep brachten. Toen weer, bedreigde een chatbot in een AI-gebaseerd zoekprogramma gebruikers en beweerde dat het spioneerde op werknemers, terwijl een andere suggereerde om Elmer’s lijm te gebruiken in zelfgemaakte pizza om de kaas te voorkomen dat deze eraf glipt. Toch groeiden de zakelijke adoptiegevallen van AI dramatisch en ook de markt. Volgens gegevens van Crunchbase ging bijna een derde van alle wereldwijde venturefinanciering vorig jaar naar bedrijven in AI-gerelateerde gebieden alleen.
Maar zelfs terwijl OpenAI echt opmerkelijke verbeterde redenering leverde, drong de beroemde AI-onderzoeker Yoshua Bengio aan op de adoptie van veiligheidsmaatregelen voor ” frontiermodellen” met het potentieel om catastrofale schade te veroorzaken. En hoewel de technologie twee Nobelprijzen voor toepassingen in de wetenschap zou winnen, uitte een van de ontvangers zijn bezorgdheid over het hebben van systemen “slimmer dan wij die uiteindelijk de controle overnemen.”
In zo’n snel veranderende omgeving is het moeilijk voor experttechnologen om bij te blijven, laat staan voor mensen in de mainstream.
En die AI-hickups – en bezorgdheden over privacy en ongecontroleerd gebruik – hebben alleen maar de publieke behoedzaamheid verergerd.
Vertrouw me gewoon
We bevinden ons halverwege een boog van vertrouwen, een die het vergroten van de publieke acceptatie van AI vereist, terwijl we ervoor zorgen dat de bedrijfs- en technologiegemeenschappen verantwoordelijk handelen. Het eerste deel is waar het spel nu wordt gespeeld, op het corporate niveau, met stoom die toeneemt met elke veilige en solide implementatie. We bouwen voort op onze bewijspunten, die uiteindelijk zullen leiden tot meer publiek vertrouwen. Het tweede deel is echter veel moeilijker.
Wie definieert en handhaaft het verantwoorde gebruik van AI? Kan een industrie richtlijnen creëren wanneer ze zelf gereguleerd moeten worden? Als technologists moeite hebben om AI te volgen, zullen beleidsmakers geïnformeerd zijn en hun politieke agenda’s buiten het gesprek houden? En wanneer een AI-miljardair plotseling over controle wil praten, had hij een openbaring of probeert hij alleen maar de remmen aan te zetten om bij te blijven?
“Vertrouw me gewoon” zal het niet doen met AI, ongeacht wie je bent.
Vertrouw maar verifieer
Mensen kijken naar generatieve AI zoals ChatGPT en vragen zich af of het hun volgende Google zal zijn? Nou, het bovenste resultaat van een Google-zoekopdracht wordt nu gegenereerd door zijn AI-model, Gemini. Het probleem is dat je er niet op kunt vertrouwen voor bedrijven op grote schaal wanneer een eenvoudige vraag als “Is rauw vlees veilig om te consumeren?” het antwoord “Ja, bevroren” retourneert. Je moet de gegevens inspecteren.
De boog van publiek vertrouwen zal hetzelfde doen als bij conventionele zoekopdrachten, die in de loop van de tijd en met bewijs van betrouwbaarheid zijn verkregen. Ironicamente, in onze zoektocht naar vereenvoudiging en verbetering van zoekopdrachten, hebben we een stap achteruit gezet. Nu, nadat je dat AI-gegenereerde antwoord bovenaan hebt gekregen, moet je langs een lange lijst met sponsorlinks scrollen, op de volgende vijf klikken en de informatie nog steeds kwalificeren.
Dat is veel werk als je op zoek bent naar een snel antwoord – en je kunt niet hebben dat een heel bedrijf hetzelfde doet. Echter, als je de gegevens die je hebt gemined met tienduizenden van je eigen servicetickets verrijkt, breng je daadwerkelijke kennis over je omgeving binnen. Algoritmischematig kun je dan hallucinaties naar beneden configureren, maar het blijft een “vertrouw maar verifieer”-situatie.
Houd de politiek erbuiten
Wanneer het gaat om het reguleren van AI, beweren sommigen dat het paard al uit de stal is en waarschijnlijk niet meer gevangen kan worden. Er is bijvoorbeeld een gebrek aan echt effectieve tools om te controleren of een student een paper heeft geschreven of GenAI heeft gebruikt. De technologie is gewoon te ver vooruit.
Het reguleren hiervan zou zeer complex zijn, en om eerlijk te zijn, zouden we op dun ijs terechtkomen. We weten dat technologiebedrijven decennia vooruit zijn op de voorgestelde externe regulators. Maar we zijn goed in het creëren van een pad, niet in het worden tegengehouden. Toch, aan het eind van de dag, kan het vallen tot innovators om te proberen governance toe te passen. Wie anders kon het doen – verantwoord?
Er zijn veel politici die het graag zouden proberen. Het risico, naast een gebrek aan begrip, is dat ze een persoonlijk en politiek agenda hebben om vooruit te komen. Hun focus zou mogelijk minder liggen op het cultiveren van AI en meer op het doen van wat in hun beste politieke belangen is. Ze zouden de publieke angsten kunnen gebruiken, met een zware hand om de vooruitgang te stuiten.
De CHIPS en Science Act was een goed voorbeeld van gezonde overheidsactie, met een dramatische 15-voudige toename in de bouw van productiefaciliteiten voor computing en elektronische apparaten. Maar dit was mogelijk gemaakt door bipartisanship – een steeds zeldzamere verschijning in een ver verleden.
Zijn we waardig?
Er gaat veel geld naar AI en in de komende twee decennia zal veel geld worden gemaakt door technologiebedrijven. Hoeveel, hoe snel en hoe veilig blijft te zien. Op elke gegeven dag kan een diepe vervalsing worden verspreid, waarin iemand in de schijnwerpers te zien is die met de eieren van een bedreigde vogel goochelt. Het publiek zou met afgrijzen reageren, en hoewel het misschien wordt onthuld dat het AI-gegenereerd is, gaat dat ei niet terug in de schaal – de schade is al gebeurd.
We hebben zulke dingen nodig die worden gereguleerd door geïnformeerde technologists. Wat de vorm is – een raad, een standaardorgaan, een internationaal kader – moet nog worden gezien. Wat wel bekend is, is dat AI op een boog van vertrouwen zit, en als industrie moeten we bewijzen dat we het waard zijn.












