Gedachte leiders
Het gaat niet om wat AI voor ons kan doen, maar om wat wij voor AI kunnen doen.

De meesten bekijken kunstmatige intelligentie (AI) vanuit een eenzijdig perspectief. De technologie bestaat alleen om mensen te dienen en nieuwe niveaus van efficiƫntie, nauwkeurigheid en productiviteit te bereiken. Maar wat als we de helft van de vergelijking missen? En wat als we daardoor de tekortkomingen van de technologie alleen maar versterken?
AI staat nog in de kinderschoenen en kampt nog steeds met aanzienlijke beperkingen op het gebied van redeneren, datakwaliteit en het begrijpen van concepten als vertrouwen, waarde en prikkels. De kloof tussen de huidige mogelijkheden en echte 'intelligentie' is aanzienlijk. Het goede nieuws? We kunnen dit veranderen door actieve samenwerkers te worden in plaats van passieve consumenten van AI.
Mensen hebben de sleutel tot intelligente evolutie in handen door betere redeneringskaders te bieden, hoogwaardige data te leveren en de vertrouwenskloof te dichten. Hierdoor kunnen mens en machine zij aan zij werken voor een win-winsituatie ā betere samenwerking genereert betere data en betere resultaten.
Laten we eens bekijken hoe een meer symbiotische relatie eruit zou kunnen zien en hoe een zinvolle samenwerking tussen partners beide partijen in de AI-vergelijking ten goede kan komen.
De vereiste relatie tussen mens en machine
AI is ongetwijfeld uitstekend in het analyseren van enorme datasets en het automatiseren van complexe taken. De technologie blijft echter fundamenteel beperkt in denken zoals wij. Ten eerste worstelen deze modellen en platforms met redeneren voorbij hun trainingsdata. Patroonherkenning en statistische voorspelling vormen geen probleem, maar de contextuele beoordeling en logische kaders die we als vanzelfsprekend beschouwen, zijn lastiger te repliceren. Deze redeneringskloof zorgt ervoor dat AI vaak tekortschiet in genuanceerde scenario's of ethische oordelen.
Ten tweede is er de datakwaliteit van 'garbage in, garbage out'. Huidige modellen worden getraind op enorme hoeveelheden informatie, met en zonder toestemming. Ongeverifieerde of bevooroordeelde informatie wordt gebruikt, ongeacht de juiste toeschrijving of autorisatie, wat resulteert in ongeverifieerde of bevooroordeelde AI. De "datadieet"van modellen is daarom op zijn best twijfelachtig en op zijn slechtst willekeurig. Het is nuttig om deze impact in voedingstermen te bekijken. Als mensen alleen junkfood eten, zijn we traag en sloom. Als agenten alleen auteursrechtelijk en tweedehands materiaal consumeren, worden hun prestaties op dezelfde manier belemmerd door output die onnauwkeurig, onbetrouwbaar en algemeen in plaats van specifiek is. Dit is nog ver weg de autonome en proactieve besluitvorming die de komende golf van agenten belooft.
Cruciaal is dat AI nog steeds blind is voor met wie en wat het communiceert. Het kan geen onderscheid maken tussen gebruikers die wel of niet op ƩƩn lijn zitten, worstelt met het verifiĆ«ren van relaties en begrijpt concepten zoals vertrouwen, waarde-uitwisseling en prikkels van stakeholders niet ā kernelementen die menselijke interacties bepalen.
AI-problemen met menselijke oplossingen
We moeten nadenken over AI-platforms, -tools en -agenten minder als bedienden en meer als assistenten die we kunnen helpen trainen. Laten we om te beginnen eens kijken naar redeneren. We kunnen nieuwe logische kaders, ethische richtlijnen en strategisch denken introduceren die AI-systemen niet alleen kunnen ontwikkelen. Door middel van doordachte aansturing en zorgvuldige begeleiding kunnen we de statistische kracht van AI aanvullen met menselijke wijsheid ā door AI te leren patronen te herkennen en de contexten te begrijpen die die patronen betekenisvol maken.
Op dezelfde manier kunnen mensen, in plaats van dat AI traint op welke informatie dan ook die het van het internet verzamelt, datasets van hogere kwaliteit samenstellen die geverifieerd, divers en ethisch verantwoord zijn.
Dat betekent dat we betere toekenningssystemen moeten ontwikkelen, waarbij makers van content worden erkend en beloond voor hun bijdrage aan trainingen.
Opkomende frameworks maken dit mogelijk. Door het verenigen van online identiteiten onder ƩƩn vlag En om te bepalen of en wat ze willen delen, kunnen gebruikers modellen uitrusten met zero-party-informatie die privacy, toestemming en regelgeving respecteert. Sterker nog, door deze informatie op de blockchain te volgen, kunnen gebruikers en modelmakers zien waar de informatie vandaan komt en makers adequaat compenseren voor het verstrekken hiervan.nieuwe olie.ā Zo belonen we gebruikers voor hun data en betrekken we ze bij de informatierevolutie.
Ten slotte betekent het overbruggen van de vertrouwenskloof dat modellen worden uitgerust met menselijke waarden en attitudes. Dit betekent het ontwerpen van mechanismen die stakeholders herkennen, relaties verifiĆ«ren en onderscheid maken tussen gelijkgestemde en niet-gelijkgestemde gebruikers. Zo helpen we AI de operationele context ervan te begrijpen: wie profiteert van zijn acties, wat draagt āābij aan zijn ontwikkeling en hoe waarde stroomt door de systemen waaraan het deelneemt.
Agents die ondersteund worden door blockchain-infrastructuur zijn hier bijvoorbeeld behoorlijk goed in. Ze kunnen gebruikers met aantoonbare betrokkenheid bij het ecosysteem herkennen en prioriteren via reputatie, sociale invloed of tokenbezit. Dit stelt AI in staat om prikkels af te stemmen door meer gewicht te geven aan stakeholders die er echt iets mee te maken hebben, en zo governancesystemen te creƫren waarin geverifieerde supporters deelnemen aan de besluitvorming op basis van hun mate van betrokkenheid. Hierdoor begrijpt AI het ecosysteem beter en kan het beslissingen nemen op basis van echte relaties met stakeholders.
Verlies het menselijke element in AI niet uit het oog
Er is veel gezegd over de opkomst van deze technologie en hoe deze sectoren dreigt te transformeren en banen dreigt te vernietigen. Het inbouwen van beperkingen kan er echter voor zorgen dat AI de menselijke ervaring versterkt in plaats van overstijgt. Zo vervangen de meest succesvolle AI-implementaties mensen niet, maar breiden ze uit wat we samen kunnen bereiken. Wanneer AI routinematige analyses uitvoert en mensen creatieve richting en ethisch toezicht bieden, leveren beide partijen hun unieke krachten.
Als AI goed wordt toegepast, belooft het de kwaliteit en efficiƫntie van talloze menselijke processen te verbeteren. Maar als het verkeerd wordt toegepast, wordt het beperkt door twijfelachtige databronnen en bootst het slechts intelligentie na in plaats van daadwerkelijk intelligentie te vertonen. Het is aan ons, de menselijke kant van de vergelijking, om deze modellen slimmer te maken en ervoor te zorgen dat onze waarden, oordeelsvermogen en ethiek centraal blijven staan.
Vertrouwen is onontkoombaar om deze technologie mainstream te maken. Wanneer gebruikers kunnen controleren waar hun data naartoe gaat, zien hoe deze wordt gebruikt en kunnen deelnemen aan de waarde die het creƫert, worden ze bereidwillige partners in plaats van onwillige subjecten. Evenzo worden AI-systemen betrouwbaarder wanneer ze gebruikmaken van gecoƶrdineerde stakeholders en transparante datapijplijnen. Dit vergroot de kans op toegang tot onze belangrijkste privƩ- en professionele ruimtes, wat een vliegwiel creƫert voor betere datatoegang en betere resultaten.
Laten we ons, op weg naar de volgende fase van AI, richten op het verbinden van mens en machine met verifieerbare relaties, hoogwaardige databronnen en nauwkeurige systemen. We moeten ons niet afvragen wat AI voor ons kan doen, maar wat wij voor AI kunnen doen.