Ethiek
Onderzoekers ontwikkelen algoritmes gericht op het voorkomen van slecht gedrag in AI

Naast alle vooruitgang en voordelen die kunstmatige intelligentie tot nu toe heeft getoond, waren er ook rapporten over ongewenste neveneffecten zoals raciale en geslachtsgebonden vooroordelen in AI. Dus, zoals sciencealert.com de vraag stelt “hoe kunnen wetenschappers ervoor zorgen dat geavanceerde denksystemen eerlijk of zelfs veilig kunnen zijn?”
Het antwoord kan liggen in het rapport van onderzoekers aan Stanford en de University of Massachusetts Amherst, getiteld Het voorkomen van ongewenst gedrag van intelligente machines. Zoals eurekaalert.org in zijn verhaal over dit rapport opmerkt, begint AI nu gevoelige taken te verrichten, dus “beleidsmakers eisen dat computerwetenschappers garanties bieden dat geautomatiseerde systemen zijn ontworpen om ongewenste resultaten zoals excessief risico of raciale en geslachtsgebonden vooroordelen te minimaliseren, zo niet volledig te vermijden.”
Het rapport dat dit team van onderzoekers presenteerde “schetst een nieuwe techniek die een vaag doel, zoals het vermijden van geslachtsgebonden vooroordelen, vertaalt in precieze wiskundige criteria die een machine-learningalgoritme in staat stellen om een AI-toepassing te trainen om dat gedrag te vermijden.”
Het doel was, zoals Emma Brunskill, een assistent-professor in de computerwetenschappen aan Stanford en senior auteur van het artikel, opmerkt “we willen AI ontwikkelen die de waarden van zijn menselijke gebruikers respecteert en de vertrouwen rechtvaardigt dat we stellen in autonome systemen.”
Het idee was om “onveilig” of “oneerlijk” resultaten of gedragingen in wiskundige termen te definiëren. Dit zou, volgens de onderzoekers, het mogelijk maken “om algoritmes te creëren die kunnen leren van gegevens over hoe ze deze ongewenste resultaten met hoge zekerheid kunnen vermijden.”
Het tweede doel was om “een reeks technieken te ontwikkelen die het voor gebruikers gemakkelijk maken om aan te geven welk soort ongewenst gedrag ze willen beperken en om machine-learningontwerpers in staat te stellen om met vertrouwen te voorspellen dat een systeem dat is getraind met historische gegevens, betrouwbaar kan worden gebruikt wanneer het in de praktijk wordt toegepast.”
ScienceAlert zegt dat het team dit nieuwe systeem ‘Seldonian’ algoritmes noemt, naar de centrale figuur van Isaac Asimov’s beroemde Foundation-serie van sciencefictionromans. Philip Thomas, een assistent-professor in de computerwetenschappen aan de University of Massachusetts Amherst en eerste auteur van het artikel, merkt op, “Als ik een Seldonian-algoritme voor diabetesbehandeling gebruik, kan ik aangeven dat ongewenst gedrag gevaarlijk lage bloedsuikers of hypoglykemie betekent.”
“Ik kan tegen de machine zeggen, ‘Terwijl je de controller in de insulinepomp probeert te verbeteren, maak geen wijzigingen die de frequentie van hypoglykemie zouden verhogen.’ De meeste algoritmes geven je geen manier om dit soort beperkingen op het gedrag op te leggen; het was niet inbegrepen in de vroege ontwerpen.”
Thomas voegt eraan toe dat “dit Seldonian-kader het voor machine-learningontwerpers gemakkelijker zal maken om instructies voor het vermijden van gedrag in alle soorten algoritmes op te nemen, op een manier die het mogelijk maakt om de waarschijnlijkheid te beoordelen dat getrainde systemen goed zullen functioneren in de praktijk.”
Emma Brunskill merkt voor haar part op dat “na te denken over hoe we algoritmes kunnen creëren die de waarden van veiligheid en eerlijkheid het beste respecteren, essentieel is, aangezien de samenleving steeds meer afhankelijk is van AI.”
