stomp Onderzoekers ontwikkelen algoritmen gericht op het voorkomen van slecht gedrag in AI - Unite.AI
Verbind je met ons

Ethiek

Onderzoekers ontwikkelen algoritmen gericht op het voorkomen van slecht gedrag in AI

mm
Bijgewerkt on

Naast alle vorderingen en voordelen die kunstmatige intelligentie tot nu toe heeft getoond, waren er ook meldingen van ongewenste bijwerkingen zoals raciale en gendervooroordelen bij AI. Zoals sciencealert. com stelt de vraag “hoe kunnen wetenschappers ervoor zorgen dat geavanceerde denksystemen eerlijk of zelfs veilig kunnen zijn?”

Het antwoord kan liggen in het rapport van onderzoekers van Stanford en de Universiteit van Massachusetts Amherst, getiteld Voorkomen van ongewenst gedrag van intelligente machines. Als eurekaalert.org merkt op in zijn verhaal over dit rapport, begint AI nu gevoelige taken uit te voeren, dus “beleidsmakers dringen erop aan dat computerwetenschappers de verzekering geven dat geautomatiseerde systemen zijn ontworpen om ongewenste resultaten, zoals buitensporige risico's of raciale en gendervooroordelen.”

Het rapport dat dit team van onderzoekers presenteerde “schetst een nieuwe techniek die een vaag doel, zoals het vermijden van gendervooroordelen, vertaalt naar de precieze wiskundige criteria waarmee een algoritme voor machine learning een AI-toepassing kan trainen om dat gedrag te vermijden.”

Het doel was, als Emma Brunskill, een assistent-professor informatica aan Stanford en senior auteur van de paper, wijst erop dat "we AI willen bevorderen die de waarden van zijn menselijke gebruikers respecteert en het vertrouwen rechtvaardigt dat we in autonome systemen stellen."

Het idee was om te definiëren "onveilige" of "oneerlijke" uitkomsten of gedragingen in wiskundige termen. Dit zou het volgens de onderzoekers mogelijk maken "algoritmen te maken die kunnen leren van gegevens om deze ongewenste resultaten met een hoog vertrouwen te vermijden."

Het tweede doel was om “een reeks technieken ontwikkelen die het voor gebruikers gemakkelijk maakt om te specificeren welke soorten ongewenst gedrag ze willen beperken en die ontwerpers van machine learning in staat stellen met vertrouwen te voorspellen dat een systeem dat is getraind met behulp van gegevens uit het verleden, kan worden vertrouwd wanneer het in de praktijk wordt toegepast. wereldomstandigheden.”

ScienceAlert zegt dat het team dit nieuwe systeem een ​​naam heeft gegeven  'Seldonische' algoritmen, naar het centrale personage van Isaac Asimov's fameuze Foundation reeks scifi-romans. Philip Thomas, assistent-professor informatica aan de Universiteit van Massachusetts Amherst en eerste auteur van de aantekeningen op papier, “Als ik een Seldoniaans algoritme gebruik voor suikerziekte behandeling kan ik specificeren dat ongewenst gedrag een gevaarlijk lage bloedsuikerspiegel of hypoglykemie betekent.” 

"Ik kan tegen de machine zeggen: 'Terwijl u probeert de controller in de insulinepomp te verbeteren, breng geen wijzigingen aan die de frequentie van hypoglykemie zouden verhogen.' De meeste algoritmen geven je geen manier om dit soort beperkingen op te leggen aan gedrag; het was niet opgenomen in vroege ontwerpen.

Thomas voegt eraan toe dat “dit Seldonische raamwerk zal het voor ontwerpers van machine learning gemakkelijker maken om gedragsvermijdingsinstructies in allerlei soorten algoritmen in te bouwen, op een manier die hen in staat stelt de waarschijnlijkheid in te schatten dat getrainde systemen goed zullen functioneren in de echte wereld.”

Emma Brunskill van haar kant merkt dat ook op "nadenken over hoe we algoritmen kunnen maken die waarden als veiligheid en eerlijkheid het beste respecteren, is essentieel nu de samenleving steeds meer afhankelijk is van AI."

Voormalig diplomaat en vertaler voor de VN, momenteel freelance journalist/schrijver/onderzoeker, gericht op moderne technologie, kunstmatige intelligentie en moderne cultuur.