Connect with us

AI-onderzoekers stellen voor om premies uit teloven voor AI-vooringenomenheid om AI meer ethisch te maken

Ethiek

AI-onderzoekers stellen voor om premies uit teloven voor AI-vooringenomenheid om AI meer ethisch te maken

mm

Een team van AI-onderzoekers van bedrijven en AI-ontwikkelingslabo’s zoals Intel, Google Brain en OpenAI heeft aanbevolen om premies te gebruiken om de ethische gebruik van AI te garanderen. Het team van onderzoekers heeft onlangs een aantal voorstellen gedaan met betrekking tot de ethische gebruik van AI, en daaronder een suggestie dat het belonen van mensen voor het ontdekken van vooringenomenheden in AI een effectieve manier kan zijn om AI eerlijker te maken.

Volgens VentureBeat hebben onderzoekers van verschillende bedrijven in de VS en Europa samengewerkt om een set van ethische richtlijnen voor AI-ontwikkeling op te stellen, evenals suggesties voor hoe deze richtlijnen kunnen worden nageleefd. Een van de suggesties die de onderzoekers deden, was het aanbieden van premies aan ontwikkelaars die vooringenomenheden in AI-programma’s vinden. De suggestie werd gedaan in een paper met de titel “Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable Claims“.

Als voorbeelden van de vooringenomenheden die het team van onderzoekers hoopt aan te pakken, zijn vooringenomen gegevens en algoritmes aangetroffen in alles, van gezondheidsapplicaties tot gezichtsherkenningssystemen die door de politie worden gebruikt. Een dergelijk voorbeeld van vooringenomenheid is het PATTERN-risicobeoordelingsinstrument dat onlangs door het Amerikaanse ministerie van Justitie werd gebruikt om gevangenen te triëren en te beslissen welke naar huis konden gaan bij het reduceren van de gevangenisbevolking als reactie op de coronaviruspandemie.

De praktijk van het belonen van ontwikkelaars voor het vinden van ongewenst gedrag in computerprogramma’s is een oude, maar dit kan de eerste keer zijn dat een AI-ethiekcommissie het idee serieus heeft voorgesteld als een optie voor het bestrijden van AI-vooringenomenheid. Hoewel het onwaarschijnlijk is dat er genoeg AI-ontwikkelaars zijn om genoeg vooringenomenheden te vinden om AI ethisch te garanderen, zou het bedrijven nog steeds helpen om de algehele vooringenomenheid te verminderen en een idee te krijgen van welke soorten vooringenomenheden in hun AI-systemen lekken.

De auteurs van het paper legden uit dat het bug-bounty-concept kan worden uitgebreid naar AI met het gebruik van vooringenomenheid en veiligheidspremies en dat een juiste toepassing van deze techniek kan leiden tot beter gedocumenteerde datasets en modellen. De documentatie zou de beperkingen van zowel het model als de gegevens beter weerspiegelen. De onderzoekers merken zelfs op dat hetzelfde idee kan worden toegepast op andere AI-eigenschappen zoals interpretatie, beveiliging en privacysbescherming.

Naarmate er meer discussie plaatsvindt over de ethische principes van AI, hebben velen opgemerkt dat principes alleen niet genoeg zijn en dat actie moet worden ondernomen om AI ethisch te houden. De auteurs van het paper merken op dat “bestaande regelgeving en normen in de industrie en de academische wereld onvoldoende zijn om verantwoorde AI-ontwikkeling te garanderen”. De mede-oprichter van Google Brain en AI-industrieleider Andrew Ng merkte op dat richtlijnen alleen niet genoeg zijn om te garanderen dat AI op een verantwoorde en eerlijke manier wordt gebruikt, en zei dat veel van hen meer expliciet moeten zijn en actiepunten moeten hebben.

De aanbeveling van de gecombineerde onderzoeksgroep om premies uit teloven voor AI-vooringenomenheid is een poging om verder te gaan dan ethische principes naar een gebied van ethische actie. De onderzoeksgroep deed ook een aantal andere aanbevelingen die ethische actie in het AI-veld kunnen stimuleren.

De onderzoeksgroep deed een aantal andere aanbevelingen die bedrijven kunnen volgen om hun AI-gebruik meer ethisch te maken. Ze suggereren dat een centrale database van AI-incidenten moet worden gemaakt en gedeeld met de bredere AI-gemeenschap. Evenzo stellen de onderzoekers voor dat een audittrail moet worden ingesteld en dat deze trails informatie moeten bewaren over de creatie en implementatie van veiligheidskritische toepassingen in AI-platforms.

Om de privacy van mensen te beschermen, stelde de onderzoeksgroep voor dat privacy-georiënteerde technieken zoals versleutelde communicatie, gefedereerd leren en differentiële privacy moeten worden gebruikt. Bovendien stelde de onderzoeksgroep voor dat open source-alternatieven breed beschikbaar moeten worden gemaakt en dat commerciële AI-modellen zwaar moeten worden onderzocht. Ten slotte stelt de onderzoeksgroep voor dat overheidsfinanciering moet worden verhoogd zodat academische onderzoekers hardwareprestatieclaims kunnen verifiëren.

Blogger en programmeur met specialisaties in Machine Learning en Deep Learning onderwerpen. Daniel hoopt anderen te helpen de kracht van AI te gebruiken voor het sociale goede.