- Terminologie (A tot D)
- Controle van AI-mogelijkheden
- AIOps
- Albumentaties
- Activaprestaties
- Auto-encoder
- terugpropagatie
- Stelling van Bayes
- Big data
- Chatbot: een beginnershandleiding
- Computationeel denken
- Computer visie
- Verwarring Matrix
- Convolutional Neural Networks
- Cybersecurity
- Gegevens weefsel
- Verhalen van gegevens
- data Science
- Data opslagplaats
- Beslissingsboom
- Deepfakes
- Diepe leren
- Diep versterkend leren
- devops
- DevSecOps
- Verspreidingsmodellen
- Digitale Twin
- Dimensionaliteitsvermindering
- Terminologie (E tot K)
- Rand AI
- Emotie AI
- Ensemble leren
- Ethisch hacken
- ETL
- Uitleg over AI
- Federatief leren
- FinOps
- generatieve AI
- Generative Adversarial Network
- Generatief versus discriminerend
- Verloopversterking
- Gradient Afdaling
- Weinig-shot leren
- Afbeeldingsclassificatie
- IT-activiteiten (ITOps)
- Automatisering van incidenten
- Beïnvloed techniek
- K-Middelen Clustering
- K-dichtstbijzijnde buren
- Terminologie (L tot Q)
- Terminologie (R tot Z)
- Versterking leren
- Verantwoordelijke AI
- RLHF
- Automatisering van robotprocessen
- Gestructureerd versus ongestructureerd
- Sentiment analyse
- Onder toezicht versus zonder toezicht
- Ondersteuning van vectormachines
- Synthetische gegevens
- Synthetische media
- Tekstclassificatie
- TinyML
- Transfer leren
- Transformator neurale netwerken
- Turing-test
- Zoeken naar vectorovereenkomst
AI 101
Wat is verantwoorde AI? Principes, uitdagingen en voordelen
By
Haziqa SajidInhoudsopgave
Verantwoordelijke AI (RAI) verwijst naar het ontwerpen en implementeren van AI-systemen die transparant, onbevooroordeeld en verantwoordelijk zijn en die ethische richtlijnen volgen. Naarmate AI-systemen robuuster en gangbaarder worden, is het van essentieel belang ervoor te zorgen dat ze op verantwoorde wijze worden ontwikkeld en veiligheids- en ethische richtlijnen volgen.
Gezondheid, Transport, Netwerkbeheer en Surveillance wel veiligheidskritische AI-toepassingen waar systeemfalen ernstige gevolgen kan hebben. Grote bedrijven zijn zich ervan bewust dat RAI essentieel is voor het beperken van technologische risico's. Maar volgens een rapport van MIT Sloan/BCG met 1093 respondenten, 54% van de bedrijven miste expertise en talent op het gebied van verantwoorde AI.
Hoewel opinieleiders en organisaties principes hebben ontwikkeld voor verantwoorde AI, blijft het zorgen voor een verantwoorde ontwikkeling van AI-systemen nog steeds een uitdaging. Laten we dit idee in detail onderzoeken:
5 principes voor verantwoorde AI
1. Eerlijkheid
Technologen moeten procedures ontwerpen zodat AI-systemen alle individuen en groepen eerlijk en zonder vooroordelen behandelen. Daarom is billijkheid de primaire vereiste bij toepassingen voor besluitvorming met een hoog risico.
Eerlijkheid is gedefinieerd als:
"De impact op verschillende demografische groepen onderzoeken en een van de verschillende wiskundige definities van groepsrechtvaardigheid kiezen die voldoende zal voldoen aan de gewenste reeks wettelijke, culturele en ethische vereisten."
2. Verantwoording
Verantwoording betekent dat individuen en organisaties die AI-systemen ontwikkelen en implementeren, verantwoordelijk moeten zijn voor hun beslissingen en acties. Het team dat AI-systemen implementeert, moet ervoor zorgen dat hun AI-systeem transparant, interpreteerbaar en controleerbaar is en geen schade toebrengt aan de samenleving.
Verantwoording omvat zeven componenten:
- Context (doel waarvoor verantwoording vereist is)
- Bereik (onderwerp van verantwoording)
- Agent (wie is verantwoordelijk?)
- Forum (aan wie de verantwoordelijke moet rapporteren)
- Normen (criteria voor verantwoording)
- Proces (wijze van verantwoording)
- Implicaties (gevolgen van verantwoording)
3. Transparantie
Transparantie betekent dat de reden achter besluitvorming in AI-systemen duidelijk en begrijpelijk is. Transparante AI-systemen zijn verklaarbaar.
Think Beoordelingslijst voor betrouwbare kunstmatige intelligentie (ALTAI), heeft transparantie drie belangrijke elementen:
- Traceerbaarheid (de gegevens, voorbewerkingsstappen en het model zijn toegankelijk)
- Uitlegbaarheid (de redenering achter besluitvorming/voorspelling is duidelijk)
- Open communicatie (over de beperking van het AI-systeem)
4. Privacy
Privacy is een van de belangrijkste principes van verantwoorde AI. Het verwijst naar de bescherming van persoonlijke informatie. Dit principe zorgt ervoor dat de persoonlijke informatie van mensen met toestemming wordt verzameld en verwerkt en uit de handen van ontevredenen wordt gehouden.
Zoals onlangs bleek, was er een geval van Clearview, een bedrijf dat gezichtsherkenningsmodellen maakt voor rechtshandhaving en universiteiten. Britse datawaakhonden klaagde Clearview AI aan voor £ 7.5 miljoen voor het zonder toestemming verzamelen van afbeeldingen van inwoners van het VK van sociale media om een database met 20 miljard afbeeldingen te creëren.
5. Veiligheid
Beveiliging betekent ervoor zorgen dat AI-systemen veilig zijn en de samenleving niet bedreigen. Een voorbeeld van een AI-beveiligingsdreiging is vijandige aanvallen. Deze kwaadaardige aanvallen misleiden ML-modellen om verkeerde beslissingen te nemen. Het beschermen van AI-systemen tegen cyberaanvallen is absoluut noodzakelijk voor verantwoorde AI.
4 grote uitdagingen en risico's van verantwoorde AI
1. Vooroordeel
Menselijke vooroordelen met betrekking tot leeftijd, geslacht, nationaliteit en ras kunnen van invloed zijn op de gegevensverzameling, wat mogelijk kan leiden tot vooringenomen AI-modellen. Studie van het Amerikaanse ministerie van Handel ontdekte dat gezichtsherkennings-AI mensen van kleur verkeerd identificeert. Daarom kan het gebruik van AI voor gezichtsherkenning bij wetshandhaving leiden tot onrechtmatige arrestaties. Ook is het maken van eerlijke AI-modellen een uitdaging omdat die er zijn 21 verschillende parameters om ze te definiëren. Er is dus een afweging; voldoen aan de ene eerlijke AI-parameter betekent het opofferen van een andere.
2. Interpretabiliteit
Interpreteerbaarheid is een cruciale uitdaging bij het ontwikkelen van verantwoorde AI. Het verwijst naar het begrijpen hoe het machine learning-model tot een bepaalde conclusie is gekomen.
Diepe neurale netwerken zijn niet interpreteerbaar omdat ze werken als zwarte dozen met meerdere lagen verborgen neuronen, waardoor het besluitvormingsproces moeilijk te begrijpen is. Dit kan een uitdaging zijn bij besluitvorming met hoge inzetten, zoals gezondheidszorg, financiën, enz.
Bovendien is het formaliseren van interpreteerbaarheid in ML-modellen een uitdaging omdat het dat ook is subjectief en domeinspecifiek.
3. Bestuur
Governance verwijst naar een reeks regels, beleidsregels en procedures die toezicht houden op de ontwikkeling en implementatie van AI-systemen. Onlangs is er aanzienlijke vooruitgang geboekt in het discours over AI-governance, met organisaties die kaders en ethische richtlijnen presenteren.
Ethische richtlijnen voor betrouwbare AI door de EU, Australisch AI-ethisch raamwerk en OESO AI-principes zijn voorbeelden van AI-governancekaders.
Maar de snelle vooruitgang op het gebied van AI in de afgelopen jaren kan deze AI-governancekaders overtreffen. Daartoe moet er een raamwerk zijn dat de eerlijkheid, interpreteerbaarheid en ethiek van AI-systemen beoordeelt.
4. Verordening
Naarmate AI-systemen vaker voorkomen, moet er regelgeving komen om rekening te houden met ethische en maatschappelijke waarden. Het ontwikkelen van regelgeving die AI-innovatie niet in de weg staat, is een kritieke uitdaging bij verantwoorde AI.
Zelfs met de General Data Protection Regulation (GDPR), de California Consumer Privacy Act (CCPA) en de Personal Information Protection Law (PIPL) als regelgevende instanties, ontdekten AI-onderzoekers dat 97% van de EU-websites voldoet niet aan de wettelijke kadervereisten van de AVG.
Bovendien hebben wetgevers te maken met a belangrijke uitdaging bij het bereiken van een consensus over de definitie van AI die zowel klassieke AI-systemen als de nieuwste AI-toepassingen omvat.
3 grote voordelen van verantwoorde AI
1. Verminderde vooringenomenheid
Verantwoorde AI vermindert vooringenomenheid in besluitvormingsprocessen en vergroot het vertrouwen in AI-systemen. Het terugdringen van vooroordelen in AI-systemen kan zorgen voor een eerlijk en rechtvaardig gezondheidszorgsysteem en vooroordelen in op AI gebaseerde systemen verminderen financiële diensten enz.
2. Verbeterde transparantie
Responsible AI maakt transparante AI-toepassingen die vertrouwen in AI-systemen opbouwen. Transparante AI-systemen vermindert het risico op fouten en misbruik. Verbeterde transparantie maakt het controleren van AI-systemen eenvoudiger, wint het vertrouwen van belanghebbenden en kan leiden tot verantwoordelijke AI-systemen.
3. Betere beveiliging
Veilige AI-toepassingen zorgen voor gegevensprivacy, produceren betrouwbare en onschadelijke output en zijn veilig voor cyberaanvallen.
Techgiganten houden van Microsoft en Kopen Google Reviews, die vooroplopen bij de ontwikkeling van AI-systemen, hebben principes voor verantwoorde AI ontwikkeld. Verantwoorde AI zorgt ervoor dat de innovatie in AI niet schadelijk is voor individuen en de samenleving.
Gedachteleiders, onderzoekers, organisaties en juridische autoriteiten moeten voortdurend verantwoorde AI-literatuur herzien om een veilige toekomst voor AI-innovatie te waarborgen.
Ga voor meer AI-gerelateerde inhoud naar verenigen.ai.
Haziqa is een Data Scientist met ruime ervaring in het schrijven van technische content voor AI- en SaaS-bedrijven.
Misschien vind je het leuk
Instant-stijl: stijlbehoud bij het genereren van tekst naar afbeelding
LoReFT: Representatieafstemming voor taalmodellen
Beyond Search Engines: de opkomst van LLM-aangedreven webbrowseragenten
Verbetering van de transparantie en het vertrouwen van AI met samengestelde AI
GPU-datacenters belasten elektriciteitsnetwerken: balanceren van AI-innovatie en energieverbruik
Baanbrekende biomimetische geurchips gebruiken AI om robots te laten ruiken