Connect with us

Thought leaders

Hoe operationaliseer je AI-ethiek?

mm

AI gaat over het optimaliseren van processen, niet over het elimineren van mensen uit deze processen. Verantwoordelijkheid blijft cruciaal in de overkoepelende idee dat AI mensen kan vervangen. Terwijl technologie en geautomatiseerde systemen ons in het verleden hebben geholpen om betere economische resultaten te behalen, kunnen ze echt diensten, creativiteit en diepgaande kennis vervangen? Ik geloof nog steeds dat ze dat niet kunnen, maar ze kunnen de tijd die besteed wordt aan het ontwikkelen van deze gebieden optimaliseren.

Verantwoordelijkheid is sterk afhankelijk van intellectuele eigendomsrechten, het voorzien van de impact van technologie op collectieve en individuele rechten, en het waarborgen van de veiligheid en bescherming van gegevens die worden gebruikt bij het trainen en delen van nieuwe modellen. Naarmate we verder gaan in de technologie, is het onderwerp van AI-ethiek steeds relevanter geworden. Dit roept belangrijke vragen op over hoe we AI reguleren en integreren in de samenleving, terwijl we potentiële risico’s minimaliseren.

Ik werk nauw samen met een aspect van AI – stemkloon. De stem is een belangrijk onderdeel van iemands gelijkenis en biometrische gegevens die worden gebruikt om stemmodellen te trainen. De bescherming van gelijkenis (juridische en beleidsvragen), het beveiligen van stemgegevens (privacybeleid en cybersecurity) en het vaststellen van de grenzen van stemkloon-toepassingen (ethische vragen die de impact meten) zijn essentieel om te overwegen bij het bouwen van het product.

We moeten evalueren hoe AI aansluit bij de normen en waarden van de samenleving. AI moet worden aangepast om binnen het bestaande ethische kader van de samenleving te passen, zodat het geen extra risico’s oplevert of gevestigde sociale normen bedreigt. De impact van technologie omvat gebieden waar AI een groep individuen empowerd, terwijl het anderen elimineert. Dit existentiële dilemma doet zich voor in elke fase van onze ontwikkeling en sociale groei of neergang. Kan AI meer desinformatie introduceren in informatiesystemen? Ja. Hoe beheersen we dat risico op productniveau, en hoe onderwijzen we gebruikers en beleidsmakers hierover? De antwoorden liggen niet in de gevaren van de technologie zelf, maar in hoe we deze verpakken in producten en diensten. Als we niet genoeg mankracht hebben op productteams om verder te kijken en de impact van technologie te beoordelen, zullen we vastzitten in een cyclus van het oplossen van de rommel.

De integratie van AI in producten roept vragen op over productveiligheid en het voorkomen van AI-gerelateerde schade. De ontwikkeling en implementatie van AI moeten veiligheid en ethische overwegingen prioriteren, wat een toewijzing van middelen aan relevante teams vereist.

Om de opkomende discussie over het operationaliseren van AI-ethiek te faciliteren, stel ik deze basis cyclus voor om AI ethisch te maken op productniveau:

1. Onderzoek de juridische aspecten van AI en hoe we deze reguleren, als er regels bestaan. Dit omvat de EU’s AI-wet, de Digitale Dienstenwet, het Online Veiligheidsbesluit van het VK en de AVG voor gegevensbescherming. De kaders zijn werken in uitvoering en hebben input nodig van industriele voorlopers (emergente technologie) en leiders. Zie punt (4) die de voorgestelde cyclus voltooit.

2. Overweeg hoe we AI-gebaseerde producten aanpassen aan de normen van de samenleving zonder extra risico’s op te leggen. Heeft het invloed op de informatiebeveiliging of de arbeidsmarkt, of schendt het auteursrechten en intellectuele eigendomsrechten? Maak een crisis scenario-gebaseerde matrix. Ik haal dit uit mijn internationale veiligheidsachtergrond.

3. Bepaal hoe we het bovenstaande integreren in AI-gebaseerde producten. Naarmate AI geavanceerder wordt, moeten we ervoor zorgen dat het aansluit bij de waarden en normen van de samenleving. We moeten proactief zijn in het aanpakken van ethische overwegingen en deze integreren in de ontwikkeling en implementatie van AI. Als AI-gebaseerde producten, zoals generatieve AI, bedreigen om meer desinformatie te verspreiden, moeten we mitigatiekenmerken introduceren, moderatie, toegang tot core-technologie beperken en communiceren met gebruikers. Het is essentieel om AI-ethiek- en veiligheidsteams te hebben in AI-gebaseerde producten, wat middelen en een bedrijfsvisie vereist.

Overweeg hoe we kunnen bijdragen aan en vormgeven aan juridische kaders. Best practices en beleidskaders zijn geen lege buzzwords, maar praktische instrumenten die helpen om nieuwe technologie te laten functioneren als hulpmiddelen in plaats van dreigende bedreigingen. Het samenbrengen van beleidsmakers, onderzoekers, grote technologie en emergente technologie is essentieel om sociale en zakelijke belangen rond AI in evenwicht te brengen. Juridische kaders moeten zich aanpassen aan de opkomende technologie van AI, waarbij wordt gewaarborgd dat ze individuen en de samenleving beschermen en tegelijkertijd innovatie en vooruitgang faciliteren.

4. Denk aan hoe we bijdragen aan de juridische kaders en deze vormgeven. De best practices en beleidskaders zijn geen lege buzzwords, maar praktische instrumenten om de nieuwe technologie te laten functioneren als hulpmiddelen, in plaats van dreigende bedreigingen. Het hebben van beleidsmakers, onderzoekers, grote technologie en emergente technologie in één ruimte is essentieel om sociale en zakelijke belangen rond AI in evenwicht te brengen. Juridische kaders moeten zich aanpassen aan de opkomende technologie van AI. We moeten ervoor zorgen dat deze kaders individuen en de samenleving beschermen en tegelijkertijd innovatie en vooruitgang faciliteren.

Samenvatting

Dit is een echt basis cyclus van integratie van AI-gebaseerde opkomende technologieën in onze samenlevingen. Naarmate we verder worstelen met de complexiteiten van AI-ethiek, is het essentieel om toegewijd te blijven aan het vinden van oplossingen die veiligheid, ethiek en sociaal welzijn prioriteren. En deze woorden zijn geen lege woorden, maar het harde werk van het dagelijks samenstellen van alle puzzels.

Deze woorden zijn gebaseerd op mijn eigen ervaring en conclusies.

Anna is Head of Ethics and Partnerships at Respeecher, een met een Emmy Award bekroonde voice cloning technologie met vestiging in Oekraïne. Anna is een voormalig beleidsadviseur bij Reface, een door AI aangedreven synthetische media-app en een tech-co-founder van het counter disinformation tool Cappture, gefinancierd door het Startup Wise Guys acceleratorprogramma. Anna heeft 11 jaar ervaring in veiligheids- en defensiebeleid, technologie en resilience building. Ze is een voormalig onderzoeksmedewerker bij het International Centre for Defence and Security in Tallinn en het Prague Security Studies Institute. Ze heeft ook grote Oekraïense bedrijven geadviseerd over resilience building als onderdeel van de Hybrid warfare Task Force bij de Kyiv School of Economics.