Verbind je met ons

Gedachte leiders

Ethisch AI-gebruik is niet alleen het juiste om te doen, het is ook goed voor het bedrijf

mm

Nu de adoptie van AI toeneemt en organisaties in alle sectoren AI-gebaseerde tools en applicaties omarmen, is het geen verrassing dat cybercriminelen al manieren vinden om deze tools te targeten en te misbruiken voor eigen gewin. Maar hoewel het belangrijk is om AI te beschermen tegen potentiële cyberaanvallen, reikt het probleem van AI-risico's veel verder dan alleen beveiliging. Overheden wereldwijd beginnen te reguleren hoe AI wordt ontwikkeld en gebruikt, en bedrijven kunnen aanzienlijke reputatieschade oplopen als ze AI op ongepaste wijze gebruiken. Bedrijven ontdekken tegenwoordig dat het ethisch en verantwoord gebruiken van AI niet alleen de juiste manier is om te handelen, maar ook cruciaal is om vertrouwen op te bouwen, compliance te handhaven en zelfs de kwaliteit van hun producten te verbeteren.

De regelgevende realiteit rondom AI

Het snel veranderende regelgevingslandschap zou een serieuze zorg moeten zijn voor leveranciers die AI-gebaseerde oplossingen aanbieden. Bijvoorbeeld, de EU AI-wetDe wet, aangenomen in 2024, hanteert een risicogebaseerde benadering van AI-regelgeving en beschouwt systemen die zich bezighouden met praktijken zoals sociale scores, manipulatief gedrag en andere potentieel onethische activiteiten als "onaanvaardbaar". Deze systemen zijn volledig verboden, terwijl andere AI-systemen met een "hoog risico" onderworpen zijn aan strengere verplichtingen met betrekking tot risicobeoordeling, datakwaliteit en transparantie. De sancties bij niet-naleving zijn streng: bedrijven die AI op onaanvaardbare manieren gebruiken, kunnen een boete krijgen tot € 35 miljoen of 7% van hun jaaromzet.

De EU AI Act is slechts één wet, maar illustreert duidelijk de hoge kosten die gepaard gaan met het niet halen van bepaalde ethische drempels. Staten zoals Californië, New York, Colorado en andere hebben allemaal AI Act aangenomen. hun eigen AI-richtlijnen, waarvan de meeste zich richten op factoren zoals transparantie, dataprivacy en het voorkomen van vooroordelen. En hoewel de Verenigde Naties niet over de handhavingsmechanismen beschikken die regeringen wel hebben, is het vermeldenswaard dat alle 193 VN-leden unaniem bevestigd dat "mensenrechten en fundamentele vrijheden moeten worden gerespecteerd, beschermd en bevorderd gedurende de gehele levenscyclus van kunstmatige-intelligentiesystemen" in een resolutie uit 2024. Wereldwijd staan ​​mensenrechten en ethische overwegingen steeds meer centraal als het om AI gaat.

De reputatieschade van slechte AI-ethiek

Hoewel compliance-zorgen zeer reëel zijn, eindigt het verhaal daar niet. Feit is dat het prioriteren van ethisch gedrag de kwaliteit van AI-oplossingen fundamenteel kan verbeteren. Als een AI-systeem inherente vooroordelen heeft, is dat om ethische redenen slecht, maar het betekent ook dat het product niet zo goed werkt als het zou moeten. Zo is bepaalde gezichtsherkenningstechnologie bekritiseerd vanwege niet kunnen identificeren Zowel donkere als lichte gezichten. Als een gezichtsherkenningsoplossing een aanzienlijk deel van de proefpersonen niet kan identificeren, vormt dat een ernstig ethisch probleem. Het betekent echter ook dat de technologie zelf niet het verwachte voordeel biedt en dat klanten niet tevreden zullen zijn. Het aanpakken van vooroordelen vermindert ethische bezwaren en verbetert de kwaliteit van het product zelf.

Zorgen over vooringenomenheid, discriminatie en eerlijkheid kunnen leveranciers in de problemen brengen bij regelgevende instanties, maar ze ondermijnen ook het vertrouwen van klanten. Het is een goed idee om bepaalde "rode lijnen" te hanteren als het gaat om hoe AI wordt gebruikt en met welke leveranciers u wilt samenwerken. AI-leveranciers die geassocieerd worden met desinformatie, massasurveillance, sociale scores, repressieve overheden of zelfs een algemeen gebrek aan verantwoordingsplicht kunnen klanten ongerust maken. Leveranciers die AI-oplossingen aanbieden, moeten daar rekening mee houden bij het kiezen van een partner. Transparantie is bijna altijd beter: degenen die weigeren te onthullen hoe AI wordt gebruikt of wie hun partners zijn, lijken iets te verbergen, wat meestal niet bijdraagt ​​aan een positief sentiment in de markt.

Het identificeren en verzachten van ethische rode vlaggen

Klanten leren steeds vaker om te letten op tekenen van onethisch AI-gedrag. Leveranciers die te veel beloven maar hun AI-mogelijkheden onvoldoende uitleggen, zijn waarschijnlijk niet helemaal eerlijk over wat hun oplossingen daadwerkelijk kunnen. Slechte datapraktijken, zoals overmatig data scrapen of de onmogelijkheid om je af te melden voor AI-modeltraining, kunnen ook rode vlaggen opleveren. Leveranciers die AI in hun producten en diensten gebruiken, zouden tegenwoordig een duidelijk, openbaar governancekader moeten hebben met mechanismen voor verantwoording. Leveranciers die gedwongen arbitrage verplicht stellen – of erger nog, helemaal geen verhaal bieden – zullen waarschijnlijk geen goede partners zijn. Hetzelfde geldt voor leveranciers die niet bereid of niet in staat zijn om de meetgegevens te verstrekken waarmee ze vooringenomenheid in hun AI-modellen beoordelen en aanpakken. Klanten van vandaag vertrouwen geen black-boxoplossingen – ze willen weten wanneer en hoe AI wordt ingezet in de oplossingen waarop ze vertrouwen.

Voor leveranciers die AI in hun producten gebruiken, is het belangrijk om klanten duidelijk te maken dat ethische overwegingen voorop staan. Leveranciers die hun eigen AI-modellen trainen, hebben sterke processen nodig om vooroordelen te voorkomen en leveranciers die afhankelijk zijn van externe AI-leveranciers, moeten prioriteit geven aan partners die bekendstaan ​​om hun eerlijke gedrag. Het is ook belangrijk om klanten een keuze te bieden: velen voelen zich nog steeds ongemakkelijk bij het vertrouwen van hun data in AI-oplossingen. Door een "opt-out" voor AI-functies te bieden, kunnen ze in hun eigen tempo experimenteren. Het is ook cruciaal om transparant te zijn over de herkomst van trainingsdata. Nogmaals, dit is ethisch verantwoord, maar het is ook goed voor de business: als een klant ontdekt dat de oplossing waarop hij vertrouwt is getraind met auteursrechtelijk beschermde data, stelt dit hem bloot aan wettelijke of juridische stappen. Door alles openbaar te maken, kunnen leveranciers vertrouwen opbouwen bij hun klanten en hen helpen negatieve gevolgen te voorkomen.

Prioriteit geven aan ethiek is een slimme zakelijke beslissing

Vertrouwen is altijd een belangrijk onderdeel geweest van elke zakelijke relatie. AI heeft daar niets aan veranderd, maar het heeft wel nieuwe overwegingen geïntroduceerd waar leveranciers rekening mee moeten houden. Ethische overwegingen staan ​​niet altijd voorop bij bedrijfsleiders, maar als het om AI gaat, kan onethisch gedrag ernstige gevolgen hebben, waaronder reputatieschade en mogelijke overtredingen van wet- en regelgeving. Erger nog, een gebrek aan aandacht voor ethische overwegingen zoals het beperken van vooroordelen kan de kwaliteit van de producten en diensten van een leverancier actief schaden. Naarmate de adoptie van AI blijft versnellen, erkennen leveranciers steeds meer dat het prioriteren van ethisch gedrag niet alleen de juiste aanpak is, maar ook goed is voor de business.

Nick Kathmann is CISO bij Logische PoortMet meer dan 20 jaar IT-ervaring heeft Nick 18 jaar ervaring in het helpen van bedrijven van elke omvang bij het versterken van hun cybersecurity. Hij heeft verschillende teams samengesteld en geleid die cybersecurityoplossingen leverden voor complexe, bedrijfskritische omgevingen, variërend van het MKB tot Fortune 100-bedrijven, gebaseerd op on-premises datacenters of in de cloud. Hij heeft ook ervaring in diverse sectoren, waaronder de gezondheidszorg en financiële dienstverlening.