Anslut dig till vÄrt nÀtverk!

Tanke ledare

Etisk AI-anvĂ€ndning Ă€r inte bara rĂ€tt sak att göra – det Ă€r ocksĂ„ god affĂ€r

mm

publicerade

 on

I takt med att AI-anvĂ€ndningen ökar kraftigt och organisationer i alla branscher anammar AI-baserade verktyg och applikationer, borde det inte komma som nĂ„gon överraskning att cyberbrottslingar redan hittar sĂ€tt att rikta in sig pĂ„ och utnyttja dessa verktyg för egen vinning. Men Ă€ven om det Ă€r viktigt att skydda AI mot potentiella cyberattacker, strĂ€cker sig frĂ„gan om AI-risker lĂ„ngt bortom sĂ€kerhet. Över hela vĂ€rlden börjar regeringar reglera hur AI utvecklas och anvĂ€nds – och företag kan Ă„dra sig betydande ryktesskador om de upptĂ€cks anvĂ€nda AI pĂ„ olĂ€mpliga sĂ€tt. Dagens företag upptĂ€cker att det inte bara Ă€r rĂ€tt att anvĂ€nda AI pĂ„ ett etiskt och ansvarsfullt sĂ€tt – det Ă€r avgörande att bygga förtroende, upprĂ€tthĂ„lla efterlevnad och till och med förbĂ€ttra kvaliteten pĂ„ sina produkter.

Den regulatoriska verkligheten kring AI

Det snabbt förÀnderliga regelverket bör vara en allvarlig oro för leverantörer som erbjuder AI-baserade lösningar. Till exempel EU:s AI-lag, som antogs 2024, antar en riskbaserad strategi för AI-reglering och anser att system som anvÀnder sig av metoder som social poÀngsÀttning, manipulativt beteende och andra potentiellt oetiska aktiviteter Àr "oacceptabla". Dessa system Àr helt förbjudna, medan andra "högrisk"-AI-system Àr föremÄl för strÀngare skyldigheter gÀllande riskbedömning, datakvalitet och transparens. Straffen för bristande efterlevnad Àr allvarliga: företag som anvÀnder AI pÄ oacceptabla sÀtt kan bötfÀllas med upp till 35 miljoner euro eller 7 % av sin ÄrsomsÀttning.

EU:s AI-lag Ă€r bara en enda lagstiftning, men den illustrerar tydligt den höga kostnaden för att inte uppfylla vissa etiska tröskelvĂ€rden. Stater som Kalifornien, New York, Colorado och andra har alla antagit sina egna AI-riktlinjer, varav de flesta fokuserar pĂ„ faktorer som transparens, dataskydd och förebyggande av partiskhet. Och Ă€ven om FN saknar de verkstĂ€llighetsmekanismer som regeringar Ă„tnjuter, Ă€r det vĂ€rt att notera att alla 193 FN-medlemmar enhĂ€lligt bekrĂ€ftat att ”mĂ€nskliga rĂ€ttigheter och grundlĂ€ggande friheter mĂ„ste respekteras, skyddas och frĂ€mjas under hela livscykeln för artificiell intelligens” i en resolution frĂ„n 2024. Över hela vĂ€rlden Ă€r mĂ€nskliga rĂ€ttigheter och etiska övervĂ€ganden alltmer i fokus nĂ€r det gĂ€ller AI.

Den ryktesmÀssiga effekten av dÄlig AI-etik

Även om problem med efterlevnad Ă€r mycket verkliga, slutar inte historien dĂ€r. Faktum Ă€r att prioritering av etiskt beteende i grunden kan förbĂ€ttra kvaliteten pĂ„ AI-lösningar. Om ett AI-system har inneboende partiskhet Ă€r det dĂ„ligt av etiska skĂ€l – men det betyder ocksĂ„ att produkten inte fungerar sĂ„ bra som den borde. Till exempel har viss ansiktsigenkĂ€nningsteknik kritiserats för misslyckas med att identifiera mörkhyade ansikten sĂ„vĂ€l som ljushyade ansikten. Om en ansiktsigenkĂ€nningslösning misslyckas med att identifiera en betydande del av försökspersonerna, utgör det ett allvarligt etiskt problem – men det betyder ocksĂ„ att tekniken i sig inte ger den förvĂ€ntade nyttan, och kunderna kommer inte att vara nöjda. Att ta itu med partiskhet mildrar bĂ„de etiska problem och förbĂ€ttrar kvaliteten pĂ„ sjĂ€lva produkten.

Oro över partiskhet, diskriminering och rĂ€ttvisa kan försĂ€tta leverantörer i konflikt med tillsynsmyndigheter, men det urholkar ocksĂ„ kundernas förtroende. Det Ă€r en bra idĂ© att ha vissa "röda linjer" nĂ€r det gĂ€ller hur AI anvĂ€nds och vilka leverantörer man ska samarbeta med. AI-leverantörer som förknippas med desinformation, massövervakning, social scoring, förtryckande regeringar eller till och med bara en allmĂ€n brist pĂ„ ansvarsskyldighet kan göra kunderna oroliga, och leverantörer som tillhandahĂ„ller AI-baserade lösningar bör ha det i Ă„tanke nĂ€r de övervĂ€ger vem de ska samarbeta med. Transparens Ă€r nĂ€stan alltid bĂ€ttre – de som vĂ€grar att avslöja hur AI anvĂ€nds eller vilka deras partners Ă€r ser ut som om de döljer nĂ„got, vilket vanligtvis inte frĂ€mjar en positiv stĂ€mning pĂ„ marknaden.

Identifiera och mildra etiska varningssignaler

Kunder lĂ€r sig i allt högre grad att leta efter tecken pĂ„ oetiskt AI-beteende. Leverantörer som lovar för mycket men underförklarar sina AI-funktioner Ă€r förmodligen mindre Ă€n sanningsenliga om vad deras lösningar faktiskt kan göra. DĂ„liga datahanteringsmetoder, sĂ„som överdriven dataskrapning eller oförmĂ„gan att vĂ€lja bort AI-modellutbildning, kan ocksĂ„ vĂ€cka varningssignaler. Idag bör leverantörer som anvĂ€nder AI i sina produkter och tjĂ€nster ha ett tydligt, offentligt tillgĂ€ngligt styrningsramverk med mekanismer för ansvarsskyldighet. De som föreskriver tvĂ„ngsskiljeförfarande – eller Ă€nnu vĂ€rre, inte erbjuder nĂ„gon möjlighet alls – kommer sannolikt inte att vara bra partners. Detsamma gĂ€ller leverantörer som Ă€r ovilliga eller oförmögna att tillhandahĂ„lla de mĂ€tvĂ€rden med hjĂ€lp av vilka de bedömer och hanterar partiskhet i sina AI-modeller. Dagens kunder litar inte pĂ„ svarta lĂ„dans lösningar – de vill veta nĂ€r och hur AI anvĂ€nds i de lösningar de förlitar sig pĂ„.

För leverantörer som anvĂ€nder AI i sina produkter Ă€r det viktigt att förmedla till kunderna att etiska övervĂ€ganden Ă€r högsta prioritet. De som trĂ€nar sina egna AI-modeller behöver starka processer för att förebygga partiskhet, och de som förlitar sig pĂ„ externa AI-leverantörer mĂ„ste prioritera partners med ett rykte om sig att uppföra sig rĂ€ttvist. Det Ă€r ocksĂ„ viktigt att erbjuda kunderna ett val: mĂ„nga kĂ€nner sig fortfarande obekvĂ€ma med att anförtro sina data till AI-lösningar, och att erbjuda möjligheten att "vĂ€lja bort" AI-funktioner gör att de kan experimentera i sin egen takt. Det Ă€r ocksĂ„ avgörande att vara transparent om var trĂ€ningsdata kommer ifrĂ„n. Återigen, detta Ă€r etiskt, men det Ă€r ocksĂ„ en god affĂ€r – om en kund upptĂ€cker att lösningen de förlitar sig pĂ„ har trĂ€nats pĂ„ upphovsrĂ€ttsskyddad data, öppnar det upp dem för reglerings- eller rĂ€ttsliga Ă„tgĂ€rder. Genom att offentliggöra allt kan leverantörer bygga förtroende hos sina kunder och hjĂ€lpa dem att undvika negativa resultat.

Att prioritera etik Àr det smarta affÀrsbeslutet

Förtroende har alltid varit en viktig del av varje affĂ€rsrelation. AI har inte förĂ€ndrat det – men det har infört nya övervĂ€ganden som leverantörer mĂ„ste ta itu med. Etiska frĂ„gor Ă€r inte alltid högst upp i Ă„tanke för företagsledare, men nĂ€r det gĂ€ller AI kan oetiskt beteende fĂ„ allvarliga konsekvenser – inklusive skador pĂ„ anseende och potentiella regel- och efterlevnadsövertrĂ€delser. Ännu vĂ€rre Ă€r att bristande uppmĂ€rksamhet pĂ„ etiska övervĂ€ganden som att minska partiskhet aktivt kan skada kvaliteten pĂ„ en leverantörs produkter och tjĂ€nster. I takt med att AI-anvĂ€ndningen fortsĂ€tter att accelerera inser leverantörer i allt högre grad att det inte bara Ă€r rĂ€tt sak att göra att prioritera etiskt beteende – det Ă€r ocksĂ„ en god affĂ€r.

Nick Kathmann Àr IT-chef pÄ LogicGateMed mer Àn 20 Ärs IT-erfarenhet har Nick i 18 Är hjÀlpt företag av alla storlekar att stÀrka sina cybersÀkerhetspositioner. Han har byggt och lett flera team som levererat cybersÀkerhetslösningar för komplexa, affÀrskritiska miljöer, frÄn smÄ och medelstora företag till Fortune 100-företag, baserade lokalt i traditionella datacenter eller i molnet. Han har ocksÄ erfarenhet av flera branscher, inklusive hÀlso- och sjukvÄrd och finansiella tjÀnster.