Tankeledare
NĂ€r AI:s “kunskap” Ă€r 50 Ă„r gammal: Den regelefterlevnadsrisk du inte kan bortse frĂ„n

Frågan om falska AI-insikter är en brådskande utmaning när företag ökar sin användning av generativa verktyg. Trots den allmänna entusiasmen för AI-antagandet finns det också en stark ström av kritik. Kritiska kommentatorer pekar ofta på uppenbarligen slumpmässiga, oförutsägbara fel i AI:s utdata, som undergräver dess värde – och kan till och med utgöra en verklig fara för människor, särskilt inom sektorer som hälsovård och transport, där felaktiga utdata teoretiskt sett kan leda till allt från felaktiga recept till tåg på kollisionskurs.
Ofta har dessa fel tillskrivits AI:s “hallucinationer” – situationer där AI genererar ett “bästa gissning”-svar, som presenteras med samma tillförlitlighet som ett “äkta” svar, snarare än att informera användaren om en lucka i dess kunskap eller förmåga. Hallucinationer kan vara svåra att upptäcka vid första anblicken – men det finns ett tyst, lika allvarligt problem som är ännu svårare att upptäcka.
Datakvalitets-skuld: AI:s akilleshäl
När AI-system hämtar information från föråldrad, ofullständig eller felaktig data, uppstår felaktiga utdata, men är mindre omedelbart upptäckbara. Till exempel kan du be en AI att identifiera symtomen på en medicinsk tillstånd och få ett svar baserat på en 50 år gammal artikel i stället för aktuell forskning. Resultatet är osannolikt att framstå som uppenbart, löjeväckande fel – men den initiala fernissan av trovärdighet utgör en verklig risk för både patienten i fråga och hälsovårdspersonalen.
Detsamma gäller för alla branscher – om data som matas till AI-modellen innehåller gammal, föråldrad eller ofullständig information, finns det en hög risk för felaktiga utdata. Och allt eftersom fler företag integrerar AI i affärskritiska processer, ökar risken för att dra felaktiga slutsatser från dåligt styrda data.
Noggrannhet för regulatorn
Detta är inte bara ett problem för dagliga operationer – det är också en betydande regelefterlevnadsutmaning. Regleringskraven utvecklas snabbt för att ta itu med problemen med felaktig AI. Till exempel har ett antal tidiga regleringsåtgärder på AI genomförts; bland annat när Italien tillfälligt förbjöd ChatGPT på grund av integritetsproblem, och EU:s dataskyddsstyrelse inrättade en dedikerad arbetsgrupp för att samordna potentiella åtgärder mot ChatGPT.
En av de mest talande regleringsförändringarna har varit antagandet av EU:s AI-lag, världens första omfattande rättsliga ram för AI. Lagen fastställer skyldigheter baserat på AI-systemens risknivå, från “otillåtna risker”-system, som är förbjudna, till “högrisk”-system, som omfattas av stränga krav på transparens, datakvalitet, styrning och mänsklig tillsyn.
Betydelsen av EU:s AI-lag ligger inte i dess ambitiösa omfattning, utan viktigt i den prejudikat som den sätter. Regulatorerna gör det tydligt att AI kommer att omfattas av bindande, verkställbara regler och att organisationer måste behandla regelefterlevnad och transparens kring var och hur AI används som en integrerad del av AI-antagandet, snarare än en eftertanke.
Lagen har ett brett tillämpningsområde, med potential att påverka en stor andel av AI-utvecklingen. I dess kärna ligger att göra AI säker samtidigt som man respekterar grundläggande rättigheter och värderingar. Inom detta nya principbaserade ekosystem kommer diagnosen av potentiella källor till AI-fel, inklusive data och dataset som matar modellerna, modellens opacitet och tillgänglighet, samt systemdesign och användning. AI-lösningar är en konstruktion av alla tre – problem med någon av dessa kan ha en negativ effekt. Inte bara det, utan data som används för design, modellutveckling, distribution och drift av AI kommer sannolikt att bestå av affärsregister som i sig omfattas av olika regelefterlevnadskrav.
Med andra ord blir den regleringsmiljö som omger AI alltmer sträng – och det gäller lika mycket för datainmatning som för datautmatning, även om den senare får mer uppmärksamhet i rubrikerna.
Fem steg för att mata AI med regelefterlevnads-, aktuella och relevanta data
För att lösa denna dubbla utmaning – att säkerställa både regelefterlevnads- och högkvalitativ datahantering och högkvalitativ inmatning som möjliggör högkvalitativ utmatning – behöver företag kontroll över utbildnings- och inferensdata. Tyvärr är detta något som många företag fortfarande saknar.
Påminstone bör organisationer tillämpa sina bredare regelefterlevnads- och styrningsprogram på AI-initiativ. De behöver börja fånga och underhålla lämpliga register över de data de matar AI-modellerna, hur modellerna och systemen är utformade, samt de beslut och innehåll som genereras via AI.
Men det blir också allt viktigare för organisationer att gå ett steg längre och säkerställa att de har full kontroll över all data som kan användas i AI-distributioner, antingen för initial utbildning eller “live”-arbete. Detta kräver en högkvalitativ datahanterings- och lagringsstrategi, som säkerställer att all relevant data samlas in, rengörs, lagras, klassificeras och auktoriseras på ett intelligent sätt. För att uppnå detta måste organisationer överväga fyra nyckelsteg:
1. Datahärstamning och ursprung
Detta inkluderar att underhålla en register över datakällan, dess ursprung, ägande och eventuella ändringar i metadata (om tillåtet) under hela dess livscykel. Det innebär också att underhålla rika metadata och alla underliggande dokument eller artefakter från vilka det härrör.
2. Dataautenticitet
Detta kräver att underhålla en tydlig kedja av ägande för all data, lagra objekt i sina ursprungliga former och hasha objekt som tas emot för att visa att data förblir oförändrad. Dessutom måste organisationer underhålla en fullständig revisionshistorik för varje objekt och för alla åtgärder och händelser i samband med eventuella ändringar.
3. Dataklassificering
Att fastställa arten av en uppsättning eller typ av data är viktigt. Organisationer behöver kunna styra strukturerad data, semistrukturerad data och strukturerade uppsättningar av data. Att ge varje klass en unik schema kan tillåta organisationer att hantera diverse uppsättningar av data utan en “one-size-fits-all”-fast ontologi – och undvika att data onödigtvis manipuleras för att tvinga in den i en inflexibel datastruktur.
4. Datanormalisering
Att fastställa gemensamma definitioner och format för metadata är viktigt för användning i analyser och AI-lösningar. Tydligt definierade scheman är ett viktigt element, tillsammans med verktyg som kan transformera eller mappa data för att underhålla konsekventa, normaliserade vyer av relaterad data.
5. Dataauktorisering
Företag behöver granulära auktoriseringskontroller, inklusive på objektnivå eller fältnivå, baserat på användar- eller systemprofiler. Detta innebär att rätt data är tillgänglig för användare och system som är auktoriserade att komma åt den, samtidigt som åtkomsten begränsas eller begränsas för de som inte är det.
Med dessa avgörande element på plats kommer företag att vara bäst rustade för att säkerställa att data som tillhandahålls AI-modellerna är både högkvalitativa och regelefterlevnads-. AI kommer att driva förbättringar och effektivitetsvinster över branscher – men för att det ska hända krävs en solid datagrund.












