stub AI-transparens och behovet av modeller med öppen källkod - Unite.AI
Anslut dig till vårt nätverk!

Tanke ledare

AI-transparens och behovet av modeller med öppen källkod

mm
Uppdaterad on

För att skydda människor från de potentiella skadorna av AI, förespråkar vissa tillsynsmyndigheter i USA och Europeiska unionen alltmer kontroller och kontroller och balanseringar av kraften hos AI-modeller med öppen källkod. Detta är delvis motiverat av stora företags önskan att kontrollera AI-utvecklingen och att forma utvecklingen av AI på ett sätt som gynnar dem. Tillsynsmyndigheter är också oroade över takten i AI-utvecklingen, eftersom de oroar sig för att AI utvecklas för snabbt och att det inte finns tillräckligt med tid för att införa säkerhetsåtgärder för att förhindra att den används i skadliga syften.

AI Bill of Rights och NIST AI Risk Management Framework i USA, tillsammans med EU:s AI-lag, stöder olika principer såsom noggrannhet, säkerhet, icke-diskriminering, säkerhet, transparens, ansvarighet, förklarabarhet, tolkningsbarhet och datasekretess. Dessutom räknar både EU och USA med att standardiseringsorganisationer, oavsett om det är statliga eller internationella enheter, kommer att spela en avgörande roll för att fastställa riktlinjer för AI.

I ljuset av denna situation är det absolut nödvändigt att sträva efter en framtid som omfattar transparens och förmågan att inspektera och övervaka AI-system. Detta skulle göra det möjligt för utvecklare över hela världen att grundligt undersöka, analysera och förbättra AI, särskilt med fokus på träningsdata och processer.

För att framgångsrikt skapa transparens till AI måste vi förstå de beslutsalgoritmer som ligger till grund för den, och därigenom reda ut AI:s "svarta låda"-strategi. Öppen källkod och inspekterbara modeller spelar en integrerad roll för att uppnå detta mål, eftersom de ger tillgång till den underliggande koden, systemarkitekturen och utbildningsdata för granskning och revision. Denna öppenhet främjar samarbete, driver innovation och skyddar mot monopolisering.

För att bevittna förverkligandet av denna vision är det viktigt att underlätta policyförändringar, gräsrotsinitiativ och uppmuntra aktivt deltagande från alla intressenter, inklusive utvecklare, företag, regeringar och allmänheten.

Aktuellt tillstånd för AI: Koncentration och kontroll

För närvarande, AI-utveckling, särskilt angående stora språkmodeller (LLMs), är i första hand centraliserad och kontrollerad av stora företag. Denna maktkoncentration väcker oro angående risken för missbruk och väcker frågor om rättvis tillgång och rättvis fördelning av fördelarna från framsteg inom AI.

I synnerhet saknar populära modeller som LLM-alternativ med öppen källkod under utbildningsprocessen på grund av de omfattande datorresurser som krävs, som vanligtvis endast är tillgängliga för stora företag. Ändå, även om denna situation förblir oförändrad, är det avgörande att säkerställa insyn i utbildningsdata och -processer för att underlätta granskning och ansvarsskyldighet.

OpenAI:s senaste införande av ett licenssystem för vissa AI-typer har skapat oro och oro för att fånga reglering, eftersom det inte bara kan påverka AI-banan utan även bredare sociala, ekonomiska och politiska aspekter.

Behovet av transparent AI

Föreställ dig att förlita dig på en teknik som fattar avgörande beslut om mänskligt/personligt liv, men som ändå inte lämnar något spår av brödsmulor, ingen förståelse för logiken bakom dessa slutsatser. Det är här transparens blir oumbärlig.

Först och främst är transparens avgörande och bygger förtroende. När AI-modeller blir observerbara ingjuter de förtroende för deras tillförlitlighet och noggrannhet. Dessutom skulle sådan transparens lämna utvecklare och organisationer mycket mer ansvariga för resultatet av sina algoritmer.

En annan kritisk aspekt av transparens är identifiering och begränsning av algoritmisk fördom. Bias kan injiceras i AI-modeller på flera sätt.

  • Mänskligt element: Dataforskare är sårbara för att vidmakthålla sina egna fördomar i modeller.
  • Maskininlärning: Även om forskare skulle skapa rent objektiv AI, är modeller fortfarande mycket mottagliga för partiskhet. Maskininlärning börjar med en definierad datauppsättning, men frigörs sedan för att absorbera ny data och skapa nya inlärningsvägar och nya slutsatser. Dessa resultat kan vara oavsiktliga, partiska eller felaktiga, eftersom modellen försöker utvecklas på egen hand i det som kallas "datadrift".

Det är viktigt att vara medveten om dessa potentiella källor till partiskhet så att de kan identifieras och mildras. Ett sätt att identifiera bias är att granska de data som används för att träna modellen. Detta inkluderar att leta efter mönster som kan tyda på diskriminering eller orättvisa. Ett annat sätt att mildra partiskhet är att använda nedbrytande tekniker. Dessa tekniker kan hjälpa till att ta bort eller minska bias från modellen. Genom att vara transparenta om potentialen för partiskhet och vidta åtgärder för att mildra den kan vi hjälpa till att säkerställa att AI används på ett rättvist och ansvarsfullt sätt.

Transparenta AI-modeller gör det möjligt för forskare och användare att undersöka träningsdata, identifiera fördomar och vidta korrigerande åtgärder för att ta itu med dem. Genom att göra beslutsprocessen synlig hjälper transparens oss att sträva efter rättvisa och förhindra spridning av diskriminerande metoder. Dessutom behövs transparens under hela modellens livslängd som förklarats ovan för att förhindra datadrift, bias och AI-hallucinationer som producerar falsk information. Dessa hallucinationer är särskilt vanliga i stora språkmodeller, men finns också i alla former av AI-produkter. AI-observbarhet spelar också en viktig roll för att säkerställa prestanda och noggrannhet hos modellerna och skapar säkrare, mer pålitlig AI som är mindre benägen för fel eller oavsiktliga konsekvenser.

Men att uppnå transparens i AI är inte utan utmaningar. Att hitta en noggrann balans är nödvändigt för att ta itu med problem som datasekretess, säkerhet och immateriella rättigheter. Detta innebär implementering av tekniker för att bevara integritet, anonymisering av känslig data och upprättande av branschstandarder och föreskrifter som främjar ansvarsfulla insynspraxis.

Göra Transparent AI till verklighet

Att utveckla verktyg och teknologier som kan möjliggöra inspektering i AI är avgörande för att främja transparens och ansvarsskyldighet i AI-modeller.

Förutom att utveckla verktyg och teknologier som möjliggör inspektering inom AI, kan teknisk utveckling också främja transparens genom att skapa en kultur kring AI. Att uppmuntra företag och organisationer att vara transparenta om sin användning av AI kan också bidra till att bygga upp förtroende och förtroende. Genom att göra det lättare att inspektera AI-modeller och genom att skapa en kultur av transparens kring AI kan teknisk utveckling bidra till att säkerställa att AI används på ett rättvist och ansvarsfullt sätt.

Men teknisk utveckling kan också ha motsatt effekt. Till exempel, om teknikföretag utvecklar proprietära algoritmer som inte är öppna för offentlig granskning, kan detta göra det svårare att förstå hur dessa algoritmer fungerar och att identifiera eventuella fördomar eller risker. Att säkerställa att AI gynnar samhället som helhet snarare än ett fåtal utvalda kräver en hög grad av samarbete.

Forskare, beslutsfattare och datavetare kan fastställa regler och standarder som skapar den rätta balansen mellan öppenhet, integritet och säkerhet utan att kväva innovation. Dessa regler kan skapa ramverk som uppmuntrar kunskapsdelning samtidigt som man tar itu med potentiella risker och definierar förväntningar på transparens och förklaringsmöjligheter i kritiska system.

Alla parter relaterade till AI-utveckling och -distribution bör prioritera transparens genom att dokumentera sina beslutsprocesser, göra källkod tillgänglig och anamma transparens som en kärnprincip i AI-systemutveckling. Detta ger alla möjlighet att spela en viktig roll i att utforska metoder för att göra AI-algoritmer mer tolkningsbara och utveckla tekniker som underlättar förståelse och förklaring av komplexa modeller.

Slutligen är allmänhetens engagemang avgörande i denna process. Genom att öka medvetenheten och främja offentliga diskussioner kring AI-transparens kan vi säkerställa att samhälleliga värderingar återspeglas i utvecklingen och implementeringen av AI-system.

Slutsats

När AI blir alltmer integrerad i olika aspekter av våra liv, blir AI-transparens och användningen av modeller med öppen källkod kritiska överväganden. Att anamma inspekterbar AI säkerställer inte bara rättvisa och ansvarsskyldighet utan stimulerar också innovation, förhindrar koncentration av makt och främjar rättvis tillgång till AI-framsteg.

Genom att prioritera transparens, möjliggöra granskning av AI-modeller och främja samarbete kan vi tillsammans forma en AI-framtid som gynnar alla samtidigt som vi tar itu med de etiska, sociala och tekniska utmaningarna som är förknippade med denna transformativa teknologi.

Liran Hason är medgrundare och VD för Aporia, en full-stack AI-kontrollplattform som används av Fortune 500-företag och datavetenskapsteam över hela världen för att säkerställa ansvarsfull AI. Aporia integreras sömlöst med vilken ML-infrastruktur som helst. Oavsett om det är en FastAPI-server ovanpå Kubernetes, ett distributionsverktyg med öppen källkod som MLFlow eller en maskininlärningsplattform som AWS Sagemaker.