stomp AI-transparantie en de behoefte aan open-sourcemodellen - Unite.AI
Verbind je met ons

Gedachte leiders

AI-transparantie en de behoefte aan open-sourcemodellen

mm
Bijgewerkt on

Om mensen te beschermen tegen de mogelijke schade van AI, pleiten sommige toezichthouders in de Verenigde Staten en de Europese Unie steeds meer voor controles en checks and balances op de kracht van open-source AI-modellen. Dit wordt gedeeltelijk ingegeven door de wens van grote bedrijven om de ontwikkeling van AI te beheersen en de ontwikkeling van AI vorm te geven op een manier die hen ten goede komt. Regelgevers maken zich ook zorgen over het tempo van de ontwikkeling van AI, omdat ze zich zorgen maken dat AI zich te snel ontwikkelt en dat er niet genoeg tijd is om voorzorgsmaatregelen te nemen om te voorkomen dat AI voor kwaadaardige doeleinden wordt gebruikt.

De AI Bill of Rights en de NIST AI-raamwerk voor risicobeheer in de VS, samen met de EU AI-wet, ondersteunen verschillende principes zoals nauwkeurigheid, veiligheid, non-discriminatie, beveiliging, transparantie, verantwoordingsplicht, verklaarbaarheid, interpreteerbaarheid en gegevensprivacy. Bovendien verwachten zowel de EU als de VS dat normalisatie-instellingen, of het nu gaat om overheidsinstanties of internationale entiteiten, een cruciale rol zullen spelen bij het opstellen van richtlijnen voor AI.

In het licht van deze situatie is het absoluut noodzakelijk om te streven naar een toekomst die transparantie en de mogelijkheid om AI-systemen te inspecteren en te monitoren omarmt. Hierdoor zouden ontwikkelaars over de hele wereld AI grondig kunnen onderzoeken, analyseren en verbeteren, met name gericht op trainingsgegevens en -processen.

Om AI met succes transparant te maken, moeten we de besluitvormingsalgoritmen begrijpen die eraan ten grondslag liggen, en zo de "black box"-benadering van AI ontrafelen. Open-source en inspecteerbare modellen spelen een integrale rol bij het bereiken van dit doel, omdat ze toegang bieden tot de onderliggende code, systeemarchitectuur en trainingsgegevens voor controle en audit. Deze openheid bevordert samenwerking, stimuleert innovatie en beschermt tegen monopolisering.

Om getuige te zijn van de realisatie van deze visie, is het essentieel om beleidsveranderingen en basisinitiatieven te faciliteren en actieve deelname van alle belanghebbenden aan te moedigen, inclusief ontwikkelaars, bedrijven, overheden en het publiek.

Huidige staat van AI: concentratie en controle

Momenteel is AI-ontwikkeling vooral zorgwekkend grote taalmodellen (LLM's), wordt voornamelijk gecentraliseerd en gecontroleerd door grote bedrijven. Deze machtsconcentratie geeft aanleiding tot bezorgdheid over het potentieel voor misbruik en roept vragen op over eerlijke toegang en de eerlijke verdeling van de voordelen van vorderingen op het gebied van AI.

Vooral populaire modellen zoals LLM's hebben geen open-sourcealternatieven tijdens het trainingsproces vanwege de uitgebreide computerresources die nodig zijn, die doorgaans alleen beschikbaar zijn voor grote bedrijven. Niettemin, zelfs als deze situatie ongewijzigd blijft, is het waarborgen van transparantie met betrekking tot de trainingsgegevens en -processen van cruciaal belang om controle en verantwoording te vergemakkelijken.

OpenAI's recente introductie van een licentiesysteem voor bepaalde AI-types heeft geleid tot bezorgdheid en bezorgdheid over het vastleggen van regelgeving, omdat dit niet alleen het traject van AI zou kunnen beïnvloeden, maar ook bredere sociale, economische en politieke aspecten.

De behoefte aan transparante AI

Stelt u zich eens voor dat u vertrouwt op een technologie die ingrijpende beslissingen neemt over het menselijk/persoonlijke leven, maar geen broodkruimelspoor achterlaat, geen begrip van de grondgedachte achter die conclusies. Dit is waar transparantie onmisbaar wordt.

Transparantie is in de eerste plaats cruciaal en schept vertrouwen. Wanneer AI-modellen waarneembaar worden, wekken ze vertrouwen in hun betrouwbaarheid en nauwkeurigheid. Bovendien zou een dergelijke transparantie ontwikkelaars en organisaties veel meer verantwoordelijk laten voor de resultaten van hun algoritmen.

Een ander cruciaal aspect van transparantie is de identificatie en beperking van algoritmische vooringenomenheid. Bias kan op verschillende manieren in AI-modellen worden geïnjecteerd.

  • Menselijk element: Datawetenschappers zijn kwetsbaar om hun eigen vooroordelen in modellen te bestendigen.
  • Machine learning: zelfs als wetenschappers puur objectieve AI zouden creëren, zijn modellen nog steeds zeer gevoelig voor vooringenomenheid. Machine learning begint met een gedefinieerde dataset, maar wordt vervolgens vrijgemaakt om nieuwe gegevens te absorberen en nieuwe leertrajecten en nieuwe conclusies te creëren. Deze uitkomsten kunnen onbedoeld, bevooroordeeld of onnauwkeurig zijn, omdat het model op zichzelf probeert te evolueren in wat ‘datadrift’ wordt genoemd.

Het is belangrijk om op de hoogte te zijn van deze potentiële bronnen van vooringenomenheid, zodat ze kunnen worden geïdentificeerd en beperkt. Een manier om bias te identificeren, is door de gegevens te controleren die zijn gebruikt om het model te trainen. Dit omvat het zoeken naar patronen die kunnen duiden op discriminatie of oneerlijkheid. Een andere manier om vooringenomenheid te verminderen, is door gebruik te maken van debiasing-technieken. Deze technieken kunnen helpen om bias uit het model te verwijderen of te verminderen. Door transparant te zijn over de mogelijkheid van vooringenomenheid en stappen te ondernemen om deze te verminderen, kunnen we helpen ervoor te zorgen dat AI op een eerlijke en verantwoorde manier wordt gebruikt.

Transparante AI-modellen stellen onderzoekers en gebruikers in staat om de trainingsgegevens te onderzoeken, vooroordelen te identificeren en corrigerende maatregelen te nemen om deze aan te pakken. Door het besluitvormingsproces zichtbaar te maken, helpt transparantie ons te streven naar eerlijkheid en de verspreiding van discriminerende praktijken te voorkomen. Bovendien is gedurende de levensduur van het model transparantie nodig, zoals hierboven uitgelegd, om datadrift, bias en AI-hallucinaties die valse informatie produceren te voorkomen. Deze hallucinaties komen vooral voor in grote taalmodellen, maar komen ook voor in alle vormen van AI-producten. AI-waarneembaarheid speelt ook een belangrijke rol bij het waarborgen van de prestaties en nauwkeurigheid van de modellen, waardoor een veiligere, betrouwbaardere AI ontstaat die minder vatbaar is voor fouten of onbedoelde gevolgen.

Het bereiken van transparantie in AI is echter niet zonder uitdagingen. Het vinden van een zorgvuldige balans is noodzakelijk om problemen als gegevensprivacy, beveiliging en intellectueel eigendom aan te pakken. Dit omvat het implementeren van privacybeschermende technieken, het anonimiseren van gevoelige gegevens en het vaststellen van industrienormen en -regelgeving die verantwoorde transparantiepraktijken bevorderen.

Transparante AI werkelijkheid maken

Het ontwikkelen van tools en technologieën die inspecteerbaarheid in AI mogelijk maken, is cruciaal voor het bevorderen van transparantie en verantwoording in AI-modellen.

Naast het ontwikkelen van tools en technologieën die inspecteerbaarheid in AI mogelijk maken, kan technologische ontwikkeling ook transparantie bevorderen door een cultuur rond AI te creëren. Bedrijven en organisaties aanmoedigen om transparant te zijn over hun gebruik van AI kan ook helpen om vertrouwen op te bouwen. Door het gemakkelijker te maken om AI-modellen te inspecteren en door een cultuur van transparantie rond AI te creëren, kan technologische ontwikkeling helpen ervoor te zorgen dat AI op een eerlijke en verantwoorde manier wordt gebruikt.

Technologische ontwikkeling kan echter ook het tegenovergestelde effect hebben. Als technologiebedrijven bijvoorbeeld bedrijfseigen algoritmen ontwikkelen die niet toegankelijk zijn voor publieke controle, kan dit het moeilijker maken om te begrijpen hoe deze algoritmen werken en om mogelijke vooroordelen of risico's te identificeren. Om ervoor te zorgen dat AI de samenleving als geheel ten goede komt in plaats van een select aantal, is een hoge mate van samenwerking vereist.

Onderzoekers, beleidsmakers en datawetenschappers kunnen regelgeving en standaarden opstellen die de juiste balans vinden tussen openheid, privacy en veiligheid zonder innovatie te belemmeren. Deze regelgeving kan kaders creëren die het delen van kennis stimuleren, terwijl potentiële risico's worden aangepakt en verwachtingen voor transparantie en uitlegbaarheid in kritieke systemen worden gedefinieerd.

Alle partijen die betrokken zijn bij de ontwikkeling en implementatie van AI moeten prioriteit geven aan transparantie door hun besluitvormingsprocessen te documenteren, de broncode beschikbaar te stellen en transparantie te omarmen als een kernprincipe bij de ontwikkeling van AI-systemen. Dit geeft iedereen de kans om een ​​cruciale rol te spelen bij het verkennen van methoden om AI-algoritmen beter interpreteerbaar te maken en het ontwikkelen van technieken die het begrijpen en verklaren van complexe modellen vergemakkelijken.

Ten slotte is publieke betrokkenheid cruciaal in dit proces. Door het bewustzijn te vergroten en publieke discussies over AI-transparantie aan te moedigen, kunnen we ervoor zorgen dat maatschappelijke waarden worden weerspiegeld in de ontwikkeling en inzet van AI-systemen.

Conclusie

Naarmate AI steeds meer wordt geïntegreerd in verschillende aspecten van ons leven, worden AI-transparantie en het gebruik van open-sourcemodellen kritische overwegingen. Het omarmen van inspecteerbare AI zorgt niet alleen voor eerlijkheid en verantwoording, maar stimuleert ook innovatie, voorkomt machtsconcentratie en bevordert eerlijke toegang tot AI-ontwikkelingen.

Door prioriteit te geven aan transparantie, onderzoek van AI-modellen mogelijk te maken en samenwerking te bevorderen, kunnen we gezamenlijk een AI-toekomst vormgeven die iedereen ten goede komt, terwijl we tegelijkertijd de ethische, sociale en technische uitdagingen aanpakken die gepaard gaan met deze transformatieve technologie.

Liran Hason is de mede-oprichter en CEO van Aporia, een full-stack AI-controleplatform dat door Fortune 500-bedrijven en datawetenschapsteams over de hele wereld wordt gebruikt om verantwoorde AI te garanderen. Aporia kan naadloos worden geïntegreerd met elke ML-infrastructuur. Of het nu gaat om een ​​FastAPI-server bovenop Kubernetes, een open-source implementatietool zoals MLFlow of een machine learning-platform zoals AWS Sagemaker.