Connect with us

Striden om öppen källkods-AI i kölvattnet av generativ AI

Artificiell intelligens

Striden om öppen källkods-AI i kölvattnet av generativ AI

mm
The Battle for Open-Source AI in the Wake of Generative AI

Öppen källkods-AI förändrar snabbt mjukvaru ekosystemen genom att göra AI-modeller och verktyg tillgängliga för organisationer. Detta leder till ett antal fördelar, inklusive accelererad innovation, förbättrad kvalitet och lägre kostnader.

Enligt 2023 års OpenLogic-rapport använder 80 % av organisationerna mer öppen källkodsprogramvara jämfört med 77 % föregående år för att få tillgång till de senaste innovationerna, förbättra utvecklingshastigheten, minska leverantörsbunden och minimera licenskostnader.

Den nuvarande landskapet för öppen källkods-AI är fortfarande under utveckling. Teknologijättar som Google (Meena, Bard och PaLM), Microsoft (Turing NLG) och Amazon Web Services (Amazon Lex) har varit mer försiktiga med att släppa sina AI-innovationer. Men vissa organisationer, som Meta och andra AI-baserade forskningsföretag, är aktivt engagerade i att öppna källkoden för sina AI-modeller.

Dessutom pågår en intensiv debatt om öppen källkods-AI som handlar om dess potential att utmana stora teknologiföretag. Den här artikeln syftar till att ge en djupgående analys av de potentiella fördelarna med öppen källkods-AI och belysa de utmaningar som ligger framför.

Banbrytande framsteg – Potentialen för öppen källkods-AI

Många praktiker anser att uppkomsten av öppen källkods-AI är en positiv utveckling eftersom den gör AI mer transparent, flexibel, ansvarig, prisvärd och tillgänglig. Men teknologijättar som OpenAI och Google är mycket försiktiga när de släpper sina modeller som öppen källkod på grund av kommersiella, integritets- och säkerhetsproblem. Genom att släppa som öppen källkod kan de förlora sin konkurrensfördel, eller så måste de avslöja känslig information om sin data och modellarkitektur, och illasinnade aktörer kan använda modellerna för skadliga syften.

Men kronjuvelen i att öppna källkoden för AI-modeller är snabbare innovation. Flera anmärkningsvärda AI-genombrott har blivit tillgängliga för allmänheten genom öppen källkods-samarbete. Till exempel gjorde Meta en banbrytande rörelse genom att öppna källkoden för sin LLM-modell LLaMA.

När forskarsamhället fick tillgång till LLaMA katalyserade det ytterligare AI-genombrott, vilket ledde till utvecklingen av derivatmodeller som Alpaca och Vicuna. I juli byggde Stability AI två LLM:er med namnet Beluga 1 och Beluga 2 genom att utnyttja LLaMA och LLaMA 2. De visade bättre resultat på många språkuppgifter som resonemang, domänspecifik frågesvar och förståelse av språksubtiliteter jämfört med de bästa modellerna vid den tiden. Nyligen har Meta introducerat Code LLaMA – ett öppet källkodsverktyg för kodning som har överträffat de bästa modellerna på kodningsuppgifter – också byggt ovanpå LLaMA 2.

Forskare och praktiker förbättrar också LLaMA:s förmågor för att kunna konkurrera med proprietära modeller. Till exempel kan öppna källkodsmodeller som Giraffe från Abacus AI och Llama-2-7B-32K-Instruct från Together AI hantera 32K långa indatakontextlängder – en funktion som tidigare bara var tillgänglig i proprietära LLM som GPT-4. Dessutom möjliggör branschinitiativ som MosaicML:s öppna källkodsmodeller MPT 7B och 30B att forskare kan utbilda sina generativa AI-modeller från scratch.

Sammantaget har detta kollektiva arbete förändrat AI-landskapet, främjat samarbete och kunskapsdelning som fortsätter att driva banbrytande upptäckter.

Fördelarna med öppen källkods-AI för företag

Öppen källkods-AI erbjuder många fördelar, vilket gör det till en tilltalande approach inom artificiell intelligens. Genom att omfamna transparens och samarbete driven av gemenskapen har öppen källkods-AI potentialen att revolutionera sättet vi utvecklar och distribuerar AI-lösningar.

Här är några av fördelarna med öppen källkods-AI:

  • Snabb utveckling: Öppen källkods-AI-modeller tillåter utvecklare att bygga vidare på befintliga ramverk och arkitekturer, vilket möjliggör snabb utveckling och iteration av nya modeller. Med en solid grund kan utvecklare skapa nya tillämpningar utan att uppfinna hjulet på nytt.
  • Ökad transparens: Transparens är en nyckelfunktion i öppen källkod, som ger en tydlig vy av de underliggande algoritmerna och data. Denna synlighet minskar bias och främjar rättvisa, vilket leder till en mer rättvis AI-miljö.
  • Ökat samarbete: Öppen källkods-AI har demokratiserat AI-utveckling, vilket främjar samarbete och skapar en diversifierad gemenskap av bidragsgivare med varierande expertis.

Navigera utmaningar – Riskerna med att öppna källkoden för AI

Medan öppen källkod erbjuder många fördelar är det viktigt att vara medveten om de potentiella risker det kan medföra. Här är några av de viktigaste problemen som är förknippade med öppen källkods-AI:

  • Regulatoriska utmaningar: Uppkomsten av öppen källkods-AI-modeller har lett till obehindrad utveckling med inneboende risker som kräver noggrann reglering. Den renodlade tillgängligheten och demokratiseringen av AI väcker farhågor om dess potentiella missbruk. Enligt en nylig rapport från SiliconAngle använder vissa öppen källkods-AI-projekt generativ AI och LLM med dålig säkerhet, vilket utsätter organisationer och konsumenter för risk.
  • Kvalitetsförsämring: Medan öppen källkods-AI-modeller bringar transparens och samarbete kan de lida av kvalitetsförsämring över tid. Till skillnad från slutna modeller som underhålls av dedikerade team faller underhållsbördan ofta på gemenskapen. Detta kan leda till potentiell försummelse och föråldrade modellversioner. Denna försämring kan hindra kritiska tillämpningar, äventyra användarförtroende och övergripande AI-framsteg.
  • AI-regleringskomplexitet: Att öppna källkoden för AI-modeller introducerar en ny nivå av komplexitet för AI-regulatorer. Det finns flera faktorer att beakta, som hur man skyddar känslig data, hur man förhindrar att modellerna används för skadliga syften och hur man säkerställer att modellerna är väl underhållna. Därför är det ganska utmanande för AI-regulatorer att säkerställa att öppen källkodsmodeller används för gott och inte för skada.

Den utvecklande naturen av öppen källkods-AI-debatten

”Öppen källkod driver innovation eftersom den möjliggör att många fler utvecklare kan bygga med ny teknik. Den förbättrar också säkerhet och trygghet eftersom när programvara är öppen kan fler människor granska den för att identifiera och åtgärda potentiella problem”, sa Mark Zuckerberg när han tillkännagav LLaMA 2 stora språkmodell i juli i år.

Å andra sidan håller stora aktörer som Microsoft-backade OpenAI och Google sina AI-system stängda. De syftar till att uppnå en konkurrensfördel och minimera risken för AI-missbruk.

OpenAI:s medgrundare och chefsforskare, Ilya Sutskever, sa till The Verge, ”Dessa modeller är mycket potenta och de blir alltmer potenta. Vid någon punkt kommer det att vara ganska lätt, om man vill, att orsaka stor skada med dessa modeller. Och när förmågorna ökar är det rimligt att man inte vill avslöja dem.” Så det finns potentiella risker i samband med öppen källkods-AI-modeller som människor inte kan bortse från.

Medan AI som kan orsaka mänsklig förstörelse kan vara flera decennier bort, har öppen källkods-AI-verktyg redan missbrukats. Till exempel släpptes den första LLaMA-modellen endast för att främja AI-forskning. Men illasinnade aktörer använde den för att skapa chatbots som spred hatiskt innehåll som rasistiska skällsord och stereotyper.

Att upprätthålla en balans mellan öppen AI-samarbete och ansvarsfull styrning är avgörande. Det säkerställer att AI-framsteg förblir fördelaktiga för samhället samtidigt som man skyddar mot potentiell skada. Teknologigemenskapen måste samarbeta för att etablera riktlinjer och mekanismer som främjar etisk AI-utveckling. Mer viktigt är att de måste vidta åtgärder för att förhindra missbruk, vilket möjliggör att AI-teknik blir en kraft för positiv förändring.

Vill du förbättra din AI-IQ? Navigera genom Unite.ai:s omfattande katalog av insiktsfulla AI-resurser för att förstärka din kunskap.

Haziqa är en Data Scientist med omfattande erfarenhet av att skriva tekniskt innehåll för AI- och SaaS-företag.