stub Slaget om Open Source vs Closed Source sprogmodeller: En teknisk analyse - Unite.AI
Følg os

Kunstig intelligens

Slaget om Open Source vs Closed Source sprogmodeller: En teknisk analyse

mm

Udgivet

 on

open source vs close source LLM

Store sprogmodeller (LLM'er) har fængslet AI-samfundet i de seneste år, og har ført til gennembrud inden for naturlig sprogbehandling. Bag hypen ligger en kompleks debat – skal disse kraftfulde modeller være open source eller closed source?

I dette indlæg vil vi analysere den tekniske differentiering mellem disse tilgange for at forstå de muligheder og begrænsninger, hver især byder på. Vi vil dække følgende nøgleaspekter:

  • Definition af open source vs closed source LLM'er
  • Arkitektonisk gennemsigtighed og tilpasningsmuligheder
  • Performance benchmarking
  • Beregningskrav
  • Anvendelsesalsidighed
  • Tilgængelighed og licens
  • Databeskyttelse og fortrolighed
  • Kommerciel opbakning og support

Til sidst vil du have et informeret perspektiv på de tekniske afvejninger mellem open source og closed source LLM'er for at guide din egen AI-strategi. Lad os dykke ned!

Definition af Open Source vs Closed Source LLM'er

Open source LLM'er har offentligt tilgængelige modelarkitekturer, kildekode og vægtparametre. Dette giver forskere mulighed for at inspicere internt, evaluere kvalitet, reproducere resultater og bygge tilpassede varianter. Førende eksempler omfatter Anthropic's ConstitutionalAI, Metas LLaMA og EleutherAI's GPT-NeoX.

I modsætning hertil behandler closed source LLM'er modelarkitektur og vægte som proprietære aktiver. Kommercielle enheder som Anthropic, DeepMind og OpenAI udvikler dem internt. Uden tilgængelig kode eller designdetaljer står reproducerbarhed og tilpasning over for begrænsninger.

Arkitektonisk gennemsigtighed og tilpasningsmuligheder

Adgang til open source LLM internals låser op for tilpasningsmuligheder, som simpelthen ikke er mulige med lukkede kildealternativer.

Ved at justere modelarkitekturen kan forskere udforske teknikker som at indføre sparsom forbindelse mellem lag eller tilføje dedikerede klassifikationstokens for at forbedre ydeevnen på nicheopgaver. Med adgang til vægtparametre kan udviklere overføre lære eksisterende repræsentationer eller initialisere varianter med forudtrænede byggeklodser som T5 og BERT indlejringer.

Denne tilpasningsmulighed giver open source LLM'er mulighed for bedre at betjene specialiserede domæner som biomedicinsk forskning, kodegenerering og uddannelse. Men den nødvendige ekspertise kan hæve barrieren for at levere implementeringer af produktionskvalitet.

Closed source LLM'er tilbyder begrænset tilpasning, da deres tekniske detaljer forbliver proprietære. Deres bagmænd afsætter dog omfattende ressourcer til intern forskning og udvikling. De resulterende systemer skubber til, hvad der er muligt med en generaliseret LLM-arkitektur.

Så mens mindre fleksible, udmærker lukkede kildekode LLM'er sig til bredt anvendelige naturlige sprogopgaver. De forenkler også integrationen ved at tilpasse sig etablerede grænseflader som OpenAPI-standarden.

Performance Benchmarking

På trods af arkitektonisk gennemsigtighed introducerer måling af open source LLM-ydeevne udfordringer. Deres fleksibilitet muliggør utallige mulige konfigurationer og tuning-strategier. Det tillader også modeller med præfiks som "open source" faktisk at inkludere proprietære teknikker, der forvrænger sammenligninger.

Closed source LLM'er kan prale af mere klart definerede præstationsmål som deres backers benchmark og annoncerer specifikke metriske tærskler. For eksempel offentliggør Anthropic ConstitutionalAI's nøjagtighed på kurerede NLU-problemsæt. Microsoft fremhæver, hvordan GPT-4 overgår menneskelige basislinjer på SuperGLUE-værktøjssættet til sprogforståelse.

Når det er sagt, blev disse snævert definerede benchmarks udsat for kritik for at overvurdere ydeevne på opgaver i den virkelige verden og underrepræsentere fejl. Virkelig upartisk LLM-evaluering forbliver et åbent forskningsspørgsmål – for både open og closed source-tilgange.

Beregningskrav

Træning af store sprogmodeller kræver omfattende beregningsressourcer. OpenAI brugte millioner på at træne GPT-3 på cloud-infrastruktur, mens Anthropic brugte GPU'er til en værdi af op mod $10 millioner til ConstitutionalAI.

Regningen for sådanne modeller udelukker de fleste enkeltpersoner og små teams fra open source-fællesskabet. Faktisk var EleutherAI nødt til at fjerne GPT-J-modellen fra offentlig adgang på grund af eksploderende hostingomkostninger.

Uden dybe lommer udnytter open source LLM-succeshistorier donerede computerressourcer. LAION kurerede deres teknologi-fokuserede LAION-5B-model ved hjælp af crowdsourcede data. Det non-profit projekt Anthropic ConstitutionalAI brugte frivillig databehandling.

Den store teknologiske opbakning fra virksomheder som Google, Meta og Baidu giver lukket kildeindsats det økonomiske brændstof, der er nødvendigt for at industrialisere LLM-udvikling. Dette muliggør skalering til uoverskuelige længder for græsrodsinitiativer – se blot DeepMinds Gopher-model på 280 milliarder parametre.

Anvendelse alsidighed

Tilpasningen af ​​open source LLM'er gør det muligt at tackle højt specialiserede use cases. Forskere kan aggressivt modificere interne modeller for at øge ydeevnen på nicheopgaver som forudsigelse af proteinstruktur, generering af kodedokumentation og matematisk bevisverifikation.

Når det er sagt, garanterer muligheden for at få adgang til og redigere kode ikke en effektiv domænespecifik løsning uden de rigtige data. Omfattende træningsdatasæt til smalle applikationer kræver en betydelig indsats at kurere og holde sig opdateret.

Her drager lukkede kildekode LLM'er fordel af ressourcerne til at hente træningsdata fra interne arkiver og kommercielle partnere. For eksempel licenserer DeepMind databaser som ChEMBL til kemi og UniProt til proteiner for at udvide anvendelsesområdet. Dataadgang i industriel skala giver modeller som Gopher mulighed for at opnå bemærkelsesværdig alsidighed på trods af arkitektonisk uigennemsigtighed.

Tilgængelighed og licensering

Den tilladelige licensering af open source LLM'er fremmer fri adgang og samarbejde. Modeller som GPT-NeoX, LLaMA og Jurassic-1 Jumbo bruger aftaler som Creative Commons og Apache 2.0 for at muliggøre ikke-kommerciel forskning og fair kommercialisering.

I modsætning hertil har closed source LLM'er restriktive licenser, der begrænser modeltilgængeligheden. Kommercielle enheder kontrollerer strengt adgangen for at sikre potentielle indtægtsstrømme fra forudsigelses-API'er og virksomhedspartnerskaber.

Forståeligt nok opkræver organisationer som Anthropic og Cohere for adgang til ConstitutionalAI og Cohere-512-grænseflader. Dette risikerer dog at prissætte vigtige forskningsdomæner og skæve udviklingen mod velfinansierede industrier.

Åben licensering giver også udfordringer, især omkring tilskrivning og ansvar. Til forskningsbrug giver de friheder, som open source-tilgængelighed giver, dog klare fordele.

Databeskyttelse og fortrolighed

Træningsdatasæt til LLM'er samler typisk indhold fra forskellige onlinekilder såsom websider, videnskabelige artikler og diskussionsfora. Dette risikerer at vise personligt identificerbare eller på anden måde følsomme oplysninger i modeloutput.

For open source LLM'er giver gennemgang af datasætsammensætning det bedste værn mod fortrolighedsproblemer. Evaluering af datakilder, filtreringsprocedurer og dokumentation vedrørende eksempler fundet under test kan hjælpe med at identificere sårbarheder.

Desværre udelukker lukkede kilder LLM'er sådan offentlig revision. I stedet skal forbrugerne stole på strengheden af ​​interne revisionsprocesser baseret på annoncerede politikker. Til kontekst lover Azure Cognitive Services at filtrere personlige data, mens Google specificerer formelle anmeldelser af privatlivets fred og datamærkning.

Generelt giver open source LLM'er mulighed for mere proaktiv identifikation af fortrolighedsrisici i AI-systemer, før disse fejl manifesterer sig i stor skala. Lukkede modparter tilbyder relativt begrænset gennemsigtighed i datahåndteringspraksis.

Kommerciel opbakning og support

Potentialet til at tjene penge på lukkede kilde-LLM'er tilskynder til betydelige kommercielle investeringer til udvikling og vedligeholdelse. For eksempel i forventning om lukrative afkast fra sin Azure AI-portefølje, indvilligede Microsoft i partnerskaber med mange milliarder dollars med OpenAI omkring GPT-modeller.

I modsætning hertil er open source LLM'er afhængige af frivillige, der afsætter personlig tid til vedligeholdelse eller tilskud, der giver begrænset finansiering. Denne ressourceasymmetri risikerer kontinuiteten og levetiden af ​​open source-projekter.

Men barriererne for kommercialisering frigør også open source-fællesskaber til at fokusere på videnskabelige fremskridt frem for profit. Og den decentraliserede natur af åbne økosystemer afbøder overdreven afhængighed af den vedvarende interesse fra enhver enkelt støttespiller.

I sidste ende medfører hver tilgang afvejninger omkring ressourcer og incitamenter. Closed source LLM'er nyder større finansieringssikkerhed, men koncentrerer indflydelse. Åbne økosystemer fremmer mangfoldighed, men lider under øget usikkerhed.

Navigering i Open Source vs Closed Source LLM-landskabet

At vælge mellem open eller closed source LLM'er kræver matchning af organisatoriske prioriteter som tilpasningsmuligheder, tilgængelighed og skalerbarhed med modelkapaciteter.

For forskere og startups giver open source mere kontrol til at tune modeller til specifikke opgaver. Licensen letter også fri deling af indsigt på tværs af samarbejdspartnere. Imidlertid kan byrden med at indkøbe træningsdata og infrastruktur underminere den virkelige verden levedygtighed.

Omvendt lover closed source LLM'er betydelige kvalitetsforbedringer takket være rigelig finansiering og data. Restriktioner omkring adgang og ændringer begrænser dog videnskabelig gennemsigtighed, mens de binder implementeringer til leverandørens køreplaner.

I praksis kan åbne standarder omkring arkitekturspecifikationer, modelkontrolpunkter og evalueringsdata hjælpe med at udligne ulemperne ved begge tilgange. Delte fundamenter som Googles Transformer eller Oxfords REALTO-benchmarks forbedrer reproducerbarheden. Interoperabilitetsstandarder som ONNX tillader blanding af komponenter fra åbne og lukkede kilder.

Det, der i sidste ende betyder noget, er at vælge det rigtige værktøj – åben eller lukket kilde – til det aktuelle job. De kommercielle enheder, der støtter closed source LLM'er, har ubestridelig indflydelse. Men passionen og principperne i åbne videnskabelige fællesskaber vil fortsætte med at spille en afgørende rolle for at drive AI-fremskridt.

Jeg har brugt de sidste fem år på at fordybe mig i den fascinerende verden af ​​Machine Learning og Deep Learning. Min passion og ekspertise har ført mig til at bidrage til over 50 forskellige software engineering projekter, med særligt fokus på AI/ML. Min vedvarende nysgerrighed har også trukket mig hen imod Natural Language Processing, et felt jeg er ivrig efter at udforske yderligere.