Umělá inteligence
Bitva otevřeného zdroje vs uzavřeného zdroje jazykových modelů: Technická analýza
Velké jazykové modely (LLM) v posledních letech okouzluje komunitu umělé inteligence a stojí v čele průlomů v zpracování přirozeného jazyka. Za touto hysterií se skrývá složitá debata – měly by tyto mocné modely být otevřeného zdroje nebo uzavřeného zdroje?
V tomto příspěvku budeme analyzovat technické rozdíly mezi těmito přístupy, abychom pochopili příležitosti a omezení, které každý z nich nabízí. Budeme se zabývat následujícími klíčovými aspekty:
- Definice otevřeného zdroje vs uzavřeného zdroje LLM
- Architektonická transparentnost a přizpůsobitelnost
- Testování výkonu
- Požadavky na výpočetní prostředky
- Aplikační všestrannost
- Přístupnost a licencování
- Ochrana dat a důvěrnost
- Komerční podpora a zázemí
Na konci budete mít informovaný pohled na technické kompromisy mezi otevřeným zdrojem a uzavřeným zdrojem LLM, aby vám pomohl vést vaši vlastní strategii AI. Pojďme se ponořit!
Definice otevřeného zdroje vs uzavřeného zdroje LLM
Otevřené zdroje LLM mají veřejně přístupné modelové architektury, zdrojový kód a váhové parametry. To umožňuje výzkumníkům zkoumat vnitřní části, hodnotit kvalitu, reprodukovat výsledky a vytvářet vlastní varianty. Vedoucími příklady jsou Anthropic’s ConstitutionalAI, Meta’s LLaMA a EleutherAI’s GPT-NeoX.
Naopak, uzavřené zdroje LLM považují modelovou architekturu a váhové parametry za proprietární aktiva. Komerční subjekty, jako jsou Anthropic, DeepMind a OpenAI, je vyvíjejí interně. Bez přístupu ke kódu nebo návrhovým detailům jsou reprodukovatelnost a přizpůsobitelnost omezené.
Architektonická transparentnost a přizpůsobitelnost
Přístup k vnitřním částem otevřených zdrojů LLM odemyká příležitosti pro přizpůsobení, které nejsou možné u uzavřených zdrojů.
Přizpůsobením modelové architektury mohou výzkumníci zkoumat techniky, jako je zavedení řídké konektivity mezi vrstvami nebo přidání speciálních klasifikačních tokenů pro zlepšení výkonu na úzkých úkolech. S přístupem k váhovým parametrům mohou vývojáři přenášet existující reprezentace nebo inicializovat varianty s předem trénovanými stavebními kameny, jako jsou T5 a BERT.
Tato přizpůsobitelnost umožňuje otevřeným zdrojům LLM lépe sloužit specializovaným doménám, jako je biomedicínský výzkum, generování kódu a vzdělávání. Nicméně, odbornost vyžadovaná pro dodání implementací v produkčním kvalitě může zvýšit bariéru.
Uzavřené zdroje LLM nabízejí omezenou přizpůsobitelnost, protože jejich technické detaily zůstávají proprietární. Nicméně, jejich podporovatelé věnují rozsáhlé zdroje internímu výzkumu a vývoji. Výsledné systémy posunují hranice toho, co je možné s obecnou architekturou LLM.
I když jsou méně flexibilní, uzavřené zdroje LLM vynikají v široce aplikovatelných úkolech přirozeného jazyka. Zjednodušují také integraci tím, že se přizpůsobují zavedeným rozhraním, jako je standard OpenAPI.
Testování výkonu
Navzdory architektonické transparentnosti měření výkonu otevřených zdrojů LLM představuje výzvy. Jejich flexibilita umožňuje nekonečné možné konfigurace a strategie ladění. Také umožňuje modelům označeným jako „otevřené zdroje“ zahrnovat proprietární techniky, které zkreslují srovnání.
Uzavřené zdroje LLM se chlubí jasně definovanými cíli výkonu, protože jejich podporovatelé měří a propagují konkrétní prahové hodnoty metrik. Například Anthropic zveřejňuje přesnost ConstitutionalAI na kurátorovaných sadách problémů NLU. Microsoft zdůrazňuje, jak GPT-4 překonává lidské hranice na nástroji SuperGLUE pro porozumění jazyka.
To však čelí kritice za přehánění výkonu na reálných úkolech a podhodnocení selhání. Skutečně nezaujaté hodnocení LLM zůstává otevřenou výzkumnou otázkou – pro obě přístupy, otevřené zdroje i uzavřené zdroje.
Požadavky na výpočetní prostředky
Školení velkých jazykových modelů vyžaduje rozsáhlé výpočetní zdroje. OpenAI utratila miliony za školení GPT-3 na cloudové infrastruktuře, zatímco Anthropic spotřebovala více než 10 milionů dolarů za GPU pro ConstitutionalAI.
Cena za takové modely vylučuje většinu jednotlivců a malých týmů z komunity otevřených zdrojů. Ve skutečnosti musela EleutherAI odstranit model GPT-J z veřejného přístupu kvůli explozivním nákladům na hostování.
Bez hlubokých kapes úspěchy otevřených zdrojů LLM spoléhají na darované výpočetní zdroje. LAION zkompiloval technologicky zaměřený model LAION-5B pomocí crowdsourcových dat. Projekt Anthropic ConstitutionalAI využil dobrovolnické výpočetní zdroje.
Velké technologie podporované společnostmi, jako jsou Google, Meta a Baidu, poskytují uzavřeným zdrojům LLM finanční palivo potřebné pro industrializaci vývoje LLM. To umožňuje škálovat na délky, které jsou nepředstavitelné pro komunitní iniciativy – podívejte se na model Gopher od DeepMind s 280 miliardami parametrů.
Aplikační všestrannost
Přizpůsobitelnost otevřených zdrojů LLM umožňuje řešit vysoce specializované použití. Výzkumníci mohou agresivně modifikovat vnitřní části modelu, aby zlepšili výkon na úzkých úkolech, jako je předpověď proteinové struktury, generování dokumentace kódu a verifikace matematických důkazů.
To však říká, že přístup a úprava kódu nezaručují efektivní řešení specifické domény bez správných dat. Komplexní trénovací sady pro úzké aplikace vyžadují významné úsilí na kurátorování a aktualizaci.
Zde uzavřené zdroje LLM těží z možností získání trénovacích dat z interních repozitářů a komerčních partnerů. Například DeepMind licencuje databáze, jako je ChEMBL pro chemii a UniProt pro proteiny, aby rozšířil dosah aplikací. Průmyslový přístup k datům umožňuje modelům, jako je Gopher, dosáhnout pozoruhodné všestrannosti, navzdory architektonické neprůhlednosti.
Přístupnost a licencování
Permisivní licencování otevřených zdrojů LLM podporuje bezplatný přístup a spolupráci. Modely, jako je GPT-NeoX, LLaMA a Jurassic-1 Jumbo, používají dohody, jako je Creative Commons a Apache 2.0, aby umožnily nekomerční výzkum a spravedlivé komerční využití.
Naopak, uzavřené zdroje LLM nesou restriktivní licence, které omezují dostupnost modelu. Komerční subjekty pečlivě kontrolují přístup, aby ochránily potenciální příjmové prameny z předpovědních API a podnikových partnerství.
Pochopitelně, organizace, jako jsou Anthropic a Cohere, účtují za přístup k rozhraním ConstitutionalAI a Cohere-512. Nicméně, to riskuje vyloučení důležitých výzkumných domén a zkreslení vývoje ve prospěch dobře financovaných odvětví.
Otevřené licencování klade také výzvy, zejména kolem atributů a odpovědnosti. Pro výzkumné použití však svobody poskytnuté otevřeným zdrojům nabízejí zřejmé výhody.
Ochrana dat a důvěrnost
Trénovací sady pro LLM obvykle agregují obsah z různých online zdrojů, jako jsou webové stránky, vědecké články a diskuzní fóra. To riskuje, že se v modelech objeví osobní nebo jinak citlivé informace.
Pro otevřené zdroje LLM poskytuje kontrola složení trénovacích sad nejlepší záruku proti problémům s důvěrností. Hodnocení zdrojů dat, filtrů a dokumentování podezřelých příkladů nalezených během testování může pomoci identifikovat zranitelnosti.
Bohužel, uzavřené zdroje LLM vylučují takovouto veřejnou kontrolu. Místo toho musí spotřebitelé spoléhat na rigor interních kontrolních procesů založených na oznámených politikách. Pro kontext slibuje Azure Cognitive Services filtrovat osobní data, zatímco Google specifikuje formální kontrolu ochrany osobních údajů a označování dat.
Celkově otevřené zdroje LLM umožňují proaktivnější identifikaci rizik důvěrnosti v systémech AI předtím, než se tyto slabiny projeví ve velkém měřítku. Uzavřené protějšky nabízejí relativně omezenou transparentnost do postupů zpracování dat.
Komerční podpora a zázemí
Potenciál komerčního využití uzavřených zdrojů LLM motivuje významné komerční investice do vývoje a údržby. Například, očekávající lukrativní návraty z portfolia Azure AI, Microsoft souhlasil s více miliardovými dolarovými partnerstvími s OpenAI kolem modelů GPT.
Naopak, otevřené zdroje LLM spoléhají na dobrovolníky, kteří věnují osobní čas pro údržbu, nebo na granty, které poskytují omezené financování. Tento asymetrický poměr zdrojů riskuje kontinuitu a dlouhodobost projektů otevřených zdrojů.
Nicméně, bariéry pro komerční využití také osvobozují komunity otevřených zdrojů, aby se soustředily na vědecký pokrok nad zisk. A decentralizovaná povaha otevřených ekosystémů zmírňuje závislost na udržitelném zájmu jediného podporovatele.
Nakonec každá přístup nabízí kompromisy kolem zdrojů a motivací. Uzavřené zdroje LLM si užívají větší bezpečnost financování, ale koncentrují vliv. Otevřené ekosystémy podporují rozmanitost, ale trpí zvýšenou nejistotou.
Navigace v krajině otevřených zdrojů vs uzavřených zdrojů LLM
Rozhodnutí mezi otevřeným zdrojem nebo uzavřeným zdrojem LLM vyžaduje sladění priorit organizace, jako je přizpůsobitelnost, přístupnost a škálovatelnost, s možnostmi modelu.
Pro výzkumníky a začínající podniky otevřené zdroje poskytují větší kontrolu pro úpravu modelů pro specifické úkoly. Licencování také usnadňuje bezplatné sdílení poznatků napříč spolupracovníky. Nicméně, břemeno zdrojování trénovacích dat a infrastruktury může podkopat reálnou životaschopnost.
Naopak, uzavřené zdroje LLM slibují značné zlepšení kvality díky dostatečnému financování a datům. Nicméně, omezení kolem přístupu a úprav limitují vědeckou transparentnost, zatímco váží nasazení na roadmapy dodavatelů.
V praxi otevřené standardy kolem specifikací architektur, kontrolních bodů modelů a evaluačních dat mohou pomoci kompenzovat nedostatky obou přístupů. Sdílené základy, jako je Google’s Transformer nebo Oxford’s REALTO benchmarky, zlepšují reprodukovatelnost. Standardy interoperability, jako je ONNX, umožňují míchání komponent z otevřených a uzavřených zdrojů.
Nakonec to, co záleží, je výběr správného nástroje – otevřeného zdroje nebo uzavřeného zdroje – pro danou úlohu. Komerční subjekty podporující uzavřené zdroje LLM mají nezpochybnitelný vliv. Ale vášeň a zásady komunit otevřené vědy budou pokračovat ve hrají zásadní roli při pohánění pokroku AI.












