Umělá inteligence
Bitva o open-source AI v důsledku generativní AI

Open-source AI rychle mění software ekosystém tím, že zpřístupňuje AI modely a nástroje organizacím. To vede k řadě přínosů, včetně urychlené inovace, zlepšení kvality a nižších nákladů.
Podle zprávy OpenLogic z roku 2023 používá 80 % organizací více open-source software ve srovnání s 77 % v loňském roce, aby získaly přístup k nejnovějším inovacím, zlepšily rychlost vývoje, snížily závislost na dodavatelích a minimalizovaly náklady na licence.
Současná krajina open-source AI se stále vyvíjí. Technologické giganty, jako Google (Meena, Bard a PaLM), Microsoft (Turing NLG) a Amazon Web Services (Amazon Lex), jsou při uvolňování svých inovací v oblasti AI opatrnější. Nicméně, některé organizace, jako Meta a další výzkumné společnosti zaměřené na AI, aktivně otevřeně poskytují své AI modely.
Kromě toho existuje intenzivní debata o open-source AI, která se točí kolem jejího potenciálu výzvou pro velké technologie. Tento článek si klade za cíl poskytnout hlubší analýzu potenciálních přínosů open-source AI a zdůraznit výzvy, které leží před námi.
Pionýrské pokroky – Potenciál open-source AI
Mnozí praktici považují růst open-source AI za pozitivní vývoj, protože činí AI více transparentní, flexibilní, odpovědnou, dostupnou a přístupnou. Ale technologičtí giganti, jako OpenAI a Google, jsou velmi opatrní, když otevřeně poskytují své modely, kvůli komerčním, bezpečnostním a bezpečnostním obavám. Otevřením zdrojového kódu mohou ztratit své konkurenční výhody, nebo by museli poskytnout citlivé informace o svých datech a architektuře modelu, a zlomyslní aktéři by mohli použít modely pro škodlivé účely.
Nicméně, největším pokladem otevřeného poskytování AI modelů je rychlejší inovace. Několik pozoruhodných pokroků v oblasti AI se stalo dostupným veřejnosti prostřednictvím open-source spolupráce. Například Meta učinila průlomový krok, když otevřeně poskytla svůj LLM model LLaMA.
Jakmile výzkumná komunita získala přístup k LLaMA, katalyzovala další průlomové objevy v oblasti AI, vedoucí k vývoji odvozených modelů, jako Alpaca a Vicuna. V červenci společnost Stability AI vyvinula dvě LLM nazvané Beluga 1 a Beluga 2, využívající LLaMA a LLaMA 2. Tyto modely ukázaly lepší výsledky ve mnoha úkolech, jako je rozumění, doménově specifické zodpovězení otázek a porozumění jemnostem jazyka, ve srovnání se stávajícími modely.
Nedávno Meta představila Code LLaMA – open-source AI nástroj pro programování, který překonal stávající modely v úkolech programování – postavený na LLaMA 2.
Výzkumníci a praktici také rozšiřují schopnosti LLaMA, aby soutěžili s proprietárními modely. Například open-source modely, jako Giraffe z Abacus AI a Llama-2-7B-32K-Instruct z Together AI, jsou nyní schopny zpracovat vstupní kontexty o délce 32K – funkcionalitu, která byla dříve dostupná pouze v proprietárních LLM, jako GPT-4. Kromě toho iniciativy, jako MosaicML, open-source MPT 7B a 30B modely, umožňují výzkumníkům trénovat své generativní AI modely od začátku.
Celkově tato kolektivní snaha transformovala krajину AI, podporuje spolupráci a sdílení znalostí, které dále pohánějí průlomové objevy.
Přínosy open-source AI pro společnosti
Open-source AI nabízí řadu přínosů, což z něj činí atraktivní přístup v oblasti umělé inteligence. Přijetí transparentnosti a komunitní spolupráce má open-source AI potenciál revolucionizovat způsob, jakým vyvíjíme a nasazujeme AI řešení.
Zde jsou některé přínosy open-source AI:
- Rychlý vývoj: Open-source AI modely umožňují vývojářům stavět na existujících rámcích a architekturách, umožňujících rychlý vývoj a iteraci nových modelů. S pevným základem mohou vývojáři vytvářet nové aplikace bez opětovného vynálezu kola.
- Zvýšená transparentnost: Transparentnost je klíčovou vlastností open-source, poskytující jasný pohled na základní algoritmy a data. Tato viditelnost snižuje předpojatost a podporuje spravedlnost, vedoucí k více rovnému AI prostředí.
- Zvýšená spolupráce: Open-source AI demokratizoval vývoj AI, což podporuje spolupráci a vytváří rozmanitou komunitu přispěvatelů s různými odbornými znalostmi.
Řešení výzev – Rizika open-source AI
Zatímco open-source nabízí řadu výhod, je důležité být si vědom potenciálních rizik. Zde jsou některé z klíčových obav spojených s open-source AI:
- Regulační výzvy: Růst open-source AI modelů vedl k neřízenému vývoji s inherenčními riziky, která vyžadují pečlivé regulace. Přístupnost a demokratizace AI zvyšují obavy o její potenciální zneužití. Podle nedávné zprávy SiliconAngle některé open-source AI projekty používají generativní AI a LLM s nedostatečnou bezpečností, ohrožující organizace a spotřebitele.
- Snížení kvality: Zatímco open-source AI modely přinášejí transparentnost a komunitní spolupráci, mohou trpět snížením kvality v průběhu času. Na rozdíl od uzavřených modelů, které jsou udržovány specializovanými týmy, často padá břemeno údržby na komunitu. To často vede k potenciálnímu zanedbání a zastaralým verzím modelů. Toto snížení kvality může ohrozit kritické aplikace, ohrožující důvěru uživatelů a celkový pokrok AI.
- Regulace AI: Open-source AI modely zavedly novou úroveň složitosti pro regulátory AI. Existuje řada faktorů, které je třeba zvážit, jako je ochrana citlivých dat, prevence zneužití modelů a zajištění správné údržby modelů. Proto je pro regulátory AI poměrně složité zajistit, aby open-source modely byly používány pro dobré účely a ne pro škodlivé.
Evolution open-source AI debaty
“Open source pohání inovace, protože umožňuje mnoha více vývojářům stavět s novou technologií. Také zlepšuje bezpečnost a bezpečnost, protože když je software open, více lidí může prohlížet jej, aby identifikovali a opravili potenciální problémy”, řekl Mark Zuckerberg, když oznámil LLaMA 2 velký jazykový model v červenci tohoto roku.
Na druhé straně majoritní hráči, jako Microsoft-backed OpenAI a Google, drží své AI systémy uzavřené. Cílem je získat konkurenční výhodu a minimalizovat riziko zneužití AI.
Spoluzakladatel a hlavní vědec OpenAI, Ilya Sutskever, řekl The Verge, “Tyto modely jsou velmi silné a stávají se stále silnějšími. V určitém okamžiku bude poměrně snadné, pokud by někdo chtěl, způsobit velkou škodu pomocí těchto modelů. A když se schopnosti zvyšují, je rozumné, že nechcete tyto modely zveřejňovat.” Existují potenciální rizika spojená s open-source AI modely, která nelze ignorovat.
Zatímco AI schopné způsobit lidskou destrukci mohou být desetiletí pryč, open-source AI nástroje byly již zneužity. Například první model LLaMA byl vydán pouze pro pokrok v AI výzkumu. Ale zlomyslní aktéři jej použili k vytvoření chatbotů, které šíří nenávistný obsah, jako rasové urážky a stereotypy.
Udržování rovnováhy mezi open AI spoluprací a odpovědnou správou je zásadní. Zajišťuje, aby pokroky v AI zůstaly prospěšné pro společnost, zatímco chrání před potenciální škodou. Technologická komunita musí spolupracovat, aby vytvořila směrnice a mechanismy, které podporují etický vývoj AI. Ještě důležitější je, že musí přijmout opatření, aby předešla zneužití, umožňující AI technologiím být silou pro pozitivní změnu.
Chcete-li zvýšit svou AI inteligenci? Procházejte Unite.ai rozsáhlým katalogem hlubokých AI zdrojů, aby jste rozšířili své znalosti.













