Connect with us

OpenAI, Anthropic a Google vyzývají k akci, protože americké vedení v oblasti AI slábne

Umělá inteligence

OpenAI, Anthropic a Google vyzývají k akci, protože americké vedení v oblasti AI slábne

mm

Vedoucí americké společnosti pro umělou inteligenci OpenAI, Anthropic a Google varovaly federální vládu, že americké technologické vedení v oblasti AI “není široké a zužuje se”, protože čínské modely, jako je Deepseek R1, demonstrují rostoucí schopnosti, podle dokumentů předložených americké vládě v odpovědi na žádost o informace o vypracování plánu akcí pro AI.

Tyto recentní podání z března 2025 zdůrazňují naléhavé obavy o národní bezpečnostní rizika, ekonomickou konkurenceschopnost a potřebu strategických regulačních rámců pro udržení amerického vedení v oblasti AI vývoje uprostřed rostoucí globální konkurence a čínského státně dotovaného pokroku v oblasti.

Anthropic a Google předložily své odpovědi 6. března 2025, zatímco podání OpenAI následovalo 13. března 2025.

Čínská výzva a Deepseek R1

Vznik čínského modelu Deepseek R1 vyvolal značné obavy mezi hlavními americkými vývojáři AI, kteří jej nepovažují za lepší než americkou technologii, ale jako přesvědčivý důkaz, že technologická mezera se rychle zmenšuje.

OpenAI výslovně varuje, že “Deepseek ukazuje, že naše vedení není široké a zužuje se”, a charakterizuje model jako “současně státem dotovaný, státem kontrolovaný a volně dostupný” – kombinaci, kterou považují za zvláště hrozivou pro americké zájmy a globální rozvoj AI.

Podle analýzy OpenAI představuje Deepseek rizika podobná těm, která jsou spojena s čínským telekomunikačním gigantem Huawei. “Stejně jako u Huawei existuje značné riziko spojené s využíváním modelů DeepSeek v kritické infrastruktuře a dalších vysoce rizikových případech, s ohledem na potenciál, že by DeepSeek mohl být donucen Čínskou komunistickou stranou k manipulaci svých modelů za účelem způsobení škody,” uvedla OpenAI ve své odpovědi.

Společnost dále upozornila na obavy související s ochranou dat a bezpečností, přičemž uvedla, že čínské předpisy by mohly vyžadovat, aby Deepseek sdílel údaje o uživatelích s vládou. To by mohlo umožnit Čínské komunistické straně vyvinout pokročilejší systémy AI zaměřené na státní zájmy, zatímco by ohrozilo individuální soukromí.

Hodnocení Anthropic se zaměřuje především na bio-bezpečnostní důsledky. Jejich hodnocení odhalilo, že Deepseek R1 “splňoval odpovědi na většinu biologických otázek zbraní, i když byly formulovány s jasným úmyslem způsobit škodu.” Tato ochota poskytnout potenciálně nebezpečné informace stojí v kontrastu s bezpečnostními opatřeními implementovanými vedoucími americkými modely.

“Zatímco Amerika udržuje vedení v AI dnes, DeepSeek ukazuje, že naše vedení není široké a zužuje se,” zopakovala Anthropic ve své vlastní odpovědi, čímž zdůraznila naléhavý tón varování.

Obě společnosti rámuji soutěž v ideologických termínech, přičemž OpenAI popisuje soutěž mezi “demokratickým AI” a čínským “autokratickým, autoritářským AI.” Navrhují, že ochota Deepseeku generovat instrukce pro “nelegální a škodlivé činnosti, jako je podvod s identitou a krádež duševního vlastnictví” odráží fundamentálně odlišné etické přístupy k rozvoji AI mezi oběma národy.

Vznik Deepseek R1 je nepochybně významným milníkem v globálním závodě AI, demonstrujícím rostoucí schopnosti Číny navzdory americkým kontrolám exportu pokročilých polovodičů a zdůrazňujícím naléhavost koordinované vládní akce pro udržení amerického vedení v oblasti.

Národní bezpečnostní důsledky

Odpovědi všech tří společností zdůrazňují významná národní bezpečnostní rizika vyplývající z pokročilých modelů AI, i když se k těmto rizikům přistupují z různých úhlů.

Varování OpenAI se zaměřují především na potenciál vlivu Čínské komunistické strany na čínské modely AI, jako je Deepseek. Společnost zdůrazňuje, že čínské předpisy by mohly donutit Deepseek ke “kompromitování kritické infrastruktury a citlivých aplikací” a vyžadovat sdílení údajů o uživatelích s vládou. Toto sdílení údajů by mohlo umožnit vyvinout pokročilejší systémy AI zaměřené na státní zájmy Číny, vytvářející jak okamžité problémy s ochranou soukromí, tak dlouhodobá bezpečnostní rizika.

Obavy Anthropic se soustředí na bio-bezpečnostní rizika vyplývající z pokročilých schopností AI, bez ohledu na zemi původu. V jedné zvláště znepokojivé zpráv Anthropic odhalila, že “naše nejnovější systém, Claude 3.7 Sonnet, demonstruje znepokojivé zlepšení v jeho kapacitě podporovat aspekty biologického vývoje zbraní.” Tato otevřená přiznání zdůrazňuje duální povahu pokročilých systémů AI a potřebu robustních bezpečnostních opatření.

Anthropic také identifikovala, co popisuje jako “regulační mezeru v amerických omezeních čipů” související s čipy Nvidia H20. Zatímco tyto čipy splňují snížené požadavky na výkon pro čínský export, “vynikají v generování textu (‘sampling’) – fundamentálním komponentem pokročilých metodologií učení s posilováním kritických pro současné pokročilé modely.” Anthropic naléhala na “okamžité regulační opatření” pro řešení tohoto potenciálního zranitelnosti v současných rámcích kontrol exportu.

Google, zatímco uznává rizika bezpečnosti AI, prosazuje vyvážený přístup k kontrolám exportu. Společnost varuje, že současné předpisy pro export AI “mohou podkopat ekonomickou konkurenceschopnost… tím, že uvalí nepřiměřené břemeno na americké poskytovatele cloudových služeb.” Místo toho Google doporučuje “vyvážené kontroly exportu, které chrání národní bezpečnost, zatímco umožňují americký export a globální obchodní operace.”

Všechny tři společnosti zdůrazňují potřebu posílených vládních vyhodnocovacích kapacit. Anthropic specificky volá po “vybudování federální kapacity pro testování a hodnocení powerfulních modelů AI pro národní bezpečnostní schopnosti” pro lepší pochopení potenciálního zneužití ze strany protivníků. To by zahrnovalo zachování a posílení AI Safety Institute, směrování NIST k vývoji bezpečnostních vyhodnocení a shromažďování týmů interdisciplinárních odborníků.

Porovnávací tabulka: OpenAI, Anthropic, Google

Oblast zaměření OpenAI Anthropic Google
Hlavní obava Politická a ekonomická rizika ze státem kontrolovaného AI Bio-bezpečnostní rizika z pokročilých modelů Udržování inovací při vyváženém zabezpečení
Názor na Deepseek R1 “Státem dotovaný, státem kontrolovaný a volně dostupný” s riziky podobnými Huawei Ochotný odpovědět na “biologické otázky zbraní” s úmyslem způsobit škodu Méně specifický zaměřený na Deepseek, více na širší soutěž
Národní bezpečnostní priorita Vliv Čínské komunistické strany a rizika bezpečnosti dat Bio-bezpečnostní hrozby a mezery v kontrolách čipů Vyvážené kontroly exportu, které nezatěžují americké poskytovatele
Regulační přístup Dobrovolné partnerství s federální vládou; jeden kontaktní bod Zlepšená vládní testovací kapacita; zpevněné kontroly exportu “Pro-inovační federální rámec”; sektorově specifické governance
Zaměření na infrastrukturu Adopce federální vlády pokročilých nástrojů AI Rozšíření energie (50 GW do roku 2027) pro rozvoj AI Koordinovaná akce na energii, reforma povolení
Specifické doporučení Hierarchický rámec kontrol exportu pro podporu “demokratického AI” Okamžité regulační opatření na čipy Nvidia H20 exportované do Číny Přístup průmyslu k otevřeně dostupným údajům pro spravedlivé učení

Strategie ekonomické konkurenceschopnosti

Požadavky na infrastrukturu, zejména energetické potřeby, se jeví jako kritický faktor pro udržení amerického vedení v AI. Anthropic varovala, že “do roku 2027 bude vyžadovat školení jediného pokročilého modelu AI přibližně pět gigawattů energie.” Navrhla ambiciózní národní cíl vybudovat 50 dalších gigawattů energie speciálně pro AI průmysl do roku 2027, spolu s opatřeními na zjednodušení povolení a urychlení schválení přenosových linek.

OpenAI opět rámuje soutěž jako ideologický souboj mezi “demokratickým AI” a “autokratickým, autoritářským AI” postaveným Čínskou komunistickou stranou. Jejich vize “demokratického AI” zdůrazňuje “volný trh podporující volnou a spravedlivou soutěž” a “svobodu pro vývojáře a uživatele pracovat s našimi nástroji, jak uznají za vhodné,” v rámci vhodných bezpečnostních zábran.

Všechny tři společnosti nabídly podrobná doporučení pro udržení amerického vedení. Anthropic zdůraznila důležitost “posílení americké ekonomické konkurenceschopnosti” a zajištění, aby “výhody AI byly široce sdíleny napříč společností.” Prosazovala “zajištění a zvyšování americké energetické nabídky” jako kritický předpoklad pro udržení rozvoje AI v amerických hranicích, varovala, že omezení energie by mohlo donutit vývojáře jít do zahraničí.

Google volala po rozhodných akcích pro “nabíjení amerického rozvoje AI”, zaměřujících se na tři klíčové oblasti: investice do AI, urychlení vládní adopce AI a podporu pro-inovačních přístupů mezinárodně. Společnost zdůraznila potřebu “koordinované federální, státní, místní a průmyslové akce na politikách, jako je reforma přenosu a povolení, pro řešení rostoucích energetických potřeb” spolu s “vyváženými kontrolami exportu” a “pokračujícím financováním základního výzkumu a rozvoje AI”.

Podání Google zvláště zdůraznilo potřebu “pro-inovačního federálního rámce pro AI”, který by zabránil patchworku státních regulací, zatímco by zajišťoval přístup průmyslu k otevřeně dostupným údajům pro školení modelů. Jejich přístup zdůrazňuje “zaměřené, sektorově specifické a založené na riziku governance a standardy AI” spíše než širokou regulaci.

Regulační doporučení

Jednotný federální přístup k regulaci AI se objevil jako stálé téma napříč všemi odpověďmi. OpenAI varovala před “regulačními arbitráži vytvářenými jednotlivými americkými státy” a navrhla “holistický přístup, který umožňuje dobrovolné partnerství mezi federální vládou a soukromým sektorem.” Jejich rámec předpokládá dohled ministerstva obchodu, potenciálně prostřednictvím rekonstruovaného US AI Safety Institute, poskytujícího jeden kontaktní bod pro společnosti AI, aby se zapojily do vlády na bezpečnostních rizicích.

V otázce kontrol exportu OpenAI prosazovala hierarchický rámec navržen pro podporu americké adopce AI v zemích, které sdílejí demokratické hodnoty, zatímco by omezoval přístup pro Čínu a její spojence. Anthropic podobně volala po “zpevnění kontrol exportu, aby se rozšířilo americké vedení v AI” a “dramaticky zlepšilo bezpečnost amerických laboratoří” prostřednictvím posílené spolupráce s zpravodajskými agenturami.

Otázky autorských práv a duševního vlastnictví se objevily prominentně v doporučeních OpenAI a Google. OpenAI zdůraznila důležitost zachování principů spravedlivého užití, aby umožnily modelům AI učit se z autorsky chráněného materiálu bez podkopání komerční hodnoty existujících děl. Varovala, že příliš restriktivní pravidla autorských práv by mohly znevýhodnit americké společnosti AI ve srovnání s čínskými konkurenty. Google zopakovala tento názor, prosazujíc “vyvážená pravidla autorských práv, jako je spravedlivé užití a výjimky pro text a data mining”, které popsala jako “kritické pro umožnění AI systémům učit se z předchozích znalostí a veřejně dostupných údajů”.

Všechny tři společnosti zdůraznily potřebu urychlené vládní adopce technologií AI. OpenAI volala po “ambiciózní vládní adopční strategii” pro modernizaci federálních procesů a bezpečné nasazení pokročilých nástrojů AI. Specificky doporučila odstranění překážek adopce AI, včetně zastaralých akreditačních procesů, jako je FedRAMP, restriktivních testovacích pravomocí a inflexibilních nákupních cest.

Anthropic podobně prosazovala “podporu rychlé akvizice AI napříč federální vládou” pro revolucionalizaci operací a posílení národní bezpečnosti.

Google navrhla “zjednodušení zastaralých akreditačních, autorizačních a nákupních postupů” uvnitř vlády pro urychlení adopce AI. Zdůraznila důležitost účinných pravidel veřejných zakázek a zlepšené interoperability v vládních cloudových řešeních pro facilitaci inovací.

Komplexní odpovědi od těchto vedoucích společností AI představují jasnou zprávu: udržení amerického vedení v AI vyžaduje koordinovanou federální akci na mnoha frontách – od rozvoje infrastruktury a regulačních rámců po národní bezpečnostní ochrany a modernizaci vlády – zejména vzhledem k intenzivnější soutěži z Číny.

Alex McFarland je AI novinář a spisovatel, který zkoumá nejnovější vývoj v oblasti umělé inteligence. Spolupracoval s mnoha AI startupy a publikacemi po celém světě.