Connect with us

Regulace

Čína cílí na bezpečnost dat generativního AI s novými regulačními návrhy

mm

Bezpečnost dat je zásadní, zejména v oblastech, jako je umělá inteligence (AI), které mají velký vliv. Čína si toho je vědoma a předložila nové návrhové předpisy, které zdůrazňují kritičnost bezpečnosti dat v procesech školení AI modelů.

“Černá listina” mechanismus a bezpečnostní hodnocení

Návrh, který byl zveřejněn 11. října, nevzešel z jediné entity, ale byl výsledkem spolupráce. Národní výbor pro standardizaci informační bezpečnosti stál v čele, s významným příspěvkem od Cyberspace Administration of China (CAC), Ministerstva průmyslu a informačních technologií a několika policejních orgánů. Tato účast více agentur naznačuje vysoké sázky a různé úvahy, které jsou zapojeny do bezpečnosti dat AI.

Schopnosti generativního AI jsou både působivé a rozsáhlé. Od vytváření textového obsahu po vytváření obrazů, tato podmnožina AI se učí z existujících dat, aby generovala nová, originální výstupy. Nicméně, s velkou mocí přichází velká zodpovědnost, vyžadující přísné kontroly nad daty, která slouží jako učební materiál pro tyto AI modely.

Navrhované předpisy jsou pečlivé, podporující komplexní bezpečnostní hodnocení dat, která se používají pro školení generativních AI modelů, přístupných veřejnosti. Tyto předpisy jdou ještě dále, navrhují “černou listinu” mechanismus pro obsah. Práh pro zařazení do černé listiny je přesný — obsah, který zahrnuje více než “5% nezákonných a škodlivých informací”. Rozsah takových informací je široký, zachycující obsah, který podněcuje terorismus, násilí nebo ohrožuje národní zájmy a reputaci.

Dopady na globální postupy AI

Návrh předpisů z Číny slouží jako připomínka složitostí, které jsou zapojeny do vývoje AI, zejména když se tato technologie stává stále sofistikovanější a rozšířenější. Předpisy naznačují svět, ve kterém společnosti a vývojáři potřebují postupovat opatrně, vyvažovat inovace se zodpovědností.

Zatímco tyto předpisy jsou specifické pro Čínu, jejich vliv by mohl rezonovat globálně. Mohly by inspirovat podobné strategie po celém světě, nebo alespoň, zapálit hlubší konverzace kolem etiky a bezpečnosti AI. Jak pokračujeme v přijímání možností AI, cesta vpřed vyžaduje jasnou povědomí a proaktivní řízení potenciálních rizik, která jsou zapojena.

Tato iniciativa Číny zdůrazňuje univerzální pravdu — jak technologie, zejména AI, se stává více propojenou s naším světem, potřeba přísné bezpečnosti dat a etických úvah se stává stále naléhavější. Navrhované předpisy označují významný okamžik, který upozorňuje na širší dopady pro bezpečný a zodpovědný vývoj AI.

Alex McFarland je AI novinář a spisovatel, který zkoumá nejnovější vývoj v oblasti umělé inteligence. Spolupracoval s mnoha AI startupy a publikacemi po celém světě.