Connect with us

Myslitelé

Jak operacionalizovat etiku AI?

mm

AI se týká optimalizace procesů, ne odstraňování lidí z nich. Odpovědnost zůstává zásadní v nadřazené myšlence, že AI může nahradit lidi. Zatímco technologie a automatizované systémy nám v minulém století pomohly dosáhnout lepšího ekonomického výkonu, mohou skutečně nahradit služby, kreativitu a hluboké znalosti? Stále jsem přesvědčen, že to nemohou, ale mohou optimalizovat čas strávený rozvojem těchto oblastí.

Odpovědnost silně závisí na právech duševního vlastnictví, předvídání dopadu technologie na kolektivní a individuální práva a zajištění bezpečnosti a ochrany dat používaných při školení a sdílení při vývoji nových modelů. Jak pokračujeme v pokroku v technologiích, téma etiky AI se stalo stále relevantnější. To vyvolává důležité otázky o tom, jak regulujeme a integrujeme AI do společnosti, zatímco minimalizujeme potenciální rizika.

Pracuji úzce s jednou stránkou AI – klonováním hlasu. Hlas je důležitou součástí podobizny jednotlivce a biometrických dat používaných k výcviku hlasových modelů. Ochrana podobizny (právní a politické otázky), zajištění hlasových dat (zásady ochrany soukromí a kybernetické bezpečnosti) a stanovení limitů aplikací klonování hlasu (etické otázky měřící dopad) jsou nezbytné k úvaze při budování produktu.

Musíme vyhodnotit, jak se AI shoduje se společenskými normami a hodnotami. AI musí být přizpůsoben tak, aby se vešel do stávajícího etického rámce společnosti, zajišťující, že neklade další rizika nebo nehrozí etablovaným společenským normám. Dopad technologie pokrývá oblasti, kde AI posiluje jednu skupinu jednotlivců, zatímco eliminuje ostatní. Tento existenční dilema vzniká na každé fázi našeho rozvoje a společenského růstu nebo poklesu. Může AI zavést více dezinformací do informačních ekosystémů? Ano. Jak spravujeme toto riziko na úrovni produktu a jak vzděláváme uživatele a politiky o tom? Odpovědi leží ne v nebezpečích technologie samotné, ale v tom, jak ji balíme do produktů a služeb. Pokud nemáme dostatek pracovních sil v produktových týmech, abychom se dívali za horizont a hodnotili dopad technologie, budeme uvízli v cyklu řešení problémů.

Integrace AI do produktů vyvolává otázky o bezpečnosti produktů a prevenci škod způsobených AI. Vývoj a implementace AI by měly priorizovat bezpečnost a etické úvahy, což vyžaduje alokaci zdrojů relevantním týmům.

Abysch lehetnovaly nastupující diskusi o operacionalizaci etiky AI, navrhuji tento základní cyklus pro etické AI na úrovni produktu:

1. Prošetřete právní aspekty AI a jak je regulujeme, pokud existují regulace. Tyto zahrnují EU Act on AI, Digital Service Act, UK’s Online Safety Bill a GDPR na ochranu dat. Rámce jsou díla v průběhu a potřebují vstup od průkopníků průmyslu (emergentní technologie) a lídrů. Viz bod (4), který dokončuje navrhovaný cyklus.

2. Zvažte, jak přizpůsobíme AI založené produkty společenským normám bez ukládání dalších rizik. Zda to ovlivňuje informační bezpečnost nebo sektor zaměstnání, nebo zda porušuje autorská práva a práva duševního vlastnictví? Vytvořte matici založenou na krizových scénářích. Čerpám z mé mezinárodní bezpečnostní zkušenosti.

3. Určete, jak integrovat výše uvedené do AI založených produktů. Jak se AI stává sofistikovanějším, musíme zajistit, aby se shodovalo se společenskými hodnotami a normami. Musíme být proaktivní při řešení etických úvah a jejich integraci do AI vývoje a implementace. Pokud AI založené produkty, jako generativní AI, hrozí šířit více dezinformací, musíme zavést funkce zmírnění, moderaci, omezit přístup k jádru technologie a komunikovat s uživateli. Je zásadní mít AI etiku a bezpečnostní týmy v AI založených produktech, což vyžaduje zdroje a firemní vizi.

Zvažte, jak můžeme přispět k právním rámcům a tvarovat je. Nejlepší praxe a politické rámce nejsou pouze módními slovy; jsou praktickými nástroji, které pomáhají nové technologii fungovat jako pomocné nástroje, nikoli jako hrozby. Spojení politiků, výzkumníků, velkých technologií a emergentních technologií v jedné místnosti je zásadní pro vyvážení společenských a obchodních zájmů kolem AI. Právní rámce musí přizpůsobit se vznikající technologii AI, zajišťující, že chrání jednotlivce a společnost, zatímco také usnadňují inovace a pokrok.

4. Zvažte, jak přispíváme k právním rámcům a tvarujeme je. Nejlepší praxe a politické rámce nejsou prázdnými slovy, ale praktickými nástroji, aby nová technologie fungovala jako pomocné nástroje, nikoli jako hrozby. Mít politiky, výzkumníky, velké technologie a emergentní technologie v jedné místnosti je zásadní pro vyvážení společenských a obchodních zájmů kolem AI. Právní rámce musí přizpůsobit se vznikající technologii AI. Musíme zajistit, že tyto rámce chrání jednotlivce a společnost, zatímco také usnadňují inovace a pokrok.

Shrnutí

Toto je opravdu základní kruh integrace AI založených emergentních technologií do našich společností. Jak pokračujeme v boji s komplexnostmi etiky AI, je zásadní zůstat oddán nalezení řešení, která priorizují bezpečnost, etiku a společenské blaho. A tato slova nejsou prázdná, ale tvrdá práce skládání všech puzzle denně.

Tato slova jsou založena na mé vlastní zkušenosti a závěrech.

Anna je vedoucí etiky a partnerství ve společnosti Respeecher, která je držitelem Emmy a specializuje se na technologii klonování hlasu se sídlem na Ukrajině. Anna je bývalá poradkyně pro politiku ve společnosti Reface, která je aplikací pro syntetická média poháněná umělou inteligencí, a je také technickou spoluzakladatelkou nástroje pro boj proti dezinformacím Cappture, který je financován akceleračním programem Startup Wise Guys. Anna má 11 let zkušeností v oblasti bezpečnostních a obranných politik, technologií a budování odolnosti. Byla také výzkumnou pracovnicí v Mezinárodním centru pro obranu a bezpečnost v Tallinnu a v Pražském institutu bezpečnostních studií. Rovněž poskytla poradenské služby významným ukrajinským společnostem v oblasti budování odolnosti jako součást Hybridní úkolu bojové skupiny na Kyjevské ekonomické škole.