výhonek Techničtí lídři zdůrazňující rizika AI a naléhavost robustní regulace AI - Unite.AI
Spojte se s námi

Umělá inteligence

Techničtí lídři zdůrazňující rizika AI a naléhavost robustní regulace AI

mm

Zveřejněno

 on

Nejlepší blogoví lídři v oblasti obrazové techniky zdůrazňující rizika umělé inteligence a naléhavost robustní regulace umělé inteligence

Růst a pokroky umělé inteligence byly v posledních letech exponenciální. Informuje o tom Statista že do roku 2024 bude světový trh s umělou inteligencí generovat ohromující příjmy ve výši přibližně 3000 126 miliard USD ve srovnání se 2015 miliardami USD v roce XNUMX. Techničtí lídři nás však nyní varují před různými riziky umělé inteligence.

Zejména nedávná vlna generativní AI modely jako ChatGPT zavedly nové možnosti v různých sektorech citlivých na data, jako je zdravotnictví, vzdělávání, financovatatd. Tento vývoj podporovaný umělou inteligencí je zranitelný kvůli mnoha nedostatkům umělé inteligence, které mohou zákeřní agenti odhalit.

Pojďme diskutovat o tom, co říkají odborníci na AI o nedávném vývoji, a upozorněme na potenciální rizika AI. Krátce se také dotkneme toho, jak lze tato rizika řídit.

Techničtí lídři a jejich obavy související s riziky AI

Geoffrey Hinton

Geoffrey Hinton – slavný technologický lídr AI (a kmotr v této oblasti), který nedávno opustil Google, vyjádřil své obavy o rychlém rozvoji AI a jeho potenciálních nebezpečích. Hinton věří, že AI chatboti se mohou stát „docela děsivými“, pokud předčí lidskou inteligenci.

Hinton říká:

„Právě teď vidíme věci, jako je GPT-4 zatemňuje člověka v množství všeobecných znalostí, které má, a zastiňuje ho o dlouhou cestu. Pokud jde o uvažování, není to tak dobré, ale už to dělá jednoduché uvažování. A vzhledem k rychlosti pokroku očekáváme, že se věci budou poměrně rychle zlepšovat. Takže se o to musíme starat."

Kromě toho věří, že „špatní herci“ mohou používat AI pro „špatné věci“, jako je umožnění robotům mít své dílčí cíle. Navzdory svým obavám Hinton věří, že umělá inteligence může přinést krátkodobé výhody, ale měli bychom také výrazně investovat do bezpečnosti a kontroly umělé inteligence.

Elon Musk

Zapojení Elona Muska do AI začalo jeho ranou investicí do DeepMind v roce 2010 ke spoluzaložení OpenAI a začlenění AI do autonomních vozidel Tesla.

Přestože je z AI nadšený, často vyvolává obavy z rizik AI. Musk říká, že výkonné systémy AI mohou být pro civilizaci nebezpečnější než jaderné zbraně. V rozhovoru na Fox News v dubnu 2023 řekl:

„AI je nebezpečnější než, řekněme, špatně řízený návrh letadla nebo výrobní údržba nebo špatná výroba aut. V tom smyslu, že má potenciál – jakkoli lze tuto pravděpodobnost považovat za malý –, ale je netriviální a má potenciál zničit civilizaci.

Kromě toho Musk podporuje vládní nařízení týkající se umělé inteligence, aby zajistil bezpečnost před potenciálními riziky, ačkoli „to není tak zábavné“.

Pozastavit obří experimenty s umělou inteligencí: Otevřený dopis podporovaný tisícovkami odborníků na umělou inteligenci

Institut budoucnosti života zveřejnil otevřený dopis dne 22. března 2023. Dopis vyzývá k dočasné šestiměsíční zastávce Pokročilejší vývoj systémů AI než GPT-4. Autoři vyjadřují své obavy z tempa, s jakým jsou systémy umělé inteligence vyvíjeny, představuje vážné socioekonomické výzvy.

V dopise se navíc uvádí, že vývojáři AI by měli spolupracovat s tvůrci politik na dokumentování systémů řízení AI. K červnu 2023 dopis podepsalo více než 31,000 XNUMX AI vývojářů, odborníků a technologických lídrů. Mezi významné signatáře patří Elon Musk, Steve Wozniak (spoluzakladatel společnosti Apple), Emad Mostaque (CEO, Stability AI), Yoshua Bengio (vítěz Turingovy ceny) a mnoho dalších.

Protiargumenty o zastavení vývoje umělé inteligence

Dva prominentní vůdci AI, Andrew Ng a Yann LeCun, se postavili proti šestiměsíčnímu zákazu vývoje pokročilých systémů umělé inteligence a považují pauzu za špatný nápad.

Ng říká, že ačkoli má AI určitá rizika, jako je zaujatost, koncentrace moci atd. Hodnota vytvořená umělou inteligencí v oblastech, jako je vzdělávání, zdravotnictví a responzivní koučování, je obrovská.

Yann LeCun říká, že výzkum a vývoj by se neměl zastavovat, ačkoli produkty umělé inteligence, které se dostanou ke koncovému uživateli, lze regulovat.

Jaká jsou potenciální nebezpečí a bezprostřední rizika AI?

Potenciální nebezpečí a bezprostřední rizika AI

1. Pracovní vytěsnění

Odborníci na umělou inteligenci věří, že inteligentní systémy umělé inteligence mohou nahradit kognitivní a kreativní úkoly. Investiční banka Goldman Sachs odhaduje, že kolem 300 milionů pracovních míst bude automatizována generativní AI.

Proto by měly existovat předpisy týkající se vývoje umělé inteligence, aby nezpůsobila vážný hospodářský pokles. Měly by existovat vzdělávací programy pro zvyšování kvalifikace a rekvalifikaci zaměstnanců, aby se s touto výzvou vypořádali.

2. Předpojaté systémy umělé inteligence

Předpojatosti Převládající mezi lidmi o pohlaví, rase nebo barvě pleti může neúmyslně proniknout do dat používaných pro trénování systémů umělé inteligence, což následně způsobí, že systémy umělé inteligence jsou zaujaté.

Například v souvislosti s náborem do zaměstnání může zaujatý systém umělé inteligence vyřadit životopisy jednotlivců ze specifického etnického původu, což vytváří diskriminaci na trhu práce. v vymáhání práva, mohla by neobjektivní prediktivní policejní práce neúměrně cílit na konkrétní čtvrti nebo demografické skupiny.

Proto je nezbytné mít komplexní datovou strategii, která řeší rizika AI, zejména zkreslení. Systémy umělé inteligence musí být často hodnoceny a auditovány, aby byly spravedlivé.

3. Bezpečnostně důležité aplikace AI

Autonomní vozidla, lékařská diagnostika a léčba, letecké systémy, řízení jaderných elektráren atd., to vše jsou příklady aplikací umělé inteligence kritických z hlediska bezpečnosti. Tyto systémy umělé inteligence by měly být vyvíjeny obezřetně, protože i drobné chyby by mohly mít vážné důsledky pro lidský život nebo životní prostředí.

Například nefunkčnost softwaru AI tzv Maneuvering Characteristics Augmentation System (MCAS) je částečně připisována havárii dvou Boeingů 737 MAX, nejprve v říjnu 2018 a poté v březnu 2019. Obě nehody bohužel zabily 346 lidí.

Jak můžeme překonat rizika systémů AI? – Odpovědný vývoj umělé inteligence a dodržování předpisů

Odpovědný vývoj umělé inteligence a dodržování předpisů

Odpovědná AI (RAI) znamená vývoj a zavádění spravedlivých, odpovědných, transparentních a bezpečných systémů umělé inteligence, které zajišťují soukromí a dodržují právní předpisy a společenské normy. Implementace RAI může být složitá vzhledem k širokému a rychlému vývoji systémů AI.

Velké technologické společnosti však vyvinuly rámce RAI, jako jsou:

  1. Odpovědná umělá inteligence společnosti Microsoft
  2. Principy AI společnosti Google
  3. Důvěryhodná AI IBM

Laboratoře umělé inteligence po celém světě se mohou inspirovat těmito principy nebo vyvinout vlastní odpovědné rámce umělé inteligence, aby vytvořily důvěryhodné systémy umělé inteligence.

Soulad s předpisy AI

Vzhledem k tomu, že data jsou nedílnou součástí systémů umělé inteligence, organizace a laboratoře založené na umělé inteligenci musí dodržovat následující předpisy, aby byla zajištěna bezpečnost dat, soukromí a bezpečnost.

  1. GDPR (obecné nařízení o ochraně osobních údajů) – rámec ochrany údajů ze strany EU.
  2. CCPA (kalifornský zákon na ochranu soukromí spotřebitelů) – kalifornský státní zákon pro práva na soukromí a ochranu spotřebitele.
  3. HIPAA (zákon o přenositelnosti a odpovědnosti zdravotního pojištění) – legislativa USA, která chrání lékařské údaje pacientů.   
  4. Zákon EU o umělé inteligenci, a Etické pokyny pro důvěryhodnou AI – nařízení Evropské komise o umělé inteligenci.

Různé země přijaly různé regionální a místní zákony na ochranu svých občanů. Organizace, které nedokážou zajistit soulad s předpisy ohledně dat, mohou mít za následek přísné sankce. Například GDPR stanovilo pokutu 20 milionů EUR nebo 4 % ročního zisku za závažná porušení, jako je nezákonné zpracování údajů, neprokázaný souhlas s údaji, porušení práv subjektů údajů nebo nechráněný přenos údajů mezinárodnímu subjektu.

Vývoj a předpisy AI – současnost a budoucnost

S každým dalším měsícem dosahují pokroky v umělé inteligenci nebývalých výšin. Doprovodné předpisy a rámce správy AI však zaostávají. Musí být robustnější a konkrétnější.

Techničtí lídři a vývojáři umělé inteligence varují před riziky umělé inteligence, pokud není dostatečně regulována. Výzkum a vývoj v oblasti umělé inteligence může dále přinést hodnotu v mnoha odvětvích, ale je jasné, že pečlivá regulace je nyní nezbytná.

Další obsah týkající se umělé inteligence naleznete na adrese unite.ai.