stub Liderzy technologiczni podkreślający ryzyko związane ze sztuczną inteligencją i pilność wprowadzenia solidnych regulacji dotyczących sztucznej inteligencji – Unite.AI
Kontakt z nami

Artificial Intelligence

Liderzy technologiczni podkreślający ryzyko związane ze sztuczną inteligencją i pilność wprowadzenia solidnych regulacji dotyczących sztucznej inteligencji

mm

Opublikowany

 on

Polecany blog Liderzy Image-Tech podkreślający ryzyko związane ze sztuczną inteligencją i pilność wprowadzenia solidnych regulacji dotyczących sztucznej inteligencji

W ciągu ostatnich kilku lat rozwój i postępy w zakresie sztucznej inteligencji były wykładnicze. Raporty statystyk że do 2024 r. globalny rynek sztucznej inteligencji wygeneruje oszałamiające przychody w wysokości około 3000 miliardów dolarów, w porównaniu do 126 miliardów dolarów w 2015 roku. Jednak liderzy technologii ostrzegają nas teraz przed różnymi zagrożeniami związanymi ze sztuczną inteligencją.

Zwłaszcza ostatnia fala tzw generatywna sztuczna inteligencja modele takie jak ChatGPT wprowadziły nowe możliwości w różnych sektorach wrażliwych na dane, takich jak opieka zdrowotna, edukacja, finansowaćitp. Te wspierane przez sztuczną inteligencję rozwiązania są podatne na ataki ze względu na wiele niedociągnięć sztucznej inteligencji, które mogą ujawnić złośliwi agenci.

Porozmawiajmy o tym, co eksperci AI mówią o ostatnich wydarzeniach i podkreśl potencjalne zagrożenia związane ze sztuczną inteligencją. Pokrótce omówimy również, w jaki sposób można zarządzać tymi zagrożeniami.

Liderzy technologii i ich obawy związane z zagrożeniami związanymi ze sztuczną inteligencją

Geoffreya Hintona

Geoffrey Hinton – znany lider technologii AI (i ojciec chrzestny tej dziedziny), który niedawno odszedł z Google, wyraził swoje obawy o szybkim rozwoju AI i jego potencjalnych zagrożeniach. Hinton uważa, że ​​chatboty AI mogą stać się „dość przerażające”, jeśli przewyższą ludzką inteligencję.

Hinton mówi:

„W tej chwili widzimy, że rzeczy takie jak GPT-4 przyćmiewają człowieka pod względem ilości posiadanej wiedzy ogólnej i to znacznie go przyćmiewają. Jeśli chodzi o rozumowanie, nie jest tak dobre, ale już wykonuje proste rozumowanie. Biorąc pod uwagę tempo postępu, spodziewamy się, że sytuacja ulegnie poprawie dość szybko. Dlatego musimy się tym martwić.”

Co więcej, uważa, że ​​„źli aktorzy” mogą wykorzystywać sztuczną inteligencję do „złych rzeczy”, takich jak umożliwienie robotom realizacji ich celów cząstkowych. Pomimo swoich obaw Hinton uważa, że ​​sztuczna inteligencja może przynieść krótkoterminowe korzyści, ale powinniśmy też dużo inwestować w bezpieczeństwo i kontrolę nad sztuczną inteligencją.

Elon Musk

Zaangażowanie Elona Muska w sztuczną inteligencję rozpoczęło się od jego wczesnej inwestycji w DeepMind w 2010 roku do współzałożyciela OpenAI oraz włączenie sztucznej inteligencji do autonomicznych pojazdów Tesli.

Chociaż jest entuzjastą sztucznej inteligencji, często wyraża obawy dotyczące ryzyka związanego ze sztuczną inteligencją. Musk mówi, że potężne systemy sztucznej inteligencji mogą być bardziej niebezpieczne dla cywilizacji niż broń nuklearna. W rozmowie o godz Fox News w kwietniu 2023 roku powiedział:

„Sztuczna inteligencja jest bardziej niebezpieczna niż, powiedzmy, źle zarządzany projekt samolotu lub konserwacja produkcji lub zła produkcja samochodów. W tym sensie, że ma potencjał — choć prawdopodobieństwo to można uznać za niewielkie — ale jest nietrywialne i ma potencjał zniszczenia cywilizacji”.

Co więcej, Musk wspiera rządowe przepisy dotyczące sztucznej inteligencji, aby zapewnić bezpieczeństwo przed potencjalnymi zagrożeniami, chociaż „to nie jest takie zabawne”.

Wstrzymaj gigantyczne eksperymenty AI: list otwarty wspierany przez tysiące ekspertów AI

Future of Life Institute opublikował list otwarty w dniu 22 marca 2023 r. W piśmie wzywa się do tymczasowego zawieszenia na sześć miesięcy Rozwój systemów AI bardziej zaawansowany niż GPT-4. Autorzy wyrażają zaniepokojenie tempem, w jakim rozwijane są systemy sztucznej inteligencji, stwarza poważne wyzwania społeczno-ekonomiczne.

Ponadto w liście stwierdza się, że programiści AI powinni współpracować z decydentami w celu udokumentowania systemów zarządzania AI. Od czerwca 2023 r. list podpisało ponad 31,000 XNUMX programistów AI, ekspertów i liderów technologicznych. Znani sygnatariusze to Elon Musk, Steve Wozniak (współzałożyciel Apple), Emad Mostaque (CEO, Stability AI), Yoshua Bengio (zdobywca nagrody Turinga) i wielu innych.

Kontrargumenty dotyczące zatrzymania rozwoju sztucznej inteligencji

Dwóch wybitnych liderów AI, Andrew Ng i Yann LeCun, sprzeciwili się sześciomiesięcznemu zakazowi rozwijania zaawansowanych systemów AI i uznali pauzę za zły pomysł.

Ng mówi, że chociaż sztuczna inteligencja wiąże się z pewnym ryzykiem, takim jak stronniczość, koncentracja władzy itp., to jednak wartość tworzona przez sztuczną inteligencję w dziedzinach takich jak edukacja, opieka zdrowotna i responsywny coaching jest ogromna.

Yann LeCun mówi, że nie należy zatrzymywać badań i rozwoju, chociaż produkty AI docierające do użytkownika końcowego można regulować.

Jakie są potencjalne zagrożenia i bezpośrednie ryzyko związane ze sztuczną inteligencją?

Potencjalne niebezpieczeństwa i bezpośrednie ryzyko związane ze sztuczną inteligencją

1. Zmiana pracy

Eksperci AI uważają, że inteligentne systemy AI mogą zastąpić zadania poznawcze i kreatywne. Bank inwestycyjny Goldman Sachs szacuje, że ok 300 milionów miejsc pracy zostanie zautomatyzowany przez generatywną sztuczną inteligencję.

Dlatego powinny istnieć regulacje dotyczące rozwoju AI, aby nie powodował on poważnego załamania gospodarczego. Aby sprostać temu wyzwaniu, powinny istnieć programy edukacyjne podnoszące i przekwalifikowujące pracowników.

2. Stronnicze systemy sztucznej inteligencji

Biases rozpowszechnione wśród ludzi na temat płci, rasy lub koloru skóry mogą przypadkowo przeniknąć do danych wykorzystywanych do szkolenia systemów sztucznej inteligencji, powodując w konsekwencji stronniczość systemów sztucznej inteligencji.

Na przykład w kontekście rekrutacji do pracy stronniczy system sztucznej inteligencji może odrzucić życiorysy osób o określonym pochodzeniu etnicznym, powodując dyskryminację na rynku pracy. W egzekwowanie prawa, stronnicze predykcyjne działania policyjne mogłyby w nieproporcjonalny sposób być ukierunkowane na określone dzielnice lub grupy demograficzne.

W związku z tym niezbędne jest posiadanie kompleksowej strategii dotyczącej danych, która uwzględnia ryzyko związane ze sztuczną inteligencją, w szczególności stronniczość. Systemy sztucznej inteligencji muszą być często oceniane i audytowane, aby były uczciwe.

3. Aplikacje AI o krytycznym znaczeniu dla bezpieczeństwa

Autonomiczne pojazdy, diagnostyka medyczna i leczenie, systemy lotnicze, sterowanie elektrowniami jądrowymi itp. to przykłady zastosowań sztucznej inteligencji o krytycznym znaczeniu dla bezpieczeństwa. Te systemy sztucznej inteligencji należy rozwijać ostrożnie, ponieważ nawet drobne błędy mogą mieć poważne konsekwencje dla życia ludzkiego lub środowiska.

Na przykład nieprawidłowe działanie oprogramowania AI o nazwie System zwiększania właściwości manewrowych (MCAS) przypisuje się częściowo katastrofie dwóch Boeingów 737 MAX, najpierw w październiku 2018 r., a następnie w marcu 2019 r. Niestety, w obu katastrofach zginęło 346 osób.

Jak możemy przezwyciężyć zagrożenia związane z systemami sztucznej inteligencji? – Odpowiedzialny rozwój sztucznej inteligencji i zgodność z przepisami

Odpowiedzialny rozwój sztucznej inteligencji i zgodność z przepisami

Odpowiedzialna sztuczna inteligencja (RAI) oznacza opracowywanie i wdrażanie uczciwych, odpowiedzialnych, przejrzystych i bezpiecznych systemów sztucznej inteligencji, które zapewniają prywatność i są zgodne z przepisami prawnymi i normami społecznymi. Wdrożenie RAI może być skomplikowane, biorąc pod uwagę szeroki i szybki rozwój systemów sztucznej inteligencji.

Jednak duże firmy technologiczne opracowały ramy RAI, takie jak:

  1. Odpowiedzialna sztuczna inteligencja firmy Microsoft
  2. Zasady AI Google
  3. Zaufana sztuczna inteligencja IBM

Laboratoria sztucznej inteligencji na całym świecie mogą czerpać inspirację z tych zasad lub opracowywać własne odpowiedzialne ramy sztucznej inteligencji, aby tworzyć godne zaufania systemy sztucznej inteligencji.

Zgodność z przepisami AI

Ponieważ dane są integralną częścią systemów sztucznej inteligencji, organizacje i laboratoria oparte na sztucznej inteligencji muszą przestrzegać poniższych przepisów, aby zapewnić bezpieczeństwo, prywatność i bezpieczeństwo danych.

  1. RODO (ogólne rozporządzenie o ochronie danych) – unijne ramy ochrony danych.
  2. CCPA (kalifornijska ustawa o ochronie prywatności konsumentów) – ustawa stanu Kalifornia dotycząca praw do prywatności i ochrony konsumentów.
  3. HIPAA (Ustawa o przenośności i odpowiedzialności w ubezpieczeniach zdrowotnych) – amerykańskie ustawodawstwo chroniące dane medyczne pacjentów.   
  4. Ustawa UE o sztucznej inteligencji, Wytyczne etyczne dotyczące godnej zaufania sztucznej inteligencji – rozporządzenie Komisji Europejskiej w sprawie sztucznej inteligencji.

Istnieją różne przepisy regionalne i lokalne uchwalone przez różne kraje w celu ochrony ich obywateli. Organizacje, które nie zapewnią zgodności z przepisami dotyczącymi danych, mogą ponieść surowe kary. Na przykład RODO ustaliło grzywnę w wysokości 20 milionów euro lub 4% rocznego zysku za poważne naruszenia, takie jak niezgodne z prawem przetwarzanie danych, nieudowodniona zgoda danych, naruszenie praw osób, których dane dotyczą, lub niezabezpieczone przekazanie danych podmiotowi międzynarodowemu.

Rozwój i regulacje AI – teraźniejszość i przyszłość

Z każdym mijającym miesiącem postępy w zakresie sztucznej inteligencji osiągają niespotykane dotąd rozmiary. Jednak towarzyszące im przepisy dotyczące sztucznej inteligencji i ramy zarządzania są opóźnione. Muszą być bardziej solidne i szczegółowe.

Liderzy techniczni i twórcy sztucznej inteligencji alarmują o zagrożeniach związanych ze sztuczną inteligencją, jeśli nie zostaną odpowiednio uregulowane. Badania i rozwój w zakresie sztucznej inteligencji mogą dodatkowo przynieść wartość w wielu sektorach, ale jasne jest, że obecnie konieczne są staranne regulacje.

Więcej treści związanych ze sztuczną inteligencją znajdziesz na stronie zjednoczyć.ai.