stub Teknologiske ledere fremhæver risiciene ved AI og det haster med robust AI-regulering - Unite.AI
Følg os

Kunstig intelligens

Tekniske ledere, der fremhæver risiciene ved AI og det haster med robust AI-regulering

mm

Udgivet

 on

Udvalgte blog Image-Tech-ledere, der fremhæver risiciene ved AI og det haster med robust AI-regulering

AI vækst og fremskridt har været eksponentiel i løbet af de sidste par år. Det oplyser Statista at det globale AI-marked i 2024 vil generere en svimlende omsætning på omkring $3000 milliarder sammenlignet med $126 milliarder i 2015. Teknologiske ledere advarer os dog nu om de forskellige risici ved AI.

Især den seneste bølge af generativ AI modeller som ChatGPT har introduceret nye muligheder i forskellige datafølsomme sektorer, såsom sundhedspleje, uddannelse, finansiere, osv. Disse AI-støttede udviklinger er sårbare på grund af mange AI-mangler, som ondsindede agenter kan afsløre.

Lad os diskutere, hvad AI-eksperter siger om den seneste udvikling og fremhæve de potentielle risici ved AI. Vi vil også kort komme ind på, hvordan disse risici kan håndteres.

Tekniske ledere og deres bekymringer relateret til risiciene ved AI

Geoffrey Hinton

Geoffrey Hinton – en berømt AI-teknologisk leder (og gudfar for dette felt), som for nylig forlod Google, har udtrykt sine bekymringer om hurtig udvikling inden for kunstig intelligens og dets potentielle farer. Hinton mener, at AI-chatbots kan blive "ret skræmmende", hvis de overgår menneskelig intelligens.

Hinton siger:

"Lige nu er det, vi ser, ting som GPT-4 formørker en person i mængden af ​​generel viden, den har, og den formørker dem langt hen ad vejen. Med hensyn til ræsonnement er det ikke så godt, men det gør allerede simpelt ræsonnement. Og i betragtning af fremskridtshastigheden forventer vi, at tingene bliver bedre ret hurtigt. Så det skal vi bekymre os om."

Desuden mener han, at "dårlige skuespillere" kan bruge AI til "dårlige ting", såsom at lade robotter have deres delmål. På trods af hans bekymringer mener Hinton, at AI kan give kortsigtede fordele, men vi bør også investere kraftigt i AI-sikkerhed og kontrol.

Elon Musk

Elon Musks involvering i kunstig intelligens begyndte med hans tidlige investering i DeepMind i 2010, til medstiftelse OpenAI og inkorporering af kunstig intelligens i Teslas autonome køretøjer.

Selvom han er begejstret for AI, rejser han ofte bekymringer om risiciene ved AI. Musk siger, at kraftfulde AI-systemer kan være farligere for civilisationen end atomvåben. I et interview kl Fox News i april 2023 sagde han:

"AI er farligere end f.eks. fejlforvaltet flydesign eller produktionsvedligeholdelse eller dårlig bilproduktion. I den forstand, at det har potentialet - men lille man kan betragte den sandsynlighed - men det er ikke-trivielt og har potentialet til civilisationens ødelæggelse."

Desuden understøtter Musk regeringsbestemmelser om kunstig intelligens for at sikre sikkerhed mod potentielle risici, selvom "det ikke er så sjovt."

Sæt gigantiske AI-eksperimenter på pause: Et åbent brev støttet af 1000-vis af AI-eksperter

Future of Life Institute udgav et åbent brev den 22. marts 2023. Brevet opfordrer til et midlertidigt seks måneders stop pr AI-systemudvikling mere avanceret end GPT-4. Forfatterne udtrykker deres bekymringer over det tempo, hvormed AI-systemer udvikles, udgør alvorlige socioøkonomiske udfordringer.

Desuden hedder det i brevet, at AI-udviklere bør arbejde sammen med politiske beslutningstagere for at dokumentere AI-styringssystemer. Fra juni 2023 er brevet blevet underskrevet af mere end 31,000 AI-udviklere, eksperter og teknologiske ledere. Bemærkelsesværdige underskrivere inkluderer Elon Musk, Steve Wozniak (medstifter af Apple), Emad Mostaque (CEO, Stability AI), Yoshua Bengio (vinder af Turing-prisen) og mange flere.

Modargumenter om at standse AI-udvikling

To fremtrædende AI-ledere, Andrew Ng og Yann LeCun, har modsat sig det seks måneder lange forbud mod at udvikle avancerede AI-systemer og betragtede pausen som en dårlig idé.

Ng siger, at selvom AI har nogle risici, såsom bias, koncentrationen af ​​magt osv. Men værdien skabt af AI på områder som uddannelse, sundhedspleje og responsiv coaching er enorm.

Yann LeCun siger, at forskning og udvikling ikke bør stoppes, selvom AI-produkterne, der når slutbrugeren, kan reguleres.

Hvad er de potentielle farer og umiddelbare risici ved AI?

Potentielle farer og umiddelbare risici ved kunstig intelligens

1. Jobfortrængning

AI-eksperter mener, at intelligente AI-systemer kan erstatte kognitive og kreative opgaver. Investeringsbanken Goldman Sachs vurderer, at ca 300 millioner job vil blive automatiseret af generativ AI.

Derfor bør der være regler for udvikling af kunstig intelligens, så det ikke forårsager en alvorlig økonomisk nedtur. Der bør være uddannelsesprogrammer for opkvalificering og omskoling af medarbejdere til at håndtere denne udfordring.

2. Forspændte AI-systemer

bias udbredt blandt mennesker om køn, race eller farve kan utilsigtet gennemsyre de data, der bruges til træning af AI-systemer, og efterfølgende gøre AI-systemer skæve.

For eksempel, i forbindelse med jobrekruttering, kan et forudindtaget AI-system kassere CV'er fra personer med specifik etnisk baggrund, hvilket skaber diskrimination på arbejdsmarkedet. I retshåndhævelse, kan forudindtaget prædiktiv politiarbejde uforholdsmæssigt målrette mod specifikke kvarterer eller demografiske grupper.

Derfor er det vigtigt at have en omfattende datastrategi, der adresserer AI-risici, især bias. AI-systemer skal ofte evalueres og revideres for at holde dem retfærdige.

3. Sikkerhedskritiske AI-applikationer

Autonome køretøjer, medicinsk diagnose og behandling, luftfartssystemer, kontrol af atomkraftværker osv. er alle eksempler på sikkerhedskritiske AI-applikationer. Disse AI-systemer bør udvikles med forsigtighed, fordi selv mindre fejl kan have alvorlige konsekvenser for menneskers liv eller miljøet.

For eksempel kaldes fejlen i AI-softwaren Manøvreringskarakteristika Augmentation System (MCAS) tilskrives delvist styrtet af de to Boeing 737 MAX, først i oktober 2018 og derefter i marts 2019. Desværre dræbte de to styrt 346 mennesker.

Hvordan kan vi overvinde risiciene ved AI-systemer? – Ansvarlig AI-udvikling og overholdelse af lovgivning

Ansvarlig AI-udvikling og overholdelse af lovgivning

Ansvarlig AI (RAI) betyder udvikling og implementering af retfærdige, ansvarlige, gennemsigtige og sikre AI-systemer, der sikrer privatlivets fred og følger juridiske regler og samfundsnormer. Implementering af RAI kan være kompleks i betragtning af AI-systemers brede og hurtige udvikling.

Imidlertid har store teknologivirksomheder udviklet RAI-rammer, såsom:

  1. Microsofts ansvarlige AI
  2. Googles AI-principper
  3. IBM'S Trusted AI

AI-laboratorier over hele kloden kan tage inspiration fra disse principper eller udvikle deres egne ansvarlige AI-rammer for at lave troværdige AI-systemer.

AI Regulatory Compliance

Da data er en integreret komponent i AI-systemer, skal AI-baserede organisationer og laboratorier overholde følgende regler for at sikre datasikkerhed, privatliv og sikkerhed.

  1. GDPR (General Data Protection Regulation) – en databeskyttelsesramme fra EU.
  2. CCPA (California Consumer Privacy Act) – en statut i Californien for privatlivsrettigheder og forbrugerbeskyttelse.
  3. HIPAA (lov om overførsel af sundhedsforsikring og ansvarlighed) – en amerikansk lovgivning, der sikrer patienters medicinske data.   
  4. EU's AI-lovog Etiske retningslinjer for pålidelig AI – en AI-forordning fra Europa-Kommissionen.

Der er forskellige regionale og lokale love vedtaget af forskellige lande for at beskytte deres borgere. Organisationer, der undlader at sikre overholdelse af lovgivning omkring data, kan resultere i alvorlige sanktioner. For eksempel har GDPR fastsat en bøde på 20 millioner euro eller 4 % af det årlige overskud for alvorlige krænkelser såsom ulovlig databehandling, ubevist datasamtykke, krænkelse af registreredes rettigheder eller ikke-beskyttet dataoverførsel til en international enhed.

AI-udvikling og reguleringer – nutid og fremtid

For hver måned, der går, når AI-fremskridt hidtil usete højder. Men de medfølgende AI-forskrifter og styringsrammer halter. De skal være mere robuste og specifikke.

Teknologiske ledere og AI-udviklere har ringet alarmer om risiciene ved AI, hvis det ikke er tilstrækkeligt reguleret. Forskning og udvikling inden for kunstig intelligens kan yderligere bringe værdi i mange sektorer, men det er klart, at omhyggelig regulering nu er bydende nødvendigt.

For mere AI-relateret indhold, besøg forene.ai.