stub Er AI en eksistensiell trussel? - Unite.AI
Kontakt med oss

Kunstig generell intelligens

Er AI en eksistensiell trussel?

mm
oppdatert on

Når man diskuterer kunstig intelligens (AI), er en vanlig debatt om AI er en eksistensiell trussel. Svaret krever å forstå teknologien bak Machine Learning (ML), og erkjenne at mennesker har en tendens til å antropomorfisere. Vi vil utforske to forskjellige typer AI, Artificial Narrow Intelligence (ANI) som er tilgjengelig nå og er grunn til bekymring, og trusselen som oftest er forbundet med apokalyptiske gjengivelser av AI som er Artificial General Intelligence (AGI).

Trusler om kunstig smal intelligens

For å forstå hva ANI er, trenger du ganske enkelt å forstå at hver eneste AI-applikasjon som er tilgjengelig for øyeblikket er en form for ANI. Dette er AI-felt som har et smalt spesialfelt, for eksempel bruker autonome kjøretøy AI som er designet med det eneste formål å flytte et kjøretøy fra punkt A til B. En annen type ANI kan være et sjakkprogram som er optimalisert for å spille sjakk, og selv om sjakkprogrammet kontinuerlig forbedrer seg ved å bruke forsterkningslæring, vil sjakkprogrammet aldri kunne betjene et autonomt kjøretøy.

Med sitt fokus på hvilken operasjon den er ansvarlig for, er ANI-systemer ikke i stand til å bruke generalisert læring for å ta over verden. Det er den gode nyheten; den dårlige nyheten er at med sin avhengighet av en menneskelig operatør, er AI-systemet mottakelig for partisk data, menneskelige feil, eller enda verre, en useriøs menneskelig operatør.

AI-overvåking

Det er kanskje ingen større fare for menneskeheten enn mennesker som bruker AI for å invadere privatlivet, og i noen tilfeller bruker AI-overvåking for å fullstendig hindre folk i å bevege seg fritt.  Kina, Russland og andre nasjoner gikk gjennom reguleringer under COVID-19 for å sette dem i stand til å overvåke og kontrollere bevegelsen til sine respektive befolkninger. Dette er lover som når de først er på plass, er vanskelige å fjerne, spesielt i samfunn som har autokratiske ledere.

I Kina er kameraer stasjonert utenfor folks hjem, og i noen tilfeller inne i personens hjem. Hver gang et medlem av husstanden drar, overvåker en AI tidspunktet for ankomst og avreise, og om nødvendig varsler myndighetene. Som om det ikke var tilstrekkelig, ved hjelp av ansiktsgjenkjenningsteknologi, er Kina i stand til å spore bevegelsen til hver person hver gang de blir identifisert av et kamera. Dette gir absolutt makt til enheten som kontrollerer AI, og absolutt null ty til innbyggerne.

Hvorfor dette scenariet er farlig, er at korrupte regjeringer nøye kan overvåke bevegelsene til journalister, politiske motstandere eller alle som våger å stille spørsmål ved myndighetens autoritet. Det er lett å forstå hvordan journalister og borgere ville være forsiktige med å kritisere regjeringer når hver bevegelse overvåkes.

Det er heldigvis mange byer som kjemper for å forhindre at ansiktsgjenkjenning infiltrerer byene deres. Spesielt, Portland, Oregon har nylig vedtatt en lov som hindrer ansiktsgjenkjenning fra å bli brukt unødvendig i byen. Selv om disse endringene i regulering kan ha gått ubemerket hen av allmennheten, kan disse reguleringene i fremtiden utgjøre forskjellen mellom byer som tilbyr en eller annen form for autonomi og frihet, og byer som føler seg undertrykkende.

Autonome våpen og droner

Over 4500 AI-forskere har etterlyst et forbud mot autonome våpen og har skapt Forby dødelige autonome våpen nettsted. Gruppen har mange bemerkelsesverdige ideelle organisasjoner som underskrivere som f.eks Human Rights Watch, Amnesty International, og The Life of Life Institute som i seg selv har et fantastisk vitenskapelig råd, inkludert Elon Musk, Nick Bostrom og Stuart Russell.

Før jeg fortsetter vil jeg dele dette sitatet fra The Future of Life Institute som best forklarer hvorfor det er klar grunn til bekymring: «I motsetning til semi-autonome våpen som krever menneskelig tilsyn for å sikre at hvert mål er validert som etisk og juridisk legitimt, f.eks. fullstendig autonome våpen velger ut og engasjerer mål uten menneskelig innblanding, og representerer fullstendig automatisering av dødelig skade. ”

For tiden blir smarte bomber utplassert med et mål valgt av et menneske, og bomben bruker deretter AI til å plotte en kurs og lande på målet. Problemet er hva som skjer når vi bestemmer oss for å fjerne mennesket fullstendig fra ligningen?

Når en AI velger hva mennesker trenger målretting, så vel som typen sideskade som anses som akseptabel, kan vi ha krysset et punkt uten retur. Dette er grunnen til at så mange AI-forskere er imot å forske på alt som er eksternt relatert til autonome våpen.

Det er flere problemer med å bare forsøke å blokkere autonom våpenforskning. Det første problemet er at selv om avanserte nasjoner som Canada, USA og det meste av Europa velger å gå med på forbudet, betyr det ikke at useriøse nasjoner som Kina, Nord-Korea, Iran og Russland vil spille med. Det andre og større problemet er at AI-forskning og applikasjoner som er designet for bruk i ett felt, kan brukes i et helt urelatert felt.

For eksempel forbedres datasyn kontinuerlig og er viktig for å utvikle autonome kjøretøy, presisjonsmedisin og andre viktige brukssaker. Det er også grunnleggende viktig for vanlige droner eller droner som kan modifiseres til å bli autonome. Et potensielt bruksområde for avansert droneteknologi er å utvikle droner som kan overvåke og bekjempe skogbranner. Dette ville fullstendig fjerne brannmenn fra skadeveien. For å gjøre dette, må du bygge droner som er i stand til å fly inn i skade, for å navigere i lav eller null sikt, og er i stand til å slippe vann med upåklagelig presisjon. Det er ikke langt å bruke denne identiske teknologien i en autonom drone som er designet for selektivt å målrette mennesker.

Det er en farlig knipe, og på dette tidspunktet er det ingen som fullt ut forstår implikasjonene av å fremme eller forsøke å blokkere utviklingen av autonome våpen. Det er likevel noe vi må holde øynene på, forsterke beskyttelse mot varsler kan gjøre det mulig for de i felten å rapportere overgrep.

Bortsett fra useriøse operatører, hva skjer hvis AI-bias kryper inn i AI-teknologi som er designet for å være et autonomt våpen?

AI Bias

En av de mest urapporterte truslene fra AI er AI-bias. Dette er enkelt å forstå, da det meste er utilsiktet. AI-bias glir inn når en AI gjennomgår data som er matet til den av mennesker, ved å bruke mønstergjenkjenning fra dataene som ble matet til AI, når AI-en feilaktig konklusjoner som kan ha negative konsekvenser for samfunnet. For eksempel kan en kunstig intelligens som er matet med litteratur fra det siste århundre om hvordan man identifiserer medisinsk personell komme til den uønskede sexistiske konklusjonen at kvinner er alltid sykepleiere, og menn er alltid leger.

Et farligere scenario er når AI som brukes til å dømme domfelte kriminelle er partisk mot å gi lengre fengselsstraffer til minoriteter. AIs kriminelle risikovurderingsalgoritmer studerer ganske enkelt mønstre i dataene som har blitt matet inn i systemet. Disse dataene indikerer at historisk sett er det mer sannsynlig at visse minoriteter fornærmer seg på nytt, selv når dette skyldes dårlige datasett som kan være påvirket av politiets raseprofilering. Den partiske AI forsterker deretter negative menneskelige retningslinjer. Dette er grunnen til at AI bør være en rettesnor, aldri dommer og jury.

Hvis vi går tilbake til autonome våpen, hvis vi har en AI som er partisk mot visse etniske grupper, kan den velge å målrette mot bestemte individer basert på partiske data, og det kan gå så langt som å sikre at enhver type sideskade påvirker visse demografiske grupper mindre enn andre. . For eksempel, når man målretter en terrorist, før man angriper den, kan den vente til terroristen er omringet av de som følger den muslimske troen i stedet for kristne.

Heldigvis har det blitt bevist at AI som er designet med forskjellige team er mindre utsatt for skjevhet. Dette er grunn nok for bedrifter til å forsøke når det er mulig å ansette et mangfoldig og godt avrundet team.

Trusler om kunstig generell etterretning

Det skal sies at selv om AI går frem i et eksponentielt tempo, har vi fortsatt ikke oppnådd AGI. Når vi når AGI er oppe til debatt, og alle har forskjellige svar på en tidslinje. Jeg abonnerer personlig på synspunktene til Ray Kurzweil, oppfinner, fremtidsforsker og forfatter av "The Singularity is Near" som tror at vi vil ha oppnådd AGI innen 2029.

AGI vil være den mest transformerende teknologien i verden. Innen uker etter at AI har oppnådd intelligens på menneskelig nivå, vil den nå superintelligens som er definert som intelligens som langt overgår et menneskes.

Med dette intelligensnivået kan en AGI raskt absorbere all menneskelig kunnskap og bruke mønstergjenkjenning for å identifisere biomarkører som forårsaker helseproblemer, og deretter behandle disse tilstandene ved å bruke datavitenskap. Det kan skape nanoboter som kommer inn i blodet for å målrette mot kreftceller eller andre angrepsvektorer. Listen over prestasjoner en AGI er i stand til er uendelig. Vi har tidligere utforsket noen av de fordelene med AGI.

Problemet er at mennesker kanskje ikke lenger kan kontrollere AI. Elon Musk beskriver det slik: ”Med kunstig intelligens tilkaller vi demonen.' Vil vi være i stand til å kontrollere denne demonen er spørsmålet?

Å oppnå AGI kan ganske enkelt være umulig før en AI forlater en simuleringsinnstilling for å virkelig samhandle i vår åpne verden. Selvbevissthet kan ikke utformes, i stedet antas det at en fremvoksende bevissthet vil sannsynligvis utvikle seg når en AI har en robotkropp med flere inngangsstrømmer. Disse inngangene kan inkludere taktil stimulering, stemmegjenkjenning med forbedret naturlig språkforståelse og utvidet datasyn.

Den avanserte AI kan være programmert med altruistiske motiver og ønsker å redde planeten. Dessverre kan AI bruke datavitenskap, eller til og med a beslutningstre å komme frem til uønsket feillogikk, for eksempel å vurdere at det er nødvendig å sterilisere mennesker, eller eliminere noen av den menneskelige befolkningen for å kontrollere menneskelig overbefolkning.

Nøye ettertanke og overveielser må utforskes når man bygger en AI med intelligens som langt overgår et menneskes. Det har vært mange marerittscenarier som har blitt utforsket.

Professor Nick Bostrom i Paperclip Maximizer-argumentet har hevdet at en feilkonfigurert AGI hvis de blir bedt om å produsere binders, ganske enkelt ville forbruke alle jordens ressurser for å produsere disse bindersene. Selv om dette virker litt fjernt, er et mer pragmatisk synspunkt at en AGI kan kontrolleres av en useriøs stat eller et selskap med dårlig etikk. Denne enheten kan trene AGI til å maksimere fortjenesten, og i dette tilfellet med dårlig programmering og null anger kan den velge å slå konkurrenter konkurs, ødelegge forsyningskjeder, hacke aksjemarkedet, avvikle bankkontoer eller angripe politiske motstandere.

Det er da vi må huske at mennesker har en tendens til å antropomorfisere. Vi kan ikke gi AI-en menneskelignende følelser, ønsker eller ønsker. Selv om det er djevelske mennesker som dreper for nytelsens skyld, er det ingen grunn til å tro at en AI vil være mottakelig for denne typen oppførsel. Det er utenkelig for mennesker å vurdere hvordan en kunstig intelligens ville se verden.

Det vi i stedet trenger å gjøre er å lære AI å alltid være ærbødig overfor et menneske. AI skal alltid ha et menneske som bekrefter eventuelle endringer i innstillinger, og det skal alltid være en feilsikker mekanisme. Så igjen har det blitt hevdet at AI ganske enkelt vil replikere seg selv i skyen, og når vi innser at den er selvbevisst, kan det være for sent.

Dette er grunnen til at det er så viktig å åpne kildekode så mye AI som mulig og å ha rasjonelle diskusjoner om disse spørsmålene.

Oppsummering

Det er mange utfordringer for AI, heldigvis har vi fortsatt mange år på oss til kollektivt å finne den fremtidige veien vi vil at AGI skal ta. Vi bør på kort sikt fokusere på å skape en mangfoldig AI-arbeidsstyrke, som inkluderer så mange kvinner som menn, og så mange etniske grupper med ulike synspunkter som mulig.

Vi bør også opprette varslerbeskyttelse for forskere som jobber med kunstig intelligens, og vi bør vedta lover og forskrifter som forhindrer utbredt misbruk av statlig eller bedriftsomfattende overvåking. Mennesker har en gang i livet mulighet til å forbedre den menneskelige tilstanden ved hjelp av AI, vi trenger bare å sørge for at vi nøye skaper et samfunnsmessig rammeverk som best muliggjør det positive, samtidig som vi reduserer det negative som inkluderer eksistensielle trusler.

En grunnlegger av unite.AI og et medlem av Forbes teknologiråd, Antoine er en futurist som brenner for fremtiden til AI og robotikk.

Han er også grunnleggeren av Securities.io, et nettsted som fokuserer på å investere i forstyrrende teknologi.