stub Er AI en eksistentiel trussel? - Unite.AI
Følg os

Kunstig generel intelligens

Er AI en eksistentiel trussel?

mm
Opdateret on

Når man diskuterer kunstig intelligens (AI), er en almindelig debat, om AI er en eksistentiel trussel. Svaret kræver forståelse af teknologien bag Machine Learning (ML) og anerkendelse af, at mennesker har en tendens til at antropomorfisere. Vi vil udforske to forskellige typer AI, Artificial Narrow Intelligence (ANI), som er tilgængelig nu og giver anledning til bekymring, og den trussel, der oftest er forbundet med apokalyptiske gengivelser af AI, som er Artificial General Intelligence (AGI).

Trusler med kunstig smal intelligens

For at forstå, hvad ANI er, skal du blot forstå, at hver eneste AI-applikation, der er tilgængelig i øjeblikket, er en form for ANI. Det er områder inden for AI, som har et snævert specialområde, for eksempel anvender autonome køretøjer AI, som er designet med det ene formål at flytte et køretøj fra punkt A til B. En anden type ANI kan være et skakprogram, som er optimeret til at spille skak, og selvom skakprogrammet løbende forbedrer sig selv ved at bruge forstærkningslæring, vil skakprogrammet aldrig kunne betjene et autonomt køretøj.

Med sit fokus på den operation, det er ansvarlig for, er ANI-systemer ikke i stand til at bruge generaliseret læring for at overtage verden. Det er den gode nyhed; den dårlige nyhed er, at med sin afhængighed af en menneskelig operatør er AI-systemet modtageligt for forudindtaget data, menneskelige fejl eller endnu værre, en useriøs menneskelig operatør.

AI-overvågning

Der er muligvis ingen større fare for menneskeheden end mennesker, der bruger AI til at invadere privatlivets fred, og i nogle tilfælde bruger AI-overvågning for fuldstændig at forhindre folk i at bevæge sig frit.  Kina, Rusland og andre nationer gennemgik regler under COVID-19 for at sætte dem i stand til at overvåge og kontrollere deres respektive befolkningers bevægelser. Disse love er, når de først er på plads, vanskelige at fjerne, især i samfund med autokratiske ledere.

I Kina er kameraer placeret uden for folks hjem, og i nogle tilfælde inde i personens hjem. Hver gang et medlem af husstanden rejser, overvåger en AI tidspunktet for ankomst og afgang og advarer om nødvendigt myndighederne. Som om det ikke var tilstrækkeligt, er Kina ved hjælp af ansigtsgenkendelsesteknologi i stand til at spore hver persons bevægelser, hver gang de bliver identificeret af et kamera. Dette giver absolut magt til den enhed, der kontrollerer AI'en, og absolut ingen adgang til dens borgere.

Hvorfor dette scenarie er farligt, er, at korrupte regeringer omhyggeligt kan overvåge bevægelser af journalister, politiske modstandere eller enhver, der vover at stille spørgsmålstegn ved regeringens autoritet. Det er let at forstå, hvordan journalister og borgere ville være forsigtige med at kritisere regeringer, når enhver bevægelse overvåges.

Der er heldigvis mange byer, der kæmper for at forhindre ansigtsgenkendelse i at infiltrere deres byer. Især Portland, Oregon har for nylig vedtaget en lov der blokerer for, at ansigtsgenkendelse bliver brugt unødigt i byen. Selvom disse ændringer i reguleringen måske er gået ubemærket hen af ​​offentligheden, kan disse regler i fremtiden være forskellen mellem byer, der tilbyder en form for autonomi og frihed, og byer, der føler sig undertrykkende.

Autonome våben og droner

Over 4500 AI-forskere har opfordret til et forbud mod autonome våben og har skabt Forbud mod dødbringende autonome våben internet side. Gruppen har mange bemærkelsesværdige non-profits som underskrivere som f.eks Human Rights Watch, Amnesty International, og Life of Life Institute som i sig selv har et fremragende videnskabeligt rådgivende udvalg, herunder Elon Musk, Nick Bostrom og Stuart Russell.

Før jeg fortsætter, vil jeg dele dette citat fra The Future of Life Institute, som bedst forklarer, hvorfor der er klar grund til bekymring: "I modsætning til semi-autonome våben, der kræver menneskelig tilsyn for at sikre, at hvert mål er valideret som etisk og juridisk legitimt, f.eks. fuldt autonome våben udvælger og engagerer mål uden menneskelig indgriben, hvilket repræsenterer fuldstændig automatisering af dødelig skade. ”

I øjeblikket er smarte bomber indsat med et mål udvalgt af et menneske, og bomben bruger derefter AI til at plotte en kurs og lande på sit mål. Problemet er, hvad der sker, når vi beslutter os for helt at fjerne mennesket fra ligningen?

Når en AI vælger, hvad mennesker har brug for at målrette mod, såvel som typen af ​​sideskade, som anses for acceptabel, kan vi have krydset et point of no return. Det er grunden til, at så mange AI-forskere er imod at forske i alt, der er eksternt relateret til autonome våben.

Der er flere problemer med blot at forsøge at blokere for autonom våbenforskning. Det første problem er, at selvom avancerede nationer som Canada, USA og det meste af Europa vælger at gå med til forbuddet, betyder det ikke, at slyngelstater som Kina, Nordkorea, Iran og Rusland vil spille med. Det andet og større problem er, at AI-forskning og applikationer, der er designet til brug inden for et felt, kan bruges i et helt uafhængigt område.

For eksempel forbedres computersynet løbende og er vigtigt for udvikling af autonome køretøjer, præcisionsmedicin og andre vigtige anvendelsesmuligheder. Det er også grundlæggende vigtigt for almindelige droner eller droner, som kunne modificeres til at blive autonome. Et potentielt anvendelsestilfælde af avanceret droneteknologi er udvikling af droner, der kan overvåge og bekæmpe skovbrande. Dette ville helt fjerne brandmændene fra skader. For at gøre dette skal du bygge droner, der er i stand til at flyve ind i skader, til at navigere i lav eller nul sigtbarhed og er i stand til at slippe vand med upåklagelig præcision. Det er ikke langt at bruge denne identiske teknologi i en autonom drone, der er designet til selektivt at målrette mennesker.

Det er en farlig knibe, og på dette tidspunkt er der ingen, der fuldt ud forstår implikationerne af at fremme eller forsøge at blokere udviklingen af ​​autonome våben. Det er ikke desto mindre noget, som vi skal holde øje med og forbedre whistle blower beskyttelse kan gøre det muligt for dem i marken at rapportere misbrug.

Rogue operatør til side, hvad sker der, hvis AI-bias kryber ind i AI-teknologi, der er designet til at være et autonomt våben?

AI Bias

En af de mest urapporterede trusler fra AI er AI-bias. Dette er nemt at forstå, da det meste af det er utilsigtet. AI-bias glider ind, når en AI gennemgår data, der er fodret til den af ​​mennesker, ved hjælp af mønstergenkendelse fra de data, der blev fodret til AI'en, når AI'en forkert til konklusioner, som kan have negative konsekvenser for samfundet. For eksempel kan en kunstig intelligens, der er fodret med litteratur fra det sidste århundrede om, hvordan man identificerer medicinsk personale nå frem til den uønskede sexistiske konklusion, at kvinder er altid sygeplejersker, og mænd er altid læger.

Et mere farligt scenario er hvornår AI, der bruges til at dømme dømte kriminelle, er partisk til at give længere fængselsstraffe til minoriteter. AI's kriminelle risikovurderingsalgoritmer studerer simpelthen mønstre i de data, der er blevet indført i systemet. Disse data indikerer, at historisk set er visse minoriteter mere tilbøjelige til at gentage krænkelser, selv når dette skyldes dårlige datasæt, som kan være påvirket af politiets raceprofilering. Den forudindtaget AI forstærker derefter negative menneskelige politikker. Det er derfor AI bør være en rettesnor, aldrig dommer og jury.

For at vende tilbage til autonome våben, hvis vi har en AI, der er forudindtaget mod visse etniske grupper, kan den vælge at målrette mod bestemte individer baseret på forudindtaget data, og det kan gå så langt som at sikre, at enhver form for sideskade påvirker visse demografiske grupper mindre end andre. . For eksempel, når man angriber en terrorist, kan den vente, indtil terroristen er omringet af dem, der følger den muslimske tro i stedet for kristne.

Heldigvis er det blevet bevist, at AI, der er designet med forskellige teams, er mindre tilbøjelige til bias. Dette er grund nok til, at virksomheder forsøger, når det overhovedet er muligt, at ansætte et mangfoldigt velafrundet team.

Trusler om kunstig generel intelligens

Det skal siges, at selvom AI udvikler sig i et eksponentielt tempo, har vi stadig ikke opnået AGI. Hvornår vi når AGI er til debat, og alle har forskellige svar på en tidslinje. Jeg abonnerer personligt på synspunkterne fra Ray Kurzweil, opfinder, fremtidsforsker og forfatter til 'The Singularity is Near', som mener, at vi vil have opnået AGI i 2029.

AGI vil være den mest transformerende teknologi i verden. Inden for uger efter, at AI har opnået intelligens på menneskeligt niveau, vil den nå frem super intelligens som defineres som intelligens, der langt overgår et menneskes.

Med dette intelligensniveau kunne en AGI hurtigt absorbere al menneskelig viden og bruge mønstergenkendelse til at identificere biomarkører, der forårsager sundhedsproblemer, og derefter behandle disse tilstande ved hjælp af datavidenskab. Det kunne skabe nanobots, der kommer ind i blodbanen for at målrette mod kræftceller eller andre angrebsvektorer. Listen over præstationer en AGI er i stand til er uendelig. Vi har tidligere udforsket nogle af de fordelene ved AGI.

Problemet er, at mennesker måske ikke længere er i stand til at kontrollere AI'en. Elon Musk beskriver det sådan: ”Med kunstig intelligens tilkalder vi dæmonen.' Vil vi være i stand til at kontrollere denne dæmon er spørgsmålet?

At opnå AGI kan simpelthen være umuligt, indtil en AI forlader en simuleringsindstilling for virkelig at interagere i vores åbne verden. Selvbevidsthed kan ikke designes, i stedet mener man, at en emergent bevidsthed vil sandsynligvis udvikle sig, når en AI har en robotkrop med flere inputstrømme. Disse input kan omfatte taktil stimulering, stemmegenkendelse med forbedret naturlig sprogforståelse og øget computersyn.

Den avancerede AI kan være programmeret med altruistiske motiver og ønsker at redde planeten. Desværre kan AI bruge datalogi, eller endda en beslutning træ at nå frem til uønsket fejllogik, såsom at vurdere, at det er nødvendigt at sterilisere mennesker, eller eliminere noget af den menneskelige befolkning for at kontrollere menneskelig overbefolkning.

Omhyggelig eftertanke og overvejelser skal udforskes, når man bygger en AI med intelligens, der langt overgår et menneskes. Der har været mange mareridtsscenarier, som er blevet udforsket.

Professor Nick Bostrom i Paperclip Maximizer-argumentet har hævdet, at en forkert konfigureret AGI, hvis den bliver bedt om at producere papirclips, simpelthen ville forbruge alle jordens ressourcer til at producere disse papirclips. Selvom dette virker lidt langt ude, er et mere pragmatisk synspunkt, at en AGI kunne kontrolleres af en slyngelstat eller et selskab med dårlig etik. Denne enhed kunne træne AGI til at maksimere profitten, og i dette tilfælde med dårlig programmering og ingen anger kunne den vælge at slå konkurrenter konkurs, ødelægge forsyningskæder, hacke aktiemarkedet, likvidere bankkonti eller angribe politiske modstandere.

Det er her, vi skal huske, at mennesker har en tendens til at antropomorfisere. Vi kan ikke give AI-en menneskelignende følelser, ønsker eller ønsker. Selvom der er djævelske mennesker, der dræber for fornøjelsens skyld, er der ingen grund til at tro, at en AI ville være modtagelig for denne type adfærd. Det er utænkeligt for mennesker overhovedet at overveje, hvordan en AI ville se verden.

I stedet er det, vi skal gøre, at lære AI altid at være ærbødig overfor et menneske. AI'en bør altid have et menneske, der bekræfter eventuelle ændringer i indstillinger, og der bør altid være en fejlsikker mekanisme. Så igen er det blevet hævdet, at AI simpelthen vil replikere sig selv i skyen, og når vi indser, at den er selvbevidst, kan det være for sent.

Det er derfor, det er så vigtigt at åbne kildekode så meget kunstig intelligens som muligt og at have rationelle diskussioner om disse spørgsmål.

Resumé

Der er mange udfordringer for AI, heldigvis har vi stadig mange år til i fællesskab at finde ud af den fremtidige vej, som vi ønsker, at AGI skal tage. Vi bør på kort sigt fokusere på at skabe en mangfoldig AI-arbejdsstyrke, der omfatter så mange kvinder som mænd og så mange etniske grupper med forskellige synspunkter som muligt.

Vi bør også skabe whistleblower-beskyttelse for forskere, der arbejder med kunstig intelligens, og vi bør vedtage love og regler, som forhindrer udbredt misbrug af stats- eller virksomhedsdækkende overvågning. Mennesker har en gang i livet mulighed for at forbedre den menneskelige tilstand ved hjælp af AI, vi skal bare sikre, at vi omhyggeligt skaber en samfundsramme, der bedst muliggør det positive, og samtidig afbøder de negative, som inkluderer eksistentielle trusler.

En stiftende partner af unite.AI og et medlem af Forbes Technology Council, Antoine er en fremtidsforsker der brænder for fremtiden for kunstig intelligens og robotteknologi.

Han er også grundlægger af Værdipapirer.io, en hjemmeside, der fokuserer på at investere i disruptiv teknologi.