stub Är AI ett existentiellt hot? - Unite.AI
Anslut dig till vårt nätverk!

Artificiell allmän intelligens

Är AI ett existentiellt hot?

mm
Uppdaterad on

När man diskuterar artificiell intelligens (AI) är en vanlig debatt om AI är ett existentiellt hot. Svaret kräver att man förstår tekniken bakom Machine Learning (ML), och att man inser att människor har en tendens att antropomorfisera. Vi kommer att utforska två olika typer av AI, artificiell smal intelligens (ANI) som är tillgänglig nu och är anledning till oro, och hotet som oftast förknippas med apokalyptiska återgivningar av AI som är artificiell allmän intelligens (AGI).

Artificiell smal intelligenshot

För att förstå vad ANI är behöver du helt enkelt förstå att varje enskild AI-applikation som för närvarande är tillgänglig är en form av ANI. Dessa är områden av AI som har ett smalt specialområde, till exempel använder autonoma fordon AI som är designat med det enda syftet att flytta ett fordon från punkt A till B. En annan typ av ANI kan vara ett schackprogram som är optimerat att spela schack, och även om schackprogrammet kontinuerligt förbättrar sig självt genom att använda förstärkningsinlärning, kommer schackprogrammet aldrig att kunna köra ett autonomt fordon.

Med sitt fokus på vilken verksamhet den än ansvarar för, kan ANI-system inte använda generaliserat lärande för att ta över världen. Det är de goda nyheterna; Den dåliga nyheten är att AI-systemet tack vare sitt beroende av en mänsklig operatör är mottagligt för partisk data, mänskliga fel eller ännu värre, en oseriös mänsklig operatör.

AI-övervakning

Det kanske inte finns någon större fara för mänskligheten än människor som använder AI för att invadera privatlivet, och i vissa fall använder AI-övervakning för att helt förhindra människor från att röra sig fritt.  Kina, Ryssland och andra nationer gick igenom regler under COVID-19 för att göra det möjligt för dem att övervaka och kontrollera sina respektive befolkningsrörelser. Detta är lagar som en gång på plats är svåra att ta bort, särskilt i samhällen som har autokratiska ledare.

I Kina är kameror placerade utanför människors hem, och i vissa fall inne i personens hem. Varje gång en medlem i hushållet lämnar, övervakar en AI tiden för ankomst och avgång, och vid behov larmar myndigheterna. Som om det inte vore tillräckligt kan Kina med hjälp av ansiktsigenkänningsteknik spåra varje persons rörelser varje gång de identifieras av en kamera. Detta ger absolut makt till den enhet som kontrollerar AI:n, och absolut ingen möjlighet till dess medborgare.

Varför detta scenario är farligt är att korrupta regeringar noggrant kan övervaka journalisters, politiska motståndares eller alla som vågar ifrågasätta regeringens auktoritet. Det är lätt att förstå hur journalister och medborgare skulle vara försiktiga med att kritisera regeringar när varje rörelse övervakas.

Det finns lyckligtvis många städer som kämpar för att förhindra ansiktsigenkänning från att infiltrera deras städer. I synnerhet, Portland, Oregon har nyligen antagit en lag som hindrar ansiktsigenkänning från att användas i onödan i staden. Även om dessa förändringar i regleringen kan ha gått obemärkt förbi av allmänheten, kan dessa regler i framtiden vara skillnaden mellan städer som erbjuder någon typ av autonomi och frihet, och städer som känner sig förtryckande.

Autonoma vapen och drönare

Över 4500 AI-forskare har efterlyst ett förbud mot autonoma vapen och har skapat Förbjud dödliga autonoma vapen hemsida. Gruppen har många uppmärksammade ideella organisationer som undertecknare som t.ex Human Rights Watch, Amnesty International, Och den The Life of Life Institute som i sig har en fantastisk vetenskaplig rådgivande nämnd inklusive Elon Musk, Nick Bostrom och Stuart Russell.

Innan jag fortsätter kommer jag att dela detta citat från The Future of Life Institute som bäst förklarar varför det finns tydlig anledning till oro: "I motsats till semi-autonoma vapen som kräver mänsklig tillsyn för att säkerställa att varje mål är validerat som etiskt och juridiskt legitimt, t.ex. helt autonoma vapen väljer ut och engagerar mål utan mänsklig inblandning, vilket representerar fullständig automatisering av dödlig skada. ”

För närvarande utplaceras smarta bomber med ett mål som valts ut av en människa, och bomben använder sedan AI för att plotta en kurs och för att landa på sitt mål. Problemet är vad som händer när vi bestämmer oss för att helt ta bort människan från ekvationen?

När en AI väljer vad människor behöver rikta in sig på, såväl som vilken typ av sidoskada som anses acceptabel, kan vi ha passerat en punkt utan återvändo. Det är därför så många AI-forskare är emot att forska i allt som är avlägset relaterat till autonoma vapen.

Det finns flera problem med att helt enkelt försöka blockera autonom vapenforskning. Det första problemet är att även om avancerade nationer som Kanada, USA och större delen av Europa väljer att gå med på förbudet, betyder det inte att skurknationer som Kina, Nordkorea, Iran och Ryssland kommer att spela med. Det andra och större problemet är att AI-forskning och applikationer som är designade för användning inom ett område kan användas inom ett helt orelaterade område.

Till exempel förbättras datorseendet kontinuerligt och är viktigt för att utveckla autonoma fordon, precisionsmedicin och andra viktiga användningsfall. Det är också fundamentalt viktigt för vanliga drönare eller drönare som kan modifieras för att bli autonoma. Ett potentiellt användningsfall av avancerad drönarteknik är att utveckla drönare som kan övervaka och bekämpa skogsbränder. Detta skulle helt avlägsna brandmän från skada sätt. För att göra detta skulle du behöva bygga drönare som kan flyga in i skada, för att navigera i låg eller noll sikt och som kan släppa vatten med oklanderlig precision. Det är inte långt för att sedan använda denna identiska teknik i en autonom drönare som är designad för att selektivt rikta in sig på människor.

Det är en farlig situation och vid denna tidpunkt är det ingen som helt förstår konsekvenserna av att avancera eller försöka blockera utvecklingen av autonoma vapen. Det är ändå något som vi måste hålla ögonen på, förstärka skydd för visselblåsare kan göra det möjligt för personer på fältet att rapportera övergrepp.

Bortsett från falska operatörer, vad händer om AI-bias smyger sig in i AI-teknik som är designad för att vara ett autonomt vapen?

AI Bias

Ett av de mest orapporterade hoten från AI är AI-bias. Detta är enkelt att förstå eftersom det mesta är oavsiktligt. AI-bias glider in när en AI granskar data som matas till den av människor, med hjälp av mönsterigenkänning från data som matades till AI:n, når AI:n felaktigt slutsatser som kan ha negativa återverkningar på samhället. Till exempel kan en AI som matas med litteratur från det senaste århundradet om hur man identifierar medicinsk personal komma till den oönskade sexistiska slutsatsen att kvinnor är alltid sjuksköterskor och män är alltid läkare.

Ett farligare scenario är när AI som används för att döma dömda brottslingar är partisk mot att ge längre fängelsestraff till minoriteter. AI:s kriminella riskbedömningsalgoritmer studerar helt enkelt mönster i data som har matats in i systemet. Dessa data indikerar att historiskt sett är vissa minoriteter mer benägna att begå brott igen, även när detta beror på dålig datauppsättning som kan påverkas av polisens rasprofilering. Den partiska AI:n förstärker sedan negativ mänsklig politik. Det är därför AI bör vara en riktlinje, aldrig döma och jury.

För att återgå till autonoma vapen, om vi har en AI som är partisk mot vissa etniska grupper, kan den välja att rikta in sig på vissa individer baserat på partisk data, och det kan gå så långt som att säkerställa att alla typer av sidoskador påverkar viss demografi mindre än andra . Till exempel, när man riktar sig mot en terrorist, innan man attackerar kan den vänta tills terroristen är omgiven av de som följer den muslimska tron ​​istället för kristna.

Lyckligtvis har det bevisats att AI som är designad med olika team är mindre benägna att vara partisk. Detta är skäl nog för företag att när det är möjligt försöka anställa ett mångsidigt välrundat team.

Artificiell allmän intelligenshot

Det bör konstateras att även om AI går framåt i en exponentiell takt, har vi fortfarande inte uppnått AGI. När vi når AGI är uppe för debatt, och alla har olika svar på en tidslinje. Jag ansluter mig personligen till synpunkterna från Ray Kurzweil, uppfinnare, futurist och författare till "The Singularity is Near" som tror att vi kommer att ha uppnått AGI 2029.

AGI kommer att vara den mest transformerande teknologin i världen. Inom några veckor efter att AI uppnått intelligens på mänsklig nivå kommer den sedan att nå superintelligens vilket definieras som intelligens som vida överträffar en människas.

Med denna intelligensnivå kan en AGI snabbt absorbera all mänsklig kunskap och använda mönsterigenkänning för att identifiera biomarkörer som orsakar hälsoproblem och sedan behandla dessa tillstånd med hjälp av datavetenskap. Det kan skapa nanobotar som kommer in i blodomloppet för att rikta in sig på cancerceller eller andra attackvektorer. Listan över prestationer en AGI kan göra är oändlig. Vi har tidigare utforskat några av de fördelarna med AGI.

Problemet är att människor kanske inte längre kan kontrollera AI:n. Elon Musk beskriver det så här: ”Med artificiell intelligens framkallar vi demonen.' Kommer vi att kunna kontrollera den här demonen är frågan?

Att uppnå AGI kan helt enkelt vara omöjligt förrän en AI lämnar en simuleringsinställning för att verkligen interagera i vår öppna värld. Självkännedom kan inte utformas, istället tror man att en framväxande medvetande kommer sannolikt att utvecklas när en AI har en robotkropp med flera ingångsströmmar. Dessa input kan inkludera taktil stimulering, röstigenkänning med förbättrad naturlig språkförståelse och förstärkt datorseende.

Den avancerade AI:n kan vara programmerad med altruistiska motiv och vill rädda planeten. Tyvärr kan AI använda datavetenskap, eller till och med a beslutsträd att komma fram till oönskad felaktig logik, som att bedöma att det är nödvändigt att sterilisera människor, eller eliminera en del av den mänskliga befolkningen för att kontrollera mänsklig överbefolkning.

Noggrann eftertanke och övervägande måste utforskas när man bygger en AI med intelligens som vida överträffar en människas. Det har varit många mardrömsscenarier som har utforskats.

Professor Nick Bostrom i argumentet Paperclip Maximizer har hävdat att en felkonfigurerad AGI om den instrueras att producera gem helt enkelt skulle förbruka alla jordens resurser för att producera dessa gem. Även om detta verkar lite långsökt, är en mer pragmatisk synpunkt att en AGI skulle kunna kontrolleras av en skurkstat eller ett företag med dålig etik. Denna enhet skulle kunna träna AGI att maximera vinsten, och i det här fallet med dålig programmering och noll ånger kunde den välja att sätta konkurrenter i konkurs, förstöra leveranskedjor, hacka aktiemarknaden, likvidera bankkonton eller attackera politiska motståndare.

Det är då vi måste komma ihåg att människor tenderar att antropomorfisera. Vi kan inte ge AI mänskliga känslor, önskningar eller önskningar. Även om det finns djävulska människor som dödar för nöjes skull, finns det ingen anledning att tro att en AI skulle vara mottaglig för denna typ av beteende. Det är otänkbart för människor att ens överväga hur en AI skulle se på världen.

Vad vi behöver göra är att lära AI att alltid vara vördnadsfull mot en människa. AI:n ska alltid ha en människa som bekräftar alla ändringar i inställningarna, och det ska alltid finnas en felsäker mekanism. Återigen har det hävdats att AI helt enkelt kommer att replikera sig själv i molnet, och när vi inser att den är självmedveten kan det vara för sent.

Det är därför det är så viktigt att öppna källkod så mycket AI som möjligt och att ha rationella diskussioner om dessa frågor.

Sammanfattning

Det finns många utmaningar för AI, lyckligtvis har vi fortfarande många år på oss att kollektivt ta reda på vilken framtida väg vi vill att AGI ska ta. Vi bör på kort sikt fokusera på att skapa en mångsidig AI-arbetsstyrka, som inkluderar så många kvinnor som män, och så många etniska grupper med olika åsikter som möjligt.

Vi bör också skapa whistleblower-skydd för forskare som arbetar med AI, och vi bör anta lagar och förordningar som förhindrar omfattande missbruk av statlig eller företagsomfattande övervakning. Människor har en gång i livet möjlighet att förbättra det mänskliga tillståndet med hjälp av AI, vi behöver bara se till att vi noggrant skapar en samhällelig ram som bäst möjliggör det positiva, samtidigt som vi mildrar de negativa som inkluderar existentiella hot.

En av grundarna av unite.AI och en medlem av Forbes Technology Council, Antoine är en futurist som brinner för framtiden för AI och robotik.

Han är också grundare av Securities.io, en webbplats som fokuserar på att investera i disruptiv teknik.