AGI
Är AI en existentiell hot?

När man diskuterar Artificiell Intelligens (AI), är en vanlig debatt om AI är en existentiell hot. Svaret kräver förståelse för tekniken bakom Maskinlärning (ML), och att erkänna att människor har en tendens att antropomorfisera. Vi kommer att utforska två olika typer av AI, Artificiell Smal Intelligens (ASI) som är tillgänglig nu och är orsak till oro, och hotet som är mest förknippat med apokalyptiska versioner av AI som är Artificiell Allmän Intelligens (AGI).
Artificiell Smal Intelligens Hot
För att förstå vad ASI är behöver du bara förstå att varje enskild AI-applikation som är tillgänglig är en form av ASI. Dessa är områden av AI som har en smal specialitet, till exempel autonoma fordon som använder AI som är utformad med det enda syftet att flytta ett fordon från punkt A till B. Ett annat exempel på ASI kan vara ett schackprogram som är optimerat för att spela schack, och även om schackprogrammet kontinuerligt förbättrar sig genom förstärkt inlärning, kommer schackprogrammet aldrig att kunna operera ett autonomt fordon.
Med sin fokus på vilken operation det är ansvarigt för, är ASI-system oförmögna att använda generaliserad inlärning för att ta över världen. Det är den goda nyheten; den dåliga nyheten är att med sin tillit till en mänsklig operatör är AI-systemet känsligt för fördomsfull data, mänskliga fel, eller ännu värre, en rogue mänsklig operatör.
AI Övervakning
Det kan finnas ingen större fara för mänskligheten än att människor använder AI för att invadera privatliv, och i vissa fall använda AI-övervakning för att helt förhindra att människor rör sig fritt. Kina, Ryssland och andra nationer passerade genom regleringar under COVID-19 för att kunna övervaka och kontrollera rörelsen av sina respektive befolkningar. Dessa är lagar som, när de väl är på plats, är svåra att avskaffa, särskilt i samhällen som kännetecknas av auktoritära ledare.
I Kina är kameror placerade utanför människors hem, och i vissa fall även inuti människors hem. Varje gång en medlem av hushållet lämnar, övervakar en AI ankomst- och avgångstiden, och om nödvändigt varnar myndigheterna. Som om det inte vore tillräckligt, med hjälp av ansiktsigenkänningsteknik, kan Kina spåra rörelsen av varje person varje gång de identifieras av en kamera. Detta erbjuder absolut makt åt den enhet som kontrollerar AI, och absolut noll möjlighet för medborgarna att göra något åt det.
Varför denna scenario är farligt, är att korrupta regeringar kan noggrant övervaka rörelserna hos journalister, politiska motståndare, eller vem som helst som vågar ifrågasätta regeringens auktoritet. Det är lätt att förstå hur journalister och medborgare skulle vara försiktiga med att kritisera regeringar när varje rörelse övervakas.
Det finns lyckligtvis många städer som kämpar för att förhindra att ansiktsigenkänning infiltrerar deras städer. Bland annat har Portland, Oregon nyligen antagit en lag som blockerar ansiktsigenkänning från att användas onödigtvis i staden. Medan dessa förändringar i regleringarna kan ha gått obemärkt förbi allmänheten, kan de i framtiden vara skillnaden mellan städer som erbjuder någon form av autonomi och frihet, och städer som känns förtryckande.
Autonoma Vapen och Drönare
Över 4500 AI-forskare har krävt ett förbud mot autonoma vapen och har skapat Ban Lethal Autonomous Weapons webbplatsen. Gruppen har många kända ideella organisationer som undertecknare, såsom Human Rights Watch, Amnesty International, och The Future of Life Institute som i sig har en lysande vetenskaplig rådgivande styrelse som inkluderar Elon Musk, Nick Bostrom och Stuart Russell.
Innan jag fortsätter kommer jag att dela det här citatet från The Future of Life Institute som bäst förklarar varför det finns tydlig anledning till oro: “Till skillnad från semi-autonoma vapen som kräver mänsklig tillsyn för att säkerställa att varje mål är validerat som etiskt och lagligt legitimt, väljer och engagerar sig fullt autonoma vapen mål utan mänskligt ingripande, vilket representerar fullständig automatisering av dödlig skada. ”
För närvarande används smarta bomber med ett mål som valts av en människa, och bomben använder sedan AI för att beräkna en kurs och landa på sitt mål. Problemet är vad som händer när vi bestämmer oss för att helt ta bort människan från ekvationen?
När en AI väljer vilka människor som behöver målinriktning, samt vilken typ av skada som anses acceptabel, kan vi ha passerat en punkt av ingen återvändo. Det är därför så många AI-forskare är emot att forska i något som är ens avlägset relaterat till autonoma vapen.
Det finns flera problem med att försöka blockera autonoma vapenforskning. Det första problemet är att även om avancerade nationer som Kanada, USA och de flesta europeiska länder väljer att gå med på förbudet, betyder det inte att rogue-nationer som Kina, Nordkorea, Iran och Ryssland kommer att samarbeta. Det andra och större problemet är att AI-forskning och tillämpningar som är utformade för användning inom ett visst område, kan användas i ett helt orelaterat område.
Till exempel förbättras datorseende kontinuerligt och är viktigt för att utveckla autonoma fordon, precisionsmedicin och andra viktiga användningsfall. Det är också grundläggande viktigt för vanliga drönare eller drönare som kan modifieras för att bli autonoma. En potentiell användning av avancerad drönarteknik är att utveckla drönare som kan övervaka och bekämpa skogbränder. Detta skulle helt ta bort brandmän från fara. För att göra detta skulle du behöva bygga drönare som kan flyga in i fara, navigera i låg eller noll synlighet och kunna släppa vatten med ofelbar precision. Det är inte långt ifrån att sedan använda samma teknologi i en autonom drönare som är utformad för att selektivt målinrikta människor.
Det är en farlig predikament och just nu förstår ingen fullständigt konsekvenserna av att antingen främja eller försöka blockera utvecklingen av autonoma vapen. Det är ändå något som vi behöver hålla ögonen på, och förbättra visselblåsarskydd kan möjliggöra för dem i fältet att rapportera missbruk.
Rogue-operatörer bortsett, vad händer om AI-fördomar smyger in i AI-teknik som är utformad för att vara ett autonomt vapen?
AI-fördom
En av de mest underrapporterade hoten mot AI är AI-fördom. Detta är enkelt att förstå eftersom det mesta av det är oavsiktligt. AI-fördom smyger in när en AI granskar data som matas in av människor, och med hjälp av mönsterigenkänning från datan som matades in i AI, når AI felaktiga slutsatser som kan ha negativa konsekvenser för samhället. Till exempel en AI som matas in litteratur från förra århundradet om hur man identifierar medicinsk personal, kan nå den oönskade sexistiska slutsatsen att kvinnor alltid är sjuksköterskor, och män alltid är läkare.
En farligare scenario är när AI som används för att döma dömda brottslingar är fördomsfull mot att ge längre fängelsestraff till minoriteter. AI:s brottsliga riskbedömningsalgoritmer studerar helt enkelt mönster i datan som har matats in i systemet. Denna data indikerar att vissa minoriteter historiskt sett är mer benägna att återfalla i brott, även om detta beror på dåliga datamängder som kan påverkas av polisens rasprofilering. Den fördomsfulla AI förstärker då negativa mänskliga policys. Det är därför AI bör vara en vägledning, aldrig domare och jury.
Tillbaka till autonoma vapen, om vi har en AI som är fördomsfull mot vissa etniska grupper, kan den välja att målinrikta vissa individer baserat på fördomsfull data, och det kan gå så långt som att säkerställa att alla former av skada påverkar vissa demografiska grupper mindre än andra. Till exempel, när man målinriktar en terrorist, kan det vänta tills terroristen är omgiven av de som följer den muslimska tron, istället för kristna.
Lyckligtvis har det visat sig att AI som är utformad med diversifierade team är mindre benägna att fördomar. Detta är tillräckligt skäl för företag att försöka, när det är möjligt, att anställa ett diversifierat och välbefinnande team.
Artificiell Allmän Intelligens Hot
Det bör påpekas att medan AI utvecklas i en exponentiell takt, har vi fortfarande inte uppnått AGI. När vi kommer att nå AGI är föremål för debatt, och alla har olika svar på en tidsplan. Jag personligen ansluter mig till åsikterna från Ray Kurzweil, uppfinnare, futurist och författare till “The Singularity is Near” som tror att vi kommer att ha uppnått AGI till 2029.
AGI kommer att vara den mest omvandlande tekniken i världen. Inom veckor efter att AI har uppnått mänsklig intelligens, kommer det sedan att nå superintelligens som definieras som intelligens som vida överträffar den hos en människa.
Med denna nivå av intelligens kan en AGI snabbt absorbera all mänsklig kunskap och använda mönsterigenkänning för att identifiera biomarkörer som orsakar hälsoproblem, och sedan behandla dessa tillstånd med hjälp av datavetenskap. Det kan skapa nanorobotar som går in i blodomloppet för att målinrikta cancerceller eller andra attackvektorer. Listan över prestationer som en AGI är kapabel till är oändlig. Vi har tidigare utforskat några av fördelarna med AGI.
Problemet är att människor kanske inte längre kan kontrollera AI. Elon Musk beskriver det så här: ”Med artificiell intelligens är vi summoning the demon‘. Kommer vi att kunna kontrollera denna demon är frågan?
Att uppnå AGI kan enkelt vara omöjligt tills en AI lämnar en simuleringsmiljö för att verkligen interagera i vår öppna värld. Självmedvetenhet kan inte designas, utan det tros att en emergent medvetenhet sannolikt kommer att utvecklas när en AI har en robotkropp med flera indataströmmar. Dessa indata kan inkludera taktil stimulering, röstigenkänning med förbättrad naturlig språkförståelse och förstärkt datorseende.
Den avancerade AI kan programmeras med altruistiska motiv och vilja rädda planeten. Tyvärr kan AI använda data science, eller till och med en beslutsträd för att nå oönskad felaktig logik, såsom att bedöma att det är nödvändigt att sterilisera människor, eller eliminera en del av befolkningen för att kontrollera överbefolkning.
Försiktig tanke och övervägande behöver utforskas när man bygger en AI med intelligens som kommer att vida överträffa den hos en människa. Det har funnits många mardrömsliknande scenarier som har utforskats.
Professor Nick Bostrom i Paperclip Maximizer-argumentet har hävdat att en felkonfigurerad AGI, om den instrueras att producera gem, helt enkelt kommer att konsumera alla jordens resurser för att producera dessa gem. Medan detta kan verka en aning långsökt, är en mer pragmatisk synvinkel att en AGI kan kontrolleras av en rogue-stat eller ett företag med dålig etik. Denna enhet kan träna AGI för att maximera vinster, och i detta fall med dålig programmering och noll ånger, kan det välja att ruinera konkurrenter, förstöra leverantörskedjor, hacka aktiemarknaden, likvidera bankkonton eller attackera politiska motståndare.
Detta är när vi behöver komma ihåg att människor tenderar att antropomorfisera. Vi kan inte ge AI mänskliga känslor, önskningar eller begär. Medan det finns diaboliska människor som dödar för nöjes skull, finns det ingen anledning att tro att en AI skulle vara mottaglig för detta beteende. Det är otänkbart för människor att ens överväga hur en AI skulle se på världen.
Istället för vad vi behöver göra är att lära AI att alltid vara undergiven för en människa. AI bör alltid ha en människa som bekräftar alla ändringar i inställningar, och det bör alltid finnas en säkerhetsmekanism. Återigen har det hävdats att AI kommer att replikera sig själv i molnet, och innan vi inser att det är självmedvetet, kan det vara för sent.
Det är därför det är så viktigt att öppna källkod för så mycket AI som möjligt och ha rationella diskussioner om dessa frågor.
Sammanfattning
Det finns många utmaningar för AI, men lyckligtvis har vi fortfarande många år på oss att kollektivt bestämma vilken framtid vi vill att AGI ska ta. Vi bör på kort sikt fokusera på att skapa ett diversifierat AI-arbetskraft, som inkluderar lika många kvinnor som män, och lika många etniska grupper med diversifierade synsätt som möjligt.
Vi bör också skapa visselblåsarskydd för forskare som arbetar med AI, och vi bör anta lagar och regleringar som förhindrar omfattande missbruk av statlig eller företagsvis övervakning. Människor har en unik möjlighet att förbättra den mänskliga tillvaron med hjälp av AI, vi behöver bara se till att vi noggrant skapar en samhällelig ram som möjliggör de positiva aspekterna, samtidigt som vi mildrar de negativa, som inkluderar existentiella hot.










