AGI
Is AI een existentiële bedreiging?

Wanneer we het over Artificial Intelligence (AI) hebben, is een veel voorkomende discussie of AI een existentiële bedreiging is. Het antwoord vereist een begrip van de technologie achter Machine Learning (ML), en het erkennen dat mensen de neiging hebben om antropomorfisme te vertonen. We zullen twee verschillende soorten AI onderzoeken, Artificial Narrow Intelligence (ANI) die nu beschikbaar is en reden tot bezorgdheid geeft, en de bedreiging die meestal geassocieerd wordt met apocalyptische voorstellingen van AI, namelijk Artificial General Intelligence (AGI).
Artificial Narrow Intelligence Bedreigingen
Om te begrijpen wat ANI is, hoeft u alleen maar te begrijpen dat elke enkele AI-toepassing die momenteel beschikbaar is, een vorm van ANI is. Dit zijn gebieden van AI die een smalle specialisatie hebben, bijvoorbeeld autonome voertuigen die AI gebruiken die specifiek is ontworpen voor het verplaatsen van een voertuig van punt A naar punt B. Een ander type ANI kan een schaakprogramma zijn dat geoptimaliseerd is om schaak te spelen, en zelfs als het schaakprogramma zichzelf continu verbetert door middel van versterking van het leren, zal het schaakprogramma nooit in staat zijn om een autonoom voertuig te besturen.
Met zijn focus op welke operatie het ook is verantwoordelijk voor, zijn ANI-systemen niet in staat om gegeneraliseerd leren te gebruiken om de wereld over te nemen. Dat is het goede nieuws; het slechte nieuws is dat, vanwege zijn afhankelijkheid van een menselijke operator, het AI-systeem gevoelig is voor vooringenomen gegevens, menselijke fouten of zelfs een rogue-menselijke operator.
AI-surveillance
Er kan geen groter gevaar voor de mensheid zijn dan dat mensen AI gebruiken om de privacy te schenden, en in sommige gevallen AI-surveillance gebruiken om mensen volledig te verhinderen om vrij te bewegen. China, Rusland en andere landen hebben tijdens COVID-19 regelgeving goedgekeurd om hen in staat te stellen hun respectievelijke bevolkingen te controleren en te monitoren. Dit zijn wetten die, eens ze zijn ingevoerd, moeilijk te verwijderen zijn, vooral in samenlevingen met autocratische leiders.
In China zijn camera’s geïnstalleerd buiten mensen’s huizen, en in sommige gevallen binnen het huis van de persoon. Elke keer dat een lid van het huishouden vertrekt, wordt de tijd van aankomst en vertrek gemonitord door een AI, en indien nodig worden de autoriteiten gewaarschuwd. Alsof dat nog niet genoeg was, kan China, met behulp van gezichtsherkenningstechnologie, de bewegingen van elke persoon volgen elke keer dat hij of zij wordt geïdentificeerd door een camera. Dit biedt absolute macht aan de entiteit die de AI controleert, en absoluut geen enkele mogelijkheid voor zijn burgers.
Waarom dit scenario gevaarlijk is, is dat corrupte regeringen de bewegingen van journalisten, politieke tegenstanders of iedereen die de autoriteit van de regering in twijfel trekt, zorgvuldig kunnen monitoren. Het is gemakkelijk te begrijpen hoe journalisten en burgers voorzichtig zouden zijn om regeringen te bekritiseren wanneer elke beweging wordt gemonitord.
Er zijn gelukkig veel steden die vechten om te voorkomen dat gezichtsherkenning hun steden binnendringt. Opvallend is dat Portland, Oregon onlangs een wet heeft aangenomen die het onnodig gebruik van gezichtsherkenning in de stad blokkeert. Terwijl deze veranderingen in de regelgeving mogelijk door het algemene publiek zijn genegeerd, kunnen deze regelgevingen in de toekomst het verschil zijn tussen steden die enige vorm van autonomie en vrijheid bieden, en steden die onderdrukkend aanvoelen.
Autonome wapens en drones
Meer dan 4500 AI-onderzoekers hebben opgeroepen tot een verbod op autonome wapens en hebben de Ban Lethal Autonomous Weapons-website gemaakt. De groep heeft veel opvallende non-profitorganisaties als ondertekenaars, zoals Human Rights Watch, Amnesty International, en de The Future of Life Institute die op zichzelf een sterke wetenschappelijke adviesraad heeft, waaronder Elon Musk, Nick Bostrom en Stuart Russell.
Voordat ik verder ga, zal ik deze citaat van The Future of Life Institute delen, die het beste uitlegt waarom er duidelijke reden tot bezorgdheid is: “In tegenstelling tot semi-autonome wapens die menselijke toezicht vereisen om ervoor te zorgen dat elk doelwit als moreel en juridisch legitiem wordt gevalideerd, kiezen en betrekken dergelijke volledig autonome wapens doelwitten zonder menselijke tussenkomst, waardoor een complete automatisering van dodelijke schade ontstaat.”
Momenteel worden slimme bommen ingezet met een doelwit dat door een mens is geselecteerd, en de bom gebruikt vervolgens AI om een koers te plotten en op zijn doelwit te landen. Het probleem is wat er gebeurt als we besluiten om de mens volledig uit de vergelijking te halen?
Wanneer een AI kiest welke mensen moeten worden aangevallen, evenals het type collaterale schade dat acceptabel wordt geacht, kunnen we een punt van geen terugkeer hebben bereikt. Dit is waarom zo veel AI-onderzoekers zich verzetten tegen het onderzoeken van alles wat maar enigszins verband houdt met autonome wapens.
Er zijn meerdere problemen met het simpelweg proberen om autonome wapensonderzoek te blokkeren. Het eerste probleem is dat, zelfs als geavanceerde landen zoals Canada, de VS en de meeste Europese landen besluiten om een verbod in te stellen, dit niet betekent dat landen als China, Noord-Korea, Iran en Rusland meedoen. Het tweede en grotere probleem is dat AI-onderzoek en -toepassingen die zijn ontworpen voor gebruik in een bepaald veld, kunnen worden gebruikt in een volledig ongerelateerd veld.
Bijvoorbeeld, computerzicht verbetert continu en is belangrijk voor het ontwikkelen van autonome voertuigen, precisiegeneeskunde en andere belangrijke use cases. Het is ook fundamenteel belangrijk voor reguliere drones of drones die kunnen worden aangepast om autonoom te worden. Een potentieel gebruik van geavanceerde drone-technologie is het ontwikkelen van drones die kunnen helpen bij het bestrijden van bosbranden. Dit zou brandweerlieden volledig uit de gevarenzone halen. Om dit te doen, zou je drones moeten bouwen die in staat zijn om in gevaar te vliegen, om te navigeren in lage of nul zichtbaarheid, en om water met onberispelijke precisie te droppen. Het is geen grote stap om vervolgens deze identieke technologie te gebruiken in een autonome drone die is ontworpen om selectief mensen aan te vallen.
Het is een gevaarlijke situatie en op dit moment begrijpt niemand volledig de implicaties van het ontwikkelen of proberen te blokkeren van autonome wapens. Het is echter iets waar we onze ogen op moeten houden, en het verbeteren van klokkenluidersbescherming kan mensen in het veld in staat stellen om misbruik te melden.
Rogue-operator daargelaten, wat gebeurt er als AI-vooringenomenheid in AI-technologie glipt die is ontworpen als een autonoom wapen?
AI-vooringenomenheid
Een van de minst gerapporteerde bedreigingen van AI is AI-vooringenomenheid. Dit is gemakkelijk te begrijpen, omdat de meeste hiervan onopzettelijk zijn. AI-vooringenomenheid glipt in wanneer een AI gegevens die door mensen zijn gevoerd, beoordeelt, en met behulp van patroonherkenning uit de gegevens die aan de AI zijn gevoerd, komt de AI tot ongewenste conclusies die negatieve gevolgen voor de samenleving kunnen hebben. Bijvoorbeeld, een AI die literatuur uit het verleden over hoe medisch personeel te identificeren, kan tot de ongewenste sexistische conclusie komen dat vrouwen altijd verpleegsters zijn, en mannen altijd artsen.
Een gevaarlijkere scenario is wanneer AI die wordt gebruikt om veroordeelde criminelen te vonnissen, vooringenomen is tegen het geven van langere gevangenisstraffen aan minderheden. De AI’s algoritmes voor het beoordelen van het criminale risico bestuderen eenvoudigweg patronen in de gegevens die in het systeem zijn gevoerd. Deze gegevens geven aan dat bepaalde minderheden historisch gezien vaker recidiveren, zelfs als dit te wijten is aan slechte datasets die beïnvloed kunnen zijn door politieke raciale profilering. De vooringenomen AI versterkt dan negatieve menselijke beleidsmaatregelen. Dit is waarom AI altijd een richtlijn moet zijn, nooit rechter en jury.
Terugkerend naar autonome wapens, als we een AI hebben die vooringenomen is tegen bepaalde etnische groepen, kan het kiezen om bepaalde individuen aan te vallen op basis van vooringenomen gegevens, en het kan zo ver gaan dat het ervoor zorgt dat enige vorm van collaterale schade bepaalde demografische groepen minder treft dan anderen. Bijvoorbeeld, wanneer het een terrorist aanvalt, kan het wachten tot de terrorist omringd is door mensen die de islamitische geloofsovertuiging aanhangen in plaats van christenen.
Gelukkig is het bewezen dat AI die is ontworpen met diverse teams minder vatbaar is voor vooringenomenheid. Dit is reden genoeg voor ondernemingen om te proberen, wanneer mogelijk, een diverse, goed afgeronde team aan te nemen.
Artificial General Intelligence Bedreigingen
Het moet worden gesteld dat, hoewel AI met een exponentiële snelheid vordert, we nog niet de AGI hebben bereikt. Wanneer we AGI zullen bereiken, is onderwerp van discussie, en iedereen heeft een ander antwoord op de tijdlijn. Ik persoonlijk schrijf me in bij de visie van Ray Kurzweil, uitvinder, futuroloog en auteur van ‘The Singularity is Near’, die gelooft dat we AGI zullen hebben bereikt tegen 2029.
AGI zal de meest transformatieve technologie in de wereld zijn. Binnen weken na het bereiken van het niveau van menselijke intelligentie, zal het AI vervolgens superintelligentie bereiken, die wordt gedefinieerd als intelligentie die verder gaat dan die van een mens.
Met dit niveau van intelligentie kan een AGI snel alle menselijke kennis absorberen en patroonherkenning gebruiken om biomarkers te identificeren die gezondheidsproblemen veroorzaken, en vervolgens deze aandoeningen behandelen met behulp van datawetenschap. Het kan nanobots creëren die in het bloed worden geïnjecteerd om kankercellen of andere aanvalspunten te targeten. De lijst van prestaties waar een AGI toe in staat is, is oneindig. We hebben eerder enkele van de voordelen van AGI onderzocht.
Het probleem is dat mensen mogelijk niet langer in staat zullen zijn om de AI te controleren. Elon Musk beschrijft het als volgt: ”Met kunstmatige intelligentie roepen we de demon op.’ Zullen we in staat zijn om deze demon te controleren, dat is de vraag?
Het bereiken van AGI kan eenvoudigweg onmogelijk zijn totdat een AI een simuleringsomgeving verlaat en echt in onze open wereld interacteert. Zelfbewustzijn kan niet worden ontworpen, in plaats daarvan wordt aangenomen dat een emergente bewustzijn waarschijnlijk zal evolueren wanneer een AI een robotlichaam heeft met meerdere invoerstromen. Deze invoer kunnen omvatten tactiele stimulatie, spraakherkenning met verbeterd natuurlijk taalbegrip, en verbeterd computerzicht.
De geavanceerde AI kan zijn geprogrammeerd met altruïstische motieven en willen de planeet redden. Helaas kan de AI datawetenschap gebruiken, of zelfs een beslissingsboom om tot ongewenste, defecte logica te komen, zoals het beoordelen dat het nodig is om mensen te steriliseren, of een deel van de menselijke bevolking uit te roeien om de overbevolking te controleren.
Zorgvuldige overweging en beraadslaging moeten worden onderzocht bij het bouwen van een AI met intelligentie die verder gaat dan die van een mens. Er zijn veel nachtmerriescenario’s die zijn onderzocht.
Professor Nick Bostrom in de Paperclip Maximizer argument heeft betoogd dat een slecht geconfigureerde AGI, als het wordt geïnstrueerd om paperclips te produceren, eenvoudigweg alle middelen van de aarde zou consumeren om deze paperclips te produceren. Terwijl dit een beetje ver gezocht lijkt, is een meer pragmatische visie dat een AGI kan worden gecontroleerd door een rogue-staat of een onderneming met slechte ethiek. Deze entiteit kan de AGI trainen om winst te maximaliseren, en in dit geval, met slechte programmering en zero berouw, kan het kiezen om concurrenten failliet te laten gaan, supply chains te vernietigen, de aandelenmarkt te hacken, bankrekeningen te liquideren, of politieke tegenstanders aan te vallen.
Dit is wanneer we ons moeten herinneren dat mensen de neiging hebben om antropomorfisme te vertonen. We kunnen de AI geen menselijke emoties, verlangens of wensen geven. Terwijl er diabolische mensen zijn die voor plezier doden, is er geen reden om aan te nemen dat een AI vatbaar zou zijn voor dit soort gedrag. Het is onvoorstelbaar voor mensen om zelfs maar te overwegen hoe een AI de wereld zou zien.
In plaats daarvan moeten we de AI leren om altijd onderdanig te zijn aan een mens. De AI moet altijd een menselijke bevestiging hebben voor elke wijziging in de instellingen, en er moet altijd een veiligheidsmechanisme zijn. Toch is het betoogd dat AI zichzelf eenvoudigweg zal repliceren in de cloud, en tegen de tijd dat we beseffen dat het zelfbewust is, kan het te laat zijn.
Dit is waarom het zo belangrijk is om zo veel mogelijk AI open source te maken en om rationele discussies te voeren over deze kwesties.
Samenvatting
Er zijn veel uitdagingen voor AI, maar we hebben nog veel jaren om collectief te bepalen welk pad we voor AGI willen kiezen. We moeten ons in de korte termijn focussen op het creëren van een diverse AI-werkforce, die evenveel vrouwen als mannen omvat, en evenveel etnische groepen met diverse standpunten als mogelijk.
We moeten ook klokkenluidersbescherming creëren voor onderzoekers die aan AI werken, en we moeten wetten en regelgevingen maken die het wijdverbreide misbruik van staat- of bedrijfsbrede surveillance voorkomen. Mensen hebben een eenmalige kans om de menselijke conditie te verbeteren met de hulp van AI, we moeten er alleen voor zorgen dat we zorgvuldig een sociaal kader creëren dat het beste de positieve aspecten mogelijk maakt, terwijl het de negatieve aspecten, waaronder existentiële bedreigingen, mitigeert.










