taló La IA és una amenaça existencial? - Unite.AI
Connecteu-vos amb nosaltres

Intel·ligència general artificial

La IA és una amenaça existencial?

mm
actualitzat on

Quan es parla d'intel·ligència artificial (IA), un debat comú és si la intel·ligència artificial és una amenaça existencial. La resposta requereix entendre la tecnologia que hi ha darrere de l'aprenentatge automàtic (ML) i reconèixer que els humans tenen tendència a antropomorfitzar. Explorarem dos tipus diferents d'IA, la Intel·ligència Estreta Artificial (ANI) que està disponible ara i és motiu de preocupació, i l'amenaça que s'associa més sovint amb les interpretacions apocalíptiques d'IA que és la Intel·ligència General Artificial (AGI).

Amenaces de la intel·ligència estreta artificial

Per entendre què és l'ANI, només cal que entengueu que cada aplicació d'IA que està disponible actualment és una forma d'ANI. Aquests són camps d'IA que tenen un camp d'especialitat reduït, per exemple, els vehicles autònoms utilitzen IA que està dissenyada amb l'únic propòsit de moure un vehicle del punt A al B. Un altre tipus d'ANI podria ser un programa d'escacs optimitzat per jugar. escacs, i fins i tot si el programa d'escacs millora contínuament mitjançant l'ús de l'aprenentatge de reforç, el programa d'escacs mai no podrà fer funcionar un vehicle autònom.

Amb el seu enfocament en qualsevol operació de la qual sigui responsable, els sistemes ANI no poden utilitzar l'aprenentatge generalitzat per dominar el món. Aquesta és la bona notícia; la mala notícia és que, amb la seva dependència d'un operador humà, el sistema d'IA és susceptible a dades esbiaixades, errors humans o, pitjor encara, a un operador humà canalla.

Vigilància IA

És possible que no hi hagi un perill més gran per a la humanitat que els humans que utilitzen la IA per envair la privadesa i, en alguns casos, l'ús de la vigilància amb IA per evitar completament que la gent es mogui lliurement.  La Xina, Rússia i altres nacions van aprovar regulacions durant la COVID-19 per permetre'ls supervisar i controlar el moviment de les seves respectives poblacions. Són lleis que, un cop en vigor, són difícils d'eliminar, sobretot en societats que compten amb líders autocràtics.

A la Xina, les càmeres estan col·locades fora de les cases de la gent i, en alguns casos, dins de la casa de la persona. Cada vegada que un membre de la llar marxa, una IA controla l'hora d'arribada i de sortida i, si cal, avisa les autoritats. Com si això no fos suficient, amb l'ajuda de la tecnologia de reconeixement facial, la Xina és capaç de seguir el moviment de cada persona cada vegada que és identificada per una càmera. Això ofereix un poder absolut a l'entitat que controla la IA i un recurs absolutament nul als seus ciutadans.

Per què aquest escenari és perillós, és que els governs corruptes poden controlar acuradament els moviments de periodistes, opositors polítics o qualsevol persona que s'atreveixi a qüestionar l'autoritat del govern. És fàcil entendre com els periodistes i els ciutadans serien prudents en criticar els governs quan es controla cada moviment.

Afortunadament, hi ha moltes ciutats que lluiten per evitar que el reconeixement facial s'infiltri a les seves ciutats. En particular, Portland, Oregon, ha aprovat recentment una llei que impedeix que el reconeixement facial s'utilitzi innecessàriament a la ciutat. Tot i que aquests canvis en la regulació poden haver passat desapercebuts per al gran públic, en el futur aquestes normatives podrien ser la diferència entre les ciutats que ofereixen algun tipus d'autonomia i llibertat i les ciutats que se senten opressores.

Armes i drons autònoms

Més de 4500 investigacions d'IA han demanat la prohibició de les armes autònomes i han creat el Prohibir les armes autònomes letals lloc web. El grup té moltes entitats sense ànim de lucre notables com a signants com ara Human Rights Watch, Amnistia Internacional, I el Institut del Futur de la Vida que en si mateix té un consell assessor científic estel·lar que inclou Elon Musk, Nick Bostrom i Stuart Russell.

Abans de continuar, compartiré aquesta cita de The Future of Life Institute que explica millor per què hi ha motius clars de preocupació: "En contrast amb les armes semiautònomes que requereixen supervisió humana per garantir que cada objectiu sigui validat com a ètica i legalment legítim, com ara Les armes totalment autònomes seleccionen i enganxen objectius sense intervenció humana, la qual cosa representa una automatització completa del dany letal. ”

Actualment, les bombes intel·ligents es despleguen amb un objectiu seleccionat per un humà, i la bomba utilitza la IA per traçar un rumb i aterrar al seu objectiu. El problema és què passa quan decidim eliminar completament l'humà de l'equació?

Quan una intel·ligència artificial tria quins són els humans que necessiten orientar-se, així com el tipus de dany col·lateral que es considera acceptable, és possible que hem travessat un punt de no retorn. És per això que tants investigadors d'IA s'oposen a investigar qualsevol cosa que estigui remotament relacionada amb les armes autònomes.

Hi ha múltiples problemes amb simplement intentar bloquejar la investigació d'armes autònomes. El primer problema és que encara que nacions avançades com el Canadà, els Estats Units i la majoria d'Europa optin per acceptar la prohibició, no vol dir que nacions canalla com la Xina, Corea del Nord, l'Iran i Rússia hi juguin. El segon i més gran problema és que la investigació i les aplicacions d'IA que estan dissenyades per utilitzar-se en un camp, es poden utilitzar en un camp completament no relacionat.

Per exemple, la visió per ordinador millora contínuament i és important per al desenvolupament de vehicles autònoms, medicina de precisió i altres casos d'ús importants. També és fonamental per als drons habituals o els drons que es podrien modificar per convertir-se en autònoms. Un cas d'ús potencial de la tecnologia avançada de drons és el desenvolupament de drons que poden controlar i combatre incendis forestals. Això allunyaria completament els bombers de la via dels danys. Per fer-ho, haureu de construir drons capaços de volar cap a danys, navegar amb visibilitat baixa o nul·la i capaços de deixar caure aigua amb una precisió impecable. No és gaire llunyà utilitzar aquesta tecnologia idèntica en un drone autònom dissenyat per dirigir-se selectivament als humans.

És una situació perillosa i, en aquest moment, ningú entén completament les implicacions d'avançar o intentar bloquejar el desenvolupament d'armes autònomes. No obstant això, és una cosa que hem de mantenir els ulls, potenciar protecció del denunciant pot permetre que les persones del camp denunciïn els abusos.

A part de l'operador canalla, què passa si el biaix de la IA s'introdueix a la tecnologia d'IA que està dissenyada per ser una arma autònoma?

AI Bias

Una de les amenaces de la IA més no informades és el biaix de la IA. Això és senzill d'entendre, ja que la majoria no és intencionat. El biaix de la IA entra quan una IA revisa les dades que li proporcionen els humans, utilitzant el reconeixement de patrons a partir de les dades que es van introduir a la IA, la IA arriba incorrectament a conclusions que poden tenir repercussions negatives en la societat. Per exemple, una IA que s'alimenta de la literatura del segle passat sobre com identificar el personal mèdic pot arribar a la conclusió masclista no desitjada que les dones sempre són infermeres, i els homes sempre són metges.

Un escenari més perillós és quan La IA que s'utilitza per sentenciar els criminals condemnats és esbiaixada per donar condemnes de presó més llargues a les minories. Els algorismes d'avaluació de riscos criminals de l'IA simplement estan estudiant patrons en les dades que s'han introduït al sistema. Aquestes dades indiquen que històricament algunes minories són més propenses a reincidir, fins i tot quan això es deu a un conjunt de dades deficient que es pot veure influenciat pel perfil racial de la policia. Aleshores, la IA esbiaixada reforça les polítiques humanes negatives. És per això que la IA hauria de ser una guia, mai un jutge i un jurat.

Tornant a les armes autònomes, si tenim una IA esbiaixada en contra de determinats grups ètnics, podria optar per apuntar-se a determinades persones basant-se en dades esbiaixades, i podria arribar a assegurar-se que qualsevol tipus de dany col·lateral afecta menys determinades persones que altres. . Per exemple, quan es dirigeix ​​a un terrorista, abans d'atacar podria esperar fins que el terrorista estigui envoltat d'aquells que segueixen la fe musulmana en lloc dels cristians.

Afortunadament, s'ha demostrat que la IA dissenyada amb equips diversos són menys propenses al biaix. Aquesta és una raó suficient perquè les empreses intentin contractar, sempre que sigui possible, un equip complet i divers.

Amenaces de la intel·ligència general artificial

Cal dir que, tot i que la IA avança a un ritme exponencial, encara no hem aconseguit l'AGI. Quan arribarem a AGI està a debat, i tothom té una resposta diferent quant a una línia de temps. Personalment subscric les opinions de Ray Kurzweil, inventor, futurista i autor de "The Singularity is Near", que creu que tindrem AGI assolit el 2029.

AGI serà la tecnologia més transformadora del món. En poques setmanes després que la IA aconsegueixi la intel·ligència a nivell humà, arribarà superintel·ligència que es defineix com una intel·ligència que supera amb escreix la d'un humà.

Amb aquest nivell d'intel·ligència, un AGI podria absorbir ràpidament tot el coneixement humà i utilitzar el reconeixement de patrons per identificar biomarcadors que causen problemes de salut i després tractar aquestes condicions mitjançant la ciència de dades. Podria crear nanobots que entren al torrent sanguini per dirigir-se a cèl·lules canceroses o altres vectors d'atac. La llista d'assoliments de què és capaç un AGI és infinita. Abans hem explorat alguns dels avantatges de l'AGI.

El problema és que els humans ja no poden controlar la IA. Elon Musk ho descriu així: "Amb la intel·ligència artificial estem convocant el dimoni.' Serem capaços de controlar aquest dimoni és la pregunta?

Aconseguir l'AGI pot ser senzillament impossible fins que una IA abandoni un entorn de simulació per interactuar realment en el nostre món obert. L'autoconsciència no es pot dissenyar, en canvi es creu que an consciència emergent És probable que evolucioni quan una IA tingui un cos robòtic amb múltiples fluxos d'entrada. Aquestes entrades poden incloure estimulació tàctil, reconeixement de veu amb una comprensió millorada del llenguatge natural i visió per ordinador augmentada.

La IA avançada es pot programar amb motius altruistes i voler salvar el planeta. Malauradament, la IA pot utilitzar ciència de dades, o fins i tot a arbre de decisió arribar a una lògica defectuosa no desitjada, com ara avaluar que és necessari esterilitzar humans o eliminar part de la població humana per controlar la superpoblació humana.

Cal pensar i deliberar acuradament quan es construeix una IA amb una intel·ligència que superi amb escreix la d'un humà. Hi ha hagut molts escenaris de malson que s'han explorat.

El professor Nick Bostrom a l'argument Paperclip Maximizer ha argumentat que un AGI mal configurat si se li instrueix per produir clips de paper simplement consumiria tots els recursos terrestres per produir aquests clips. Tot i que això sembla una mica descabellat, un punt de vista més pragmàtic és que un AGI podria ser controlat per un estat canalla o una corporació amb poca ètica. Aquesta entitat podria entrenar l'AGI per maximitzar els beneficis i, en aquest cas, amb una programació deficient i sense remordiments, podria optar per fer fallida competidors, destruir cadenes de subministrament, piratejar la borsa, liquidar comptes bancaris o atacar opositors polítics.

És aquí quan hem de recordar que els humans tendeixen a antropomorfitzar-se. No podem donar a la IA emocions, desitjos o desitjos de tipus humà. Tot i que hi ha humans diabòlics que maten per plaer, no hi ha cap raó per creure que una IA sigui susceptible a aquest tipus de comportament. És inconcebible que els humans considerin fins i tot com veuria el món una IA.

En canvi, el que hem de fer és ensenyar a la IA a ser sempre deferent amb un humà. L'IA sempre hauria de tenir un humà que confirmi qualsevol canvi en la configuració i sempre hi hauria d'haver un mecanisme de seguretat. Aleshores, s'ha argumentat que la IA simplement es replicarà al núvol i, quan ens adonem que és conscient, pot ser massa tard.

Per això és tan important obrir el màxim d'IA possible i tenir discussions racionals sobre aquests temes.

resum

Hi ha molts reptes per a la IA, afortunadament, encara tenim molts anys per esbrinar col·lectivament el camí futur que volem que prengui AGI. A curt termini, hauríem de centrar-nos en la creació d'una força de treball d'IA diversa, que inclogui tantes dones com homes i tantes grups ètnics amb punts de vista diversos com sigui possible.

També hauríem de crear proteccions per als denunciants per als investigadors que treballen en IA i hauríem d'aprovar lleis i regulacions que evitin l'abús generalitzat de la vigilància estatal o de l'empresa. Els humans tenim una oportunitat única en la vida de millorar la condició humana amb l'ajuda de la IA, només hem d'assegurar-nos que creem acuradament un marc social que permeti millor els positius, alhora que mitiga els negatius que inclouen amenaces existencials.

Soci fundador de unit.AI i membre de la Consell Tecnològic de Forbes, Antoine és un futurista apassionat pel futur de la IA i la robòtica.

També és el fundador de Securities.io, un lloc web que se centra a invertir en tecnologia disruptiva.