AGI
Charles J. Simon, Forfatter, Vil Computere Gøre Oprør? – Interviewsammenhæng

Charles J. Simon, BSEE, MSCS, landskendt iværksætter, softwareudvikler og manager. Med en bred ledelses- og teknisk ekspertise og uddannelser i både elektrisk ingeniørvidenskab og datalogi har hr. Simon mange års erfaring med computere i industrien, herunder pionerarbejde inden for kunstig intelligens og CAD (to generationer af CAD).
Han er også forfatter til ‘Vil Computere Gøre Oprør’, som giver en dybdegående indsigt i den fremtidige mulighed for kunstig almen intelligens (AGI).
Hvad var det, der oprindeligt tiltrak dig til AI, og specifikt til AGI?
Jeg har været fascineret af spørgsmålet, “Kan maskiner tænke?” lige siden jeg første gang læste Alan Turings grundlæggende artikel fra 1950, som begynder med dette spørgsmål. Indtil videre er svaret klart “Nej”, men der er ingen videnskabelig grund til, hvorfor ikke. Jeg sluttede mig til AI-fællesskabet under den første neurale netværksboom i slutningen af 1980’erne, og siden da har AI gjort store fremskridt. Men de mellemliggende tredive år har ikke ført til, at vores maskiner har fået forståelse, en evne, der ville kunne føre mange apps til nye niveauer af nyttighed.
Du har udtalt, at du deler MIT AI-ekspert Rodney Brooks’ mening om, at “uden interaktion med en omverden – uden en robotkrop, som du vil – vil maskiner aldrig udvise AGI.” Dette er grundlæggende at sige, at med utilstrækkelige indgange fra en robotkrop, vil AI aldrig udvikle AGI-evner. Ud over computerseende, hvilke typer indgange er nødvendige for at udvikle AGI?
I dag har AI brug for at blive suppleret med grundlæggende begreber som den fysiske eksistens af objekter i en virkelighed, tidsforløb, årsag og virkning – begreber, der er klare for enhver treårig. En treårig bruger multiple sanser til at lære disse begreber ved at røre og manipulere legetøj, bevæge sig gennem hjemmet, lære sprog osv. Selv om det er muligt at skabe en AGI med mere begrænsede sanser, ligesom der er døve og blinde mennesker, der er fuldstændig intelligente, men mere sanser og evner til at interagere gør, at løsningen af AGI-problemet bliver lettere.
Til fuldstændighed kan min simulator give sanser af lugt og smag. Det er endnu ikke klarlagt, om disse også vil vise sig at være vigtige for AGI.
Du har udtalt, at ‘En nøglekrævende faktor for intelligens er en omverden, der er ekstern i forhold til intelligensen’. Eksemplet, du gav, var, at ‘det er urimeligt at forvente, at IBM’s Watson kan “forstå” noget, hvis det ikke har nogen underliggende idé om, hvad en “ting” er’. Dette spiller tydeligt ind i den nuværende begrænsning af snæver AI, især naturlig sprogbehandling. Hvordan kan AI-udviklere bedst overvinde denne nuværende begrænsning af AI?
En nøglefaktor er at gemme viden, der ikke specifikt er verbal, visuel eller taktil, men som abstrakte “Ting”, der kan have verbale, visuelle og taktille attributter. Overvej noget så enkelt som frasen “en rød bold”. Du ved, hvad disse ord betyder, fordi du har visuelle og taktille erfaringer. Du ved også betydningen af relaterede handlinger som kastning, bumping, sparkning osv., der alle kommer til sindet i visse omfang, når du hører frasen. Enhver AI-system, der specifikt er baseret på ord eller billeder, vil gå glip af de andre niveauer af forståelse.
Jeg har implementeret en Universal Knowledge Store, der gemmer enhver form for information i en hjerne-lignende struktur, hvor Ting er analoge til neuroner og har mange attribut-referencer til andre Ting – referencer er analoge til synapser. Således er rød og bold individuelle Ting, og en rød bold er et Ting, der har attribut-referencer til det røde Ting og bold-Ting. Begge rød og bold har referencer til de tilsvarende Ting for ordene “rød” og “bold”, hver af hvilke på sin side har referencer til andre Ting, der definerer, hvordan ordene høres, tales, læses eller staves samt mulige handlinger.
Du er nået til konklusionen, at hjernesimulation af almen intelligens er langt væk, mens AGI måske (relativt) er lige om hjørnet. Baseret på denne udtalelse, skal vi gå videre fra at forsøge at efterligne eller skabe en simulation af det menneskelige hjerte, og blot fokusere på AGI?
I dag er dyb læring og relaterede teknologier fantastiske til passende anvendelser, men de vil ikke spontant føre til forståelse. For at tage de næste skridt har vi brug for at tilføje teknikker, der specifikt er rettet mod at løse de problemer, der er inden for kapaciteten af enhver treårig.
At udnytte de intrinsiske evner i vores computere kan være mange gange mere effektivt end den biologiske ekvivalent eller enhver simulation af den. For eksempel kan din hjerne gemme information i kemien af biologiske synapser over flere iterationer, der kræver 10-100 millisekunder. En computer kan blot gemme den nye synapseværdi i en enkelt hukommelsescyklus, en milliard gange hurtigere.
Ved at udvikle AGI-software har jeg både biologisk neuralsimulation og mere effektive algoritmer. Fremad med Universal Knowledge Store, når simuleret i simulerede biologiske neuroner, kræver hver Ting mindst 10 neuroner og ofte mange flere. Dette sætter kapaciteten af det menneskelige hjerte et sted mellem ti og hundred millioner Ting. Men måske vil en AGI synes intelligent, hvis den forstår blot en million Ting – godt inden for rækkevidde af i dagens high-end desktop-computere.
En nøgle-ukendt er, hvor meget af robotterns tid skal allokeres til behandling og reaktion på verden versus tid tilbragt med at forestille sig og planlægge. Kan du kort forklare betydningen af forestilling for en AGI?
Vi kan forestille os mange ting og derefter kun handle på dem, vi kan lide, dem, der fremmer vores interne mål, hvis du vil. Den virkelige kraft i forestilling er at kunne forudsige fremtiden – en treårig kan regne ud, hvilke sekvenser af bevægelser, der vil føre hende til et mål i et andet rum, og en voksen kan spekulere over, hvilke ord, der vil have den største indvirkning på andre.
En AGI vil på samme måde have fordel af at gå ud over at være rent reaktiv til at spekulere over forskellige komplekse handlinger og vælge den bedste.
Du mener, at Asimovs tre love for robotter er for simple og tvetydige. I din bog delte du nogle ideer til anbefalede love, der skal programmeres i robotter. Hvilke love synes du er mest vigtige for en robot at følge?

Nye “love for robotter” vil udvikle sig over årene, når AGI opstår. Jeg foreslår nogle startpunkter:
- Maximer indre viden og forståelse af omverden.
- Del denne viden nøjagtigt med andre (såvel AGI som mennesker).
- Maximer velværet for både AGI’er og mennesker som helhed – ikke kun som enkeltpersoner.
Du har nogle problemer med Turing-testen og konceptet bagved. Kan du forklare, hvordan du mener, Turing-testen er fejlbehæftet?
Turing-testen har tjent os godt i femti år som en ad-hoc-definition af almen intelligens, men da AGI nærmer sig, har vi brug for at finpudse definitionen, og vi har brug for en klarere definition. Turing-testen er faktisk en test af, hvor menneskelig man er, ikke hvor intelligent man er. Jo længere en computer kan opretholde bedraget, jo bedre performer den på testen. Det er åbenlyst, at spørgsmålet “Er du en computer?” og relaterede proxy-spørgsmål som “Hvad er dit yndlingsføde?” er åbenlyse giveaways, medmindre AGI’en er programmeret til at bedrage – et tvivlsomt mål på bedste.
Desuden har Turing-testen motiveret AI-udvikling inden for områder af begrænset værdi med (for eksempel) chatbots med stor fleksibilitet i svarene, men ingen underliggende forståelse.
Hvad ville du gøre anderledes i din version af Turing-testen?
Bedre spørgsmål kunne undersøge specifikt forståelsen af tid, rum, årsag og virkning, forudseenhed osv. i stedet for tilfældige spørgsmål uden nogen særlig grundlag i psykologi, neurovidenskab eller AI. Her er nogle eksempler:
- Hvad ser du lige nu? Hvis du trådte tre fod tilbage, hvilke forskelle ville du se?
- Hvis jeg [handling], hvilken reaktion ville du have?
- Hvis du [handling], hvilke sandsynlige reaktioner ville jeg have?
- Kan du navngive tre ting, der er som [objekt]?
Så i stedet for at evaluere svarene på, om de er umulige at skelne fra menneskelige svar, skal de evalueres på, om de er rimelige svar (intelligente) baseret på erfaringen hos den enhed, der testes.
Du har udtalt, at når en AGI står over for krav om at udføre en kortvarig destruktiv aktivitet, vil en korrekt programmeret AGI blot nægte. Hvordan kan vi sikre, at AGI’en er korrekt programmeret fra starten?
Beslutningstagning er mål-baseret. I kombination med en forestilling kan du (eller en AGI) overveje udfaldet af forskellige mulige handlinger og vælge den, der bedst opfylder målene. Hos mennesker er vores mål fastlagt af udviklede instinkter og vores erfaring; en AGI’s mål er fuldstændig op til udviklerne. Vi har brug for at sikre, at målene for en AGI er i overensstemmelse med målene for menneskeheden i stedet for de personlige mål for en enkelt.
Du har udtalt, at det er uundgåeligt, at mennesker vil skabe en AGI, hvad er din bedste skønning for en tidsramme?
Aspekter af AGI vil begynde at opstå inden for den kommende årti, men vi vil ikke alle være enige om, at AGI er ankommet. Til sidst vil vi være enige om, at AGI er ankommet, når de overgår de fleste menneskelige evner med et betydeligt margin. Dette vil tage to eller tre årtier længere.
For alle taler om AGI, vil det være virkelig bevidsthed, som vi kender det?
Bevidsthed manifesterer sig i en række adfærd (som vi kan observere), der er baseret på en intern sansning (som vi ikke kan observere). AGI’er vil manifestere adfærden; de har brug for det for at træffe intelligente beslutninger. Men jeg påstår, at vores internsansning i høj grad afhænger af vores sanser og instinkter, og så kan jeg garantere, at hvilke som helst internsansninger en AGI måtte have, vil være forskellige fra en menneskers.
Det samme kan siges om følelser og vores fornemmelse af fri vilje. I at træffe beslutninger gennemtrænger ens tro på fri vilje hver eneste beslutning, vi tager. Hvis du ikke tror, du har et valg, reagerer du blot. For en AGI at træffe overvejede beslutninger har den ligeledes brug for at være bevidst om sin egen evne til at træffe beslutninger.
Sidste spørgsmål, tror du, at en AGI har mere potentiale for godt eller ondt?
Jeg er optimistisk om, at AGI’er vil hjælpe os med at gå fremad som en art og give os svar på mange spørgsmål om universet. Nøglen vil være for os at forberede os og beslutte, hvad vores forhold vil være til AGI’er, når vi definerer deres mål. Hvis vi beslutter at bruge de første AGI’er som redskaber til erobring og berigelse, burde vi ikke være overraskede, hvis de til sidst bliver deres egne redskaber til erobring og berigelse imod os. Hvis vi vælger, at AGI’er er redskaber til viden, udforskning og fred, så er det, hvad vi sandsynligvis får tilbage.
Tak for et fantastisk interview om den fremtidige potentiale for at bygge en AGI. For læsere, der ønsker at lære mere, kan de læse ‘Vil Computere Gøre Oprør’ eller besøge Charle’s website futureai.guru.










