Kunstig intelligens
AI kan undgå bestemte uønskede adfærdsmønstre med nye algoritmer

Da kunstig intelligens-algoritmer og -systemer bliver mere avancerede og påtager sig større ansvar, bliver det mere og mere vigtigt at sikre, at AI-systemer undgår farlige, uønskede adfærdsmønstre. For nylig offentliggjorde et hold af forskere fra University of Massachusetts Amherst og Stanford en artikel, der demonstrerer, hvordan bestemte AI-adfærdsmønstre kan undgås ved hjælp af en teknik, der fremkalder præcise matematiske instruktioner, der kan bruges til at justere AI-adfærdsmønstret.
Ifølge TechXplore var forskningen baseret på antagelsen, at ufædre/uforsvarlige adfærdsmønstre kan defineres med matematiske funktioner og variable. Hvis dette er sandt, burde det være muligt for forskerne at træne systemer til at undgå disse bestemte adfærdsmønstre. Forskningsholdet havde til formål at udvikle en værktøjskasse, der kan bruges af AI-brugere til at specificere, hvilke adfærdsmønstre de ønsker, at AI skal undgå, og muliggøre, at AI-ingeniører kan træne et system, der kan undgå uønskede handlinger, når det bruges i virkelige scenarier.
Phillip Thomas, den første forfatter på artiklen og adjunkt i datalogi ved U of Michigan Amherst, forklarede, at forskningsholdet havde til formål at demonstrere, at designerne af maskinlæringsalgoritmer kan gøre det lettere for AI-brugere at beskrive uønskede adfærdsmønstre og have en høj sandsynlighed for, at AI-systemet vil undgå adfærdsmønstret.
Forskningsholdet testede deres teknik ved at anvende den på et almindeligt problem inden for datavidenskab, kønsdiskrimination. Forskningsholdet havde til formål at gøre algoritmerne, der bruges til at forudsige studerendes GPA, mere retfærdige ved at reducere kønsdiskrimination. Forskningsholdet anvendte en eksperimental dataset og instruerede deres AI-system til at undgå oprettelsen af modeller, der systematisk undervurderede/overvurderede GPA for ét køn. Som følge af forskernes instruktioner oprettede algoritmen en model, der bedre forudsagde studerendes GPA og havde væsentligt mindre systemisk kønsdiskrimination end tidligere eksisterende modeller. Tidligere GPA-forudsigelsesmodeller led under diskrimination, fordi diskriminationsreduktionsmodellerne ofte var for begrænsede til at være nyttige, eller der ikke blev anvendt nogen diskriminationsreduktion overhovedet.
Et andet algoritme blev også udviklet af forskningsholdet. Denne algoritme blev implementeret i en automatisk insulinpumpe, og algoritmen var tænkt til at balancere både performance og sikkerhed. Automatiske insulinpumper skal beslutte, hvor stor en insulindosis en patient skal få. Efter måltid, skal pumperne ideelt set levere en insulindosis, der er stor nok til at holde blodsukkerniveauer i check. Insulindoserne, der leveres, må ikke være for store eller for små.
Maskinlæringsalgoritmer er allerede dygtige til at identificere mønstre i en persons reaktion på insulindoser, men disse eksisterende analysemetoder kan ikke lade læger specificere resultater, der skal undgås, såsom lavt blodsukkerkrise. I modsætning hertil kunne forskningsholdet udvikle en metode, der kan trænes til at levere insulindoser, der forbliver inden for de to yderpunkter, og forebygger enten underdosisering eller overdosisering. Selv om systemet ikke er klar til test i rigtige patienter endnu, kunne en mere avanceret AI baseret på denne tilgang forbedre livskvaliteten for personer med diabetes.
I forskningsartiklen henviser forskerne til algoritmen som en “Seledonian”-algoritme. Dette er en reference til de tre love for robotter, som beskrevet af science fiction-forfatteren Isaac Asimov. Implikationen er, at AI-systemet “ikke må skade et menneske eller, gennem inaktion, lade et menneske komme til skade.” Forskningsholdet håber, at deres ramme vil tillade AI-forskere og -ingeniører at oprette en række algoritmer og systemer, der undgår farlige adfærdsmønstre. Emma Brunskill, seniorforfatter på artiklen og Stanford-adjunkt i datalogi, forklarede til TechXplore:
“Vi ønsker at fremme AI, der respekterer værdierne hos dens menneskelige brugere og retfærdiggør den tillid, vi placerer i autonome systemer.”












