Robotica
De lichtverwerkingscapaciteit van de menselijke hersenen kan leiden tot betere robotische sensoren

De menselijke hersenen dienen vaak als inspiratie voor kunstmatige intelligentie (AI), en dat is ook het geval nu een team van onderzoekers van het leger erin is geslaagd om robotische sensoren te verbeteren door te kijken hoe de menselijke hersenen helder en contrasterend licht verwerken. Deze nieuwe ontwikkeling kan helpen om samenwerking tussen autonome agenten en mensen te bereiken.
Volgens de onderzoekers is het belangrijk dat machine-sensoren effectief zijn in veranderende omgevingen, wat leidt tot ontwikkelingen in autonomie.
Het onderzoek werd gepubliceerd in de Journal of Vision.
100.000-tot-1-weergavecapaciteit
Andre Harrison is een onderzoeker bij het U.S. Army Combat Capabilities Development Command’s Army Research Laboratory.
“Wanneer we machine learning-algoritmen ontwikkelen, worden real-world-afbeeldingen meestal gecomprimeerd tot een smallere range, zoals een cellulair camera doet, in een proces dat tone mapping wordt genoemd,” zei Harrison. “Dit kan bijdragen aan de broosheid van machine-vision-algoritmen, omdat ze zijn gebaseerd op kunstmatige afbeeldingen die niet helemaal overeenkomen met de patronen die we zien in de echte wereld.”
Het team van onderzoekers ontwikkelde een systeem met een 100.000-tot-1-weergavecapaciteit, waardoor ze inzicht konden krijgen in de berekeningsprocessen van de hersenen in de echte wereld. Volgens Harrison stelde dit het team in staat om biologische veerkracht in sensoren te implementeren.
De huidige visie-algoritmen hebben nog een lange weg te gaan voordat ze ideaal zijn. Dit heeft te maken met de beperkte range in luminantie, op een verhouding van ongeveer 100-tot-1, vanwege het feit dat de algoritmen zijn gebaseerd op menselijke en dierstudies met computermontoren. De 100-tot-1-verhouding is minder dan ideaal in de echte wereld, waar de variatie kan oplopen tot 100.000-tot-1. Deze hoge verhouding wordt high dynamic range of HDR genoemd.
Dr. Chou Po Hung is een onderzoeker bij het leger.
“Veranderingen en significante variaties in licht kunnen leger-systemen uitdagen — drones die onder een bos vliegen, kunnen worden verward door reflectieveranderingen wanneer de wind door de bladeren waait, of autonome voertuigen die over ruw terrein rijden, kunnen geen putten of andere obstakels herkennen omdat de lichtomstandigheden enigszins anders zijn dan die waarop hun visie-algoritmen zijn getraind,” zei Hung.
De compressiecapaciteit van de menselijke hersenen
De menselijke hersenen zijn in staat om de 100.000-tot-1-input automatisch te comprimeren tot een smallere range, en dit is wat mensen in staat stelt om vormen te interpreteren. Het team van onderzoekers zette zich tot doel om dit proces te begrijpen door vroeg visueel verwerken onder HDR te bestuderen. Het team keek naar eenvoudige kenmerken zoals HDR-luminantie.
“De hersenen hebben meer dan 30 visuele gebieden, en we hebben nog steeds slechts een rudimentair begrip van hoe deze gebieden het beeld van het oog omzetten in een begrip van 3D-vorm,” vervolgde Hung. “Onze resultaten met HDR-luminantiestudies, gebaseerd op menselijk gedrag en scalp-opnames, laten zien hoe weinig we echt weten over hoe we de kloof tussen laboratorium en echte wereld kunnen overbruggen. Maar deze bevindingen breken ons uit die box, laten zien dat onze eerdere aannamen van standaardcomputermontoren een beperkte mogelijkheid hebben om te generaliseren naar de echte wereld, en onthullen principes die onze modellering naar de juiste mechanismen kunnen leiden.”
Door te ontdekken hoe licht en contrastranden interactief zijn in de visuele weergave van de hersenen, zullen algoritmen effectiever zijn in het reconstrueren van de 3D-wereld onder real-world-luminantie. Wanneer 3D-vorm wordt geschat uit 2D-informatie, zijn er altijd onduidelijkheden, maar deze nieuwe ontdekking stelt ons in staat om deze te corrigeren.
“Door miljoenen jaren van evolutie zijn onze hersenen effectieve shortcuts ontwikkeld voor het reconstrueren van 3D uit 2D-informatie,” zei Hung. “Het is een decennialang probleem dat machine-vision-wetenschappers blijft uitdagen, zelfs met de recente vooruitgang in AI.”
De ontdekking van het team is ook belangrijk voor de ontwikkeling van AI-apparaten zoals radar en remote speech understanding, die gebruikmaken van wide dynamic range sensing.
“Het probleem van dynamische range is niet alleen een sensorenprobleem,” zei Hung. “Het kan ook een meer algemeen probleem zijn in hersenberekening, omdat individuele neuronen tienduizenden inputs hebben. Hoe bouw je algoritmen en architectuur die kunnen luisteren naar de juiste inputs in verschillende contexten? We hopen dat, door aan dit probleem te werken op een sensor-niveau, we kunnen bevestigen dat we op de juiste weg zijn, zodat we de juiste tools hebben wanneer we complexe AI bouwen.”










