Robotik
Die Fähigkeit des menschlichen Gehirns, Licht zu verarbeiten, könnte zu besserer Roboterwahrnehmung führen

Das menschliche Gehirn dient oft als Inspiration für künstliche Intelligenz (KI), und das ist auch in diesem Fall so, da ein Team von Armee-Forschern es geschafft hat, die Roboter-Wahrnehmung durch die Untersuchung der Art und Weise, wie das menschliche Gehirn helles und kontrastreiches Licht verarbeitet, zu verbessern. Diese neue Entwicklung kann dazu beitragen, die Zusammenarbeit zwischen autonomen Agenten und Menschen zu fördern.
Laut den Forschern ist es wichtig, dass die Maschinenwahrnehmung in wechselnden Umgebungen effektiv ist, was zu Fortschritten in der Autonomie führt.
Die Forschung wurde im Journal of Vision veröffentlicht.
100.000-zu-1-Display-Fähigkeit
Andre Harrison ist ein Forscher am U.S. Army Combat Capabilities Development Command’s Army Research Laboratory.
“Wenn wir maschinelles Lernen-Algorithmen entwickeln, werden reale Bilder normalerweise auf einen schmaleren Bereich komprimiert, wie es eine Handykamera tut, in einem Prozess, der als Tonmapping bezeichnet wird”, sagte Harrison. “Dies kann dazu beitragen, dass maschinelle Sehalgorithmen anfällig für Fehler sind, da sie auf künstlichen Bildern basieren, die nicht ganz den Mustern entsprechen, die wir in der realen Welt sehen.”
Das Team von Forschern entwickelte ein System mit 100.000-zu-1-Display-Fähigkeit, das es ihnen ermöglichte, Einblick in den Rechenprozess des Gehirns in der realen Welt zu gewinnen. Laut Harrison ermöglichte dies dem Team, biologische Widerstandsfähigkeit in Sensoren zu implementieren.
Die aktuellen Sehalgorithmen haben noch einen weiten Weg vor sich, bevor sie ideal werden. Dies hat damit zu tun, dass der Luminanzbereich begrenzt ist, bei etwa 100-zu-1-Verhältnis, da die Algorithmen auf menschlichen und tierischen Studien mit Computermonitoren basieren. Das 100-zu-1-Verhältnis ist in der realen Welt, in der die Variation bis zu 100.000-zu-1 reichen kann, weniger als ideal. Dieses hohe Verhältnis wird als High Dynamic Range (HDR) bezeichnet.
Dr. Chou Po Hung ist ein Armee-Forscher.
“Änderungen und signifikante Variationen im Licht können Armee-Systeme herausfordern – Drohnen, die unter einem Waldkanopy fliegen, können durch Reflexionsänderungen verwirrt werden, wenn der Wind durch die Blätter weht, oder autonome Fahrzeuge, die auf unwegsamem Gelände fahren, können Schlaglöcher oder andere Hindernisse nicht erkennen, weil die Lichtverhältnisse leicht von denen abweichen, mit denen ihre Sehalgorithmen trainiert wurden”, sagte Hung.
Die Komprimierfähigkeit des menschlichen Gehirns
Das menschliche Gehirn ist in der Lage, den 100.000-zu-1-Eingang automatisch auf einen schmaleren Bereich zu komprimieren, und dies ermöglicht es Menschen, Formen zu interpretieren. Das Team von Forschern versuchte, diesen Prozess zu verstehen, indem sie die frühe visuelle Verarbeitung unter HDR untersuchten. Das Team konzentrierte sich auf einfache Merkmale wie HDR-Luminanz.
“Das Gehirn hat mehr als 30 visuelle Bereiche, und wir haben noch immer nur ein rudimentäres Verständnis davon, wie diese Bereiche das Bild des Auges in ein Verständnis der 3D-Form umwandeln”, fuhr Hung fort. “Unsere Ergebnisse mit HDR-Luminanz-Studien, die auf menschlichem Verhalten und Skalenaufzeichnungen basieren, zeigen, wie wenig wir wirklich wissen, wie wir die Lücke zwischen Labor und realer Welt überbrücken können. Aber diese Ergebnisse befreien uns aus dieser Box, indem sie zeigen, dass unsere bisherigen Annahmen aus Standard-Computermonitoren nur begrenzte Fähigkeiten haben, auf die reale Welt zu verallgemeinern, und sie enthüllen Prinzipien, die unsere Modellierung in Richtung der richtigen Mechanismen leiten können.”
Indem sie entdeckten, wie Licht und Kontrastkanten in der visuellen Darstellung des Gehirns interagieren, werden Algorithmen effektiver darin, die 3D-Welt unter realen Luminanz-Bedingungen zu rekonstruieren. Bei der Schätzung der 3D-Form aus 2D-Informationen gibt es immer Unsicherheiten, aber diese neue Entdeckung ermöglicht es, diese zu korrigieren.
“Durch Millionen von Jahren der Evolution haben unsere Gehirne effektive Abkürzungen für die Rekonstruktion von 3D aus 2D-Informationen entwickelt”, sagte Hung. “Es ist ein seit Jahrzehnten bestehendes Problem, das auch heute noch maschinelle Sehwissenschaftler herausfordert, selbst mit den jüngsten Fortschritten in der KI.”
Die Entdeckung des Teams ist auch wichtig für die Entwicklung von KI-Geräten wie Radar und Fernsprachverständnis, die ein breites dynamisches Bereichs-Sensing verwenden.
“Das Problem des dynamischen Bereichs ist nicht nur ein Sensing-Problem”, sagte Hung. “Es kann auch ein allgemeineres Problem in der Gehirnverarbeitung sein, da einzelne Neuronen Zehntausende von Eingaben haben. Wie baut man Algorithmen und Architekturen, die in verschiedenen Kontexten auf die richtigen Eingaben hören können? Wir hoffen, dass wir, indem wir an diesem Problem auf der sensorischen Ebene arbeiten, bestätigen können, dass wir auf dem richtigen Weg sind, damit wir die richtigen Werkzeuge haben, wenn wir komplexere KI-Systeme bauen.”












