Stummel Forscher entwickeln amphibisches künstliches Sehsystem – Unite.AI
Vernetzen Sie sich mit uns

Künstliche Intelligenz

Forscher entwickeln amphibisches künstliches Sehsystem

Aktualisiert on

Künstliche Bildverarbeitungssysteme werden branchenübergreifend für eine Vielzahl von Anwendungen eingesetzt, beispielsweise für autonome Fahrzeuge, Objekterkennung und intelligente Kameras. Diese Systeme sind oft von biologischen Organismen inspiriert, aber aktuelle künstliche Visionen unterliegen mehreren Einschränkungen. Zum einen sind sie normalerweise nicht für die Abbildung von Land- und Unterwasserumgebungen geeignet. Sie sind normalerweise auch auf ein halbkugelförmiges Sichtfeld (FOV) beschränkt. 

Neuartiges künstliches Sehsystem

Ein Forscherteam aus Korea und den Vereinigten Staaten machte sich daran, diese Einschränkungen zu überwinden, indem es ein neuartiges künstliches Sehsystem mit omnidirektionaler Bildgebungsfähigkeit entwickelte, das sowohl in aquatischen als auch terrestrischen Umgebungen funktioniert. 

Die Studie wurde in der Zeitschrift Naturelektronik

An der Arbeit war Professor Young Min Song vom Gwangju Institute of Science and Technology in Korea beteiligt. 

„Forschung im Bereich bioinspirierter Vision führt oft zu einer neuartigen Entwicklung, die es vorher nicht gab. Dies wiederum ermöglicht ein tieferes Verständnis der Natur und stellt sicher, dass das entwickelte Bildgebungsgerät sowohl strukturell als auch funktionell effektiv ist“, sagt Prof. Song. 

Inspiriert von der Natur

Das Team ließ sich von der Winkerkrabbe inspirieren, einer terrestrischen Krabbenart mit amphibischer Bildgebungsfähigkeit und einem 360-Grad-Sichtfeld. Diese Merkmale verdankt die Krabbe dem ellipsoiden Augenstiel ihrer Facettenaugen, der eine Panoramaaufnahme ermöglicht. Es verfügt außerdem über flache Hornhäute mit einem abgestuften Brechungsindexprofil, was eine amphibische Bildgebung ermöglicht. 

Die Forscher entwickelten ein Bildverarbeitungssystem mit einer Anordnung flacher Mikrolinsen mit abgestuftem Brechungsindexprofil, das in eine flexible Silizium-Fotodiodenanordnung integriert wurde. Anschließend wurde es auf eine kugelförmige Struktur montiert. 

Der abgestufte Brechungsindex und die flache Oberfläche der Mikrolinse wurden optimiert, um die durch Veränderungen in der äußeren Umgebung verursachten Defokussierungseffekte auszugleichen. Das mag alles komplex und verwirrend klingen, aber das Team sagt, dass man es sich so vorstellen kann, dass Lichtstrahlen, die sich in verschiedenen Medien bewegen, auf denselben Punkt fokussiert werden. 

Testen des Systems

Anschließend machte sich das Team daran, die Fähigkeiten des Systems zu testen. Sie führten optische Simulationen und Bildgebungsdemonstrationen in Luft und Wasser durch, und die amphibische Bildgebung erfolgte durch Eintauchen des Geräts zur Hälfte in Wasser. Die vom System erzeugten Bilder waren klar und das Team konnte nachweisen, dass das System sowohl in der Luft als auch im Wasser ein Panorama-Sichtfeld von 300 Grad horizontal und 160 Grad vertikal hatte. Die kugelförmige Halterung hat einen Durchmesser von nur 2 Zentimetern und trägt dazu bei, dass das System kompakt und tragbar ist. 

„Unser Bildverarbeitungssystem könnte den Weg für 360°-Rundstrahlkameras mit Anwendungen in der virtuellen oder erweiterten Realität oder einer Allwettersicht für autonome Fahrzeuge ebnen“, sagt Prof. Song.

Alex McFarland ist ein KI-Journalist und Autor, der sich mit den neuesten Entwicklungen in der künstlichen Intelligenz beschäftigt. Er hat mit zahlreichen KI-Startups und Publikationen weltweit zusammengearbeitet.