Connect with us

Künstliche Intelligenz

KI-Sensoren könnten autonome Fahrzeuge in schneereichen Städten unterstützen

mm

Eine der größten Herausforderungen, mit denen autonome Fahrzeuge konfrontiert sind, ist, dass sie Schwierigkeiten haben, in schlechten Wetterbedingungen zu navigieren, was ihre Implementierung in schneereichen Städten wie Detroit und Chicago stark einschränkt. Die Fahrzeuge verlassen sich auf entscheidende Sensordaten, um Hindernisse zu erkennen und auf der richtigen Seite der Straße zu bleiben, aber diese Daten haben Schwierigkeiten im Schnee.

In zwei neuen Forschungsarbeiten, die auf der SPIE Defense + Commercial Sensing 2021 präsentiert wurden, diskutierten Forscher von der Michigan Technological University neue Lösungen für schneereiche Fahrzeugszenarien mit autonomen Fahrzeugen.

Es gibt eine breite Palette von autonomen Fahrzeugen, darunter einige mit toten Winkeln oder Bremsassistenten und andere mit Ein- und Ausschaltmodi für das selbstständige Fahren. Einige der besten Fahrzeuge können vollständig autonom fahren.

Da die Technologie in vielen Bereichen noch in den Kinderschuhen steckt, arbeiten Automobilhersteller und Forschungsuniversitäten kontinuierlich daran, die Technologie und Algorithmen zu verbessern. Wenn Unfälle auftreten, sind sie oft das Ergebnis eines Fehlurteils des KI-Systems oder eines menschlichen Fehlers.

Menschliche Sensoren

Menschliche Augen sind auch eine Art von Sensoren, da sie das Gleichgewicht und die Bewegung wahrnehmen. Unser Gehirn fungiert als Prozessor, der uns hilft, unsere Umgebung zu verstehen. Diese zusammen ermöglichen es uns, in allen Szenarien zu fahren, auch in solchen, die neu sind, da unser Gehirn neue Erfahrungen verallgemeinern kann.

Autonome Fahrzeuge haben in der Regel zwei Kameras, die auf Gimbals montiert sind, und sie scannen und erkennen die Tiefe mithilfe von Stereovision, um das menschliche Sehen nachzuahmen. Gleichzeitig kann das Gleichgewicht und die Bewegung mit einer inertialen Messungseinheit gemessen werden. Computer können jedoch nur auf vorhergehende Szenarien oder solche reagieren, die sie bereits programmiert haben.

Sensorfusion

Autonome Fahrzeuge verlassen sich auf spezifische künstliche Intelligenz-Algorithmen, die multiple Sensoren wie Fischaugen-Kameras, Infrarot-Sensoren, Radar, Lichtdetektion und Lidar erfordern.

Nathir Rawashdeh ist Assistenzprofessor für Informatik am College of Computing der Michigan Tech und einer der Hauptautoren der Studie.

“Jeder Sensor hat Einschränkungen, und jeder Sensor deckt die Einschränkungen eines anderen ab”, sagte Rawashdeh. “Sensorfusion verwendet multiple Sensoren unterschiedlicher Modalitäten, um eine Szene zu verstehen. Man kann nicht erschöpfend programmieren, wenn die Eingaben schwierige Muster aufweisen. Deshalb benötigen wir KI.”

Die Mitwirkenden der Studie umfassten Nader Abu-Alrub, Doktoranden in Elektro- und Computertechnik, und Jeremy Bos, Assistenzprofessor für Elektro- und Computertechnik. Weitere Mitwirkende waren Master-Studenten und Absolventen aus Bos’ Labor: Akhil Kurup, Derek Chopp und Zach Jeffreies.

Autonome Sensoren und selbstfahrende Algorithmen werden fast ausschließlich in sonnigen und klaren Landschaften entwickelt. Bos’ Labor sammelte zunächst Daten in einem autonomen Fahrzeug der Michigan Tech im dichten Schnee, und über 1.000 Frames von Lidar-, Radar- und Bilddaten wurden von schneereichen Straßen in Deutschland und Norwegen gesammelt.

Laut Bos ist die Sensordetektion aufgrund der Vielfalt des Schnees schwierig. Es ist wichtig, die Daten vorzuverarbeiten und eine genaue Kennzeichnung sicherzustellen.

“Nicht alle Schneemengen sind gleich”, sagte Bos. “KI ist wie ein Koch – wenn Sie gute Zutaten haben, gibt es ein exzellentes Essen”, sagte er. “Geben Sie der KI-Lernnetzwerk schmutzige Sensordaten, und Sie erhalten ein schlechtes Ergebnis.”

Einige andere große Herausforderungen umfassen niedrigwertige Daten und Schmutz, und der Schneeanfall auf den Sensoren verursacht seine eigenen Probleme. Selbst nachdem die Sensoren gereinigt wurden, besteht nicht immer Einigkeit bei der Erkennung von Hindernissen. Es ist oft sehr schwierig, die Sensoren und ihre Risikobewertungen zu kommunizieren und voneinander zu lernen, da jeder zu seinem eigenen Schluss kommen kann. Das Team möchte jedoch, dass autonome Sensoren durch die Verwendung von Sensorfusion zu einem Schluss kommen.

“Anstatt strikt abzustimmen, werden wir durch die Verwendung von Sensorfusion eine neue Schätzung erstellen”, sagt Bos.

Autonome Fahrzeug-Sensoren werden weiterhin lernen und verbessern, wenn sie in schlechtem Wetter fahren, und neue Ansätze wie Sensorfusion könnten den Weg für autonome Fahrzeuge auf schneereichen Straßen ebnen.

Alex McFarland ist ein KI-Journalist und Schriftsteller, der die neuesten Entwicklungen im Bereich der künstlichen Intelligenz erforscht. Er hat mit zahlreichen KI-Startups und Veröffentlichungen weltweit zusammengearbeitet.