Wissen über IoT, Connected Cars und Smart Mobility

AN014 Autonomes Fahren: Video- und Radarsensorik

In dieser Folge reden wir mit Paul Balzer über Autonome Fahrzeuge, genauer gesagt über die Video- und Radarsensorik, die den Autos das Sehen ermöglichen.

Inhalt

  • Kamera: Arten, Bilderkennung/Algorithmen
  • Radar: Arten
  • Lidar: Arten, Algorithmen
  • Autonomiestufen

Shownotes

Dauer: 1:29:00
Veröffentlicht am 30. Oktober 2017
Mitwirkende

Kommentare

Al

Gutes Podcast. So weit ich das verstehe, haben doch alle neuen Fahrzeuge relativ Leistungsstarke Rechnersysteme am Bord, also sowas wie Tegra von NVidia oder sowas. Ist das immer noch nicht ausreichend um autonomes fahren zu ermöglichen? Oder ist die Hardware ok aber die Software ist lange nich so weit?

Antworten

Paul

Hi Al, ich möchte die Antwort nicht in Textform geben, dazu zeichnen wir in den nächsten Tagen noch einen Podcast auf. Es ist nicht so einfach. Das Verarbeiten der Bilder ist eine Sache, aber das ‘Verstehen’ was darauf zu sehen ist, die andere.
Das hatte ich an dem Beispiel mit dem Ball gesagt. Man kann einen Ball detektieren, der auf die Straße gesprungen kommt, aber was weiß das Auto von der Gefahr, die gleich folgen könnte? Ein Mensch weiß das, hat Simple Common Sense, rechnet mit einem Kind, was hinterher läuft. Aber wie will man das einem Computer beibringen? Man kann ihm ‘von Hand’ reinprogrammieren, dass er mit einem Kind rechnen soll, wenn ein Ball auf die Straße rollt, aber dann hat man nur 1 von 1000 Beispielen da drin abgebildet, welche in der Realität auftreten können.

Schau dir mal diesen Beitrag an: http://www.cbcity.de/analyse-der-weg-zum-selbstfahrenden-auto-ist-noch-lang

Spoiler: Die Hoffnung liegt auf Deep-Learning, d.h. künstlichen neuronalen Netzen, die dann hoffentlich bald viele Situationen abbilden können. Aber wie gesagt, dazu nehmen wir bald eine Allesnetz Folge auf! Stay Tuned.

Antworten

Schreibe einen Kommentar zu Paul Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht.