In dieser Folge reden wir mit Paul Balzer über Autonome Fahrzeuge, genauer gesagt über die Video- und Radarsensorik, die den Autos das Sehen ermöglichen.
Inhalt
-
Kamera: Arten, Bilderkennung/Algorithmen
-
Radar: Arten
-
Lidar: Arten, Algorithmen
- Autonomiestufen
Shownotes
- Hochschule für Technik und Wirtschaft Dresden
- Sensorik Überblick
- Computer Vision
- Radar
- Rohmesswerte vom Radar
- False-Positive von Video
- Vortrag von Mercedes
- SAE Level
- Autonomes Fahren
- Tesla Autopilot
- 6D-Vision
- CCD-Sensor
- LIDAR
- ACC
Dauer: 1:29:00
Veröffentlicht am 30. Oktober 2017
Gutes Podcast. So weit ich das verstehe, haben doch alle neuen Fahrzeuge relativ Leistungsstarke Rechnersysteme am Bord, also sowas wie Tegra von NVidia oder sowas. Ist das immer noch nicht ausreichend um autonomes fahren zu ermöglichen? Oder ist die Hardware ok aber die Software ist lange nich so weit?
Hi Al, ich möchte die Antwort nicht in Textform geben, dazu zeichnen wir in den nächsten Tagen noch einen Podcast auf. Es ist nicht so einfach. Das Verarbeiten der Bilder ist eine Sache, aber das ‘Verstehen’ was darauf zu sehen ist, die andere.
Das hatte ich an dem Beispiel mit dem Ball gesagt. Man kann einen Ball detektieren, der auf die Straße gesprungen kommt, aber was weiß das Auto von der Gefahr, die gleich folgen könnte? Ein Mensch weiß das, hat Simple Common Sense, rechnet mit einem Kind, was hinterher läuft. Aber wie will man das einem Computer beibringen? Man kann ihm ‘von Hand’ reinprogrammieren, dass er mit einem Kind rechnen soll, wenn ein Ball auf die Straße rollt, aber dann hat man nur 1 von 1000 Beispielen da drin abgebildet, welche in der Realität auftreten können.
Schau dir mal diesen Beitrag an: http://www.cbcity.de/analyse-der-weg-zum-selbstfahrenden-auto-ist-noch-lang
Spoiler: Die Hoffnung liegt auf Deep-Learning, d.h. künstlichen neuronalen Netzen, die dann hoffentlich bald viele Situationen abbilden können. Aber wie gesagt, dazu nehmen wir bald eine Allesnetz Folge auf! Stay Tuned.