Willkommen |
|
myGully |
|
Links |
|
Forum |
|
|
|
 |
11.08.23, 15:23
|
#1
|
working behind bars
Registriert seit: Apr 2013
Beiträge: 3.182
Bedankt: 13.609
|
Tesla Autopilot und die Risiken
Hand aufs Herz - ist hier jemand, der das "Full Self-Driving" Feature von Tesla im normalen Verkehr in D nutzt?
Zitat:
Systemversagen
Video zeigt, wie "selbstfahrender" Tesla ungebremst in Polizeiauto kracht
US-Behörden untersuchen auch einen weiteren tödlichen Unfall, bei dem der Autopilot von Tesla aktiv gewesen sein soll. Seit 2016 sind 23 Menschen ums Leben gekommen
"Full Self-Driving", also vollständig autonomes Fahren: Genau das verspricht Tesla-Chef Elon Musk seit Jahren mit einer gewissen Regelmäßigkeit für die jeweils gerade nahe Zukunft. Mit ebenso großer Regelmäßigkeit wird dann aber nie etwas daraus, beim "Autopiloten" des Unternehmens handelt es sich auch im Jahr 2023 noch immer um ein etwas besseres Fahrassistenzsystem, wie es auch andere Hersteller bieten. Das bedeutet auch: Die Fahrenden dürfen sich auf keinen Fall vollständig darauf verlassen, davor warnt auch Tesla selbst.

Der Autopilot von Tesla funktioniert in vielen Fällen gut, das verleitet viele aber offenbar zu einem leichtsinnigen Umgang, der immer wieder auch tödlcih endet.
Ignorierte Warnungen
Warnungen, die aber bei vielen Tesla-Besitzern nicht so recht anzukommen scheinen, wähnen sich diese doch allzu oft schon jetzt im von Musk versprochenen "selbstfahrenden" Gefährt. Welch verheerende Konsequenzen das haben kann, demonstriert nun ein vom "Wall Street Journal" veröffentlichtes Video. Darin zu sehen: ein schwerer Unfall mit aktiviertem Tesla-Autopilot aus mehreren Perspektiven. Und zwar einer, bei dem das Fahrzeug bei 86 km/h komplett ungebremst in ein Polizeifahrzeug kracht, obwohl dieses die Warnlichter aktiviert hat.
Eine wichtige Anmerkung zwischendurch für all jene, die am unter diesem Absatz eingebetteten Video Interesse haben: In diesem ist nicht nur Sachschaden zu sehen, auch Verletzte werden gezeigt. Darauf sollte man also vorbereitet sein, bevor man dieses abspielt.
[ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ]
Tesla Dashcam Footage Suggests Reasons for Autopilot Crashes
Ein Video zeigt gleich mehrere schwere Unfälle, bei denen der Autopilot von Tesla versagt.
Immer und immer wieder
Dass es sich bei diesem Vorfall um keine Ausnahme handelt, zeigt sich an einem anderen Umstand: Seit dem Jahr 2016 hat die US-Verkehrssicherheitsbehörde in mehr als drei Dutzend Fällen, bei denen der Tesla-Autopilot aktiviert war, Untersuchungen eingeleitet. Bei diesen kamen in Summe 23 Menschen ums Leben.
Die mangelhafte Erkennung von stehenden Einsatzfahrzeugen ist dabei eine bekannte Schwäche der Software, so geht es alleine in 16 dieser Fälle um entsprechende Situationen. Tesla hat zwischenzeitlich immer wieder Änderungen am Autopiloten vorgenommen und verspricht mittlerweile, dass dieser auf Warnlichter mit einer Verlangsamung der Fahrt und Ausweichmanövern reagiert. Doch auch seit dieser Änderung gab es wieder mehrere ähnliche Unfälle.
Zum Teil dürfte die Software dabei versagen, wenn die Sicht getrübt ist, in einem der oben erwähnten Videos erschwert etwa Nebel den Kameras von Tesla die Erkennung. Im Gegensatz zu anderen Herstellern wie Waymo oder Cruise, die an wirklich autonom agierenden Fahrzeugen arbeiten, verzichtet Tesla auf Spezialhardware zur Erkennung der Umgebung. Das hat dem Unternehmen immer wieder Kritik eingebracht, während Musk davon überzeugt ist, dass die Erkennung mittels Kameras vollständig ausreicht.
Die Frage der Verantwortlichkeit
Generell muss betont werden, dass es sich bei den gezeigten Beispielen allesamt um Fälle handelt, wo die Fahrer eigentlich hätten eingreifen müssen. Immerhin verweist Tesla vor der Nutzung dieses Systems darauf, dass man immer auf die Straße achten und zur Übernahme der Steuerung bereit sein sollte.
Gleichzeitig muss sich Tesla aber den Vorwurf gefallen lassen, dass man in der öffentlichen Kommunikation anderes verbreitet. Wenn Musk selbst immer und immer wieder davon spricht, dass die eigene Software schon bald vollständig autonom fahren kann, erzeugt das natürlich gewisse Erwartungshaltungen, die den Leichtsinn mancher weiter befeuern.
Dass solche besseren Assistenzsysteme aber auch ohne überzogene Versprechen eines Firmenchefs zur Leichtsinnigkeit verleiten, haben andere Hersteller ebenfalls bereits feststellen müssen. So hat die Google-Schwester Waymo bereits vor einigen Jahren ein ähnliches Fahrassistenzniveau erreicht, in dessen Folge man eine wachsende Leichtsinnigkeit der eigenen Testfahrer bemerkte. Diese Erkenntnis führte zur Entscheidung, kein solches Assistenzsystem zu veröffentlichen, sondern sich auf wirklich vollständig autonom fahrende Fahrzeuge zu konzentrieren.
Der nächste Vorfall
Fast zeitgleich zum Bericht des "Wall Street Journal" wurde ein weiterer tödlicher Unfall mit einem Tesla Model Y im US-Bundesstaat Virginia bekannt. Das Auto hatte einen auf einem Highway fahrenden Lkw gestreift und war in der Folge unter diesen geraten. Der 57-jährige Fahrer starb noch an der Unfallstelle. Auch in diesem Fall ermittelt die US-Verkehrssicherheitsbehörde, man geht davon aus, dass der Autopilot aktiv war.
Quelle:[ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ]
|
Ein "Feature", das ich in diesem Leben garantiert nicht mehr brauche.
|
|
|
Die folgenden 2 Mitglieder haben sich bei Uwe Farz bedankt:
|
|
Forumregeln
|
Du kannst keine neue Themen eröffnen
Du kannst keine Antworten verfassen
Du kannst keine Anhänge posten
Du kannst nicht deine Beiträge editieren
HTML-Code ist Aus.
|
|
|
Alle Zeitangaben in WEZ +1. Es ist jetzt 23:47 Uhr.
().
|