1. Startseite
  2. Ratgeber
  3. Auto

Tesla: Full Self-Driving erkennt Kinder nicht – Tester sollen Videos löschen

Erstellt:

Von: Simon Mones

Kommentare

In einem Test übersah Teslas FSD-System Kinderpuppen und überfuhr sie – nun fordert der Autobauer, dass die Videos davon gelöscht werden

Update vom 29. August 2022, 15:40 Uhr: Tesla wehrt sich gegen die Kritik an seinem „Full Self-Driving“-System (FSD) durch „The Dawn Project“. Wie die Nachrichtenagentur Reuters berichtet, hat der Elektroautobauer die Gruppe aufgefordert, die Videos zu entfernen, die zeigen, wie eine Kinderpuppe von einem Tesla mit aktivierten FSD überfahren wird. Der Hersteller bezeichnete die Clips als „verleumderisch“ und „irreführend“.

Das Unterlassungsschreiben von Tesla veröffentlichte „The Dawn Project“ auf seiner Website. „Die angeblichen Tests missbrauchen und stellen die Fähigkeiten der Tesla-Technologie falsch dar und ignorieren weithin anerkannte Tests unabhängiger Agenturen sowie die Erfahrungen, die unsere Kunden gemacht haben“, heißt es darin. Die durchgeführten Tests seien „wahrscheinlich betrügerisch“. Tesla drohte mit rechtlichen Schritten.

Der nicht unumstrittene Gründer von „The Dawn Project“, Dan O’Dowd, bezeichnete das Tesla-Schreiben als den „bizarrsten Unterlassungsbrief“, den er je gesehen habe. „Unsere Tests sind absolut legitim und nicht irreführend“, schreibt O‘Dowd. „Wir haben die Rohdaten bereitgestellt und eidesstattliche Erklärungen der Teilnehmer eingeholt und zur Verfügung gestellt.“ Das Schriftstück von Tesla sei reine „Marketingpropaganda.“

Erstmeldung vom 11. August 2022, 11.39 Uhr: Sowohl der „Autopilot“ als auch das teurere „Full Self-Driving“ (FSD) bringen Tesla immer wieder Kritik ein. So kommt es immer wieder zu Unfällen, weil die Fahrer den Systemen komplett vertrauen, obwohl es sich streng genommen nur um Fahrassistenten handelt. Daher wurde Tesla in Kalifornien wegen irreführender Werbung von den US-Behörden verklagt. Elon Musk (52) ist sogar so überzeugt vom FSD, dass der die Beta-Version auf von seinen Kunden auf öffentlichen Straßen testen lässt. Wie gefährlich das ist, demonstrieren Nutzer immer wieder mit Videos. So auch das „The Dawn Project“, dass auf die Gefahren für Kinder aufmerksam machen will.

Diese soll das „Full Self-Driving“ von Tesla nämlich nicht korrekt erkennen und somit eine tödliche Gefahr für Kinder darstellt, so der Vorwurf. Für die Tests wurde eine Puppe in Kindergröße auf der Straße platziert und ein Tesla mit aktiviertem FSD fuhr mit 40 km/h darauf zu.

Tesla Model 3
Das Full Self-Driving von Tesla steht immer wieder in der Kritik. (Symbolbilder) © Tesla

Tesla: Full Self-Driving erkennt Kinder nicht

Das Resultat dieser Tests fällt ziemlich ernüchternd aus: Nicht ein einziges Mal bremst der Tesla für das Kind ab. Ähnliche Ergebnis gab es bereits bei anderen Tests, bei denen Kinder ebenfalls nicht erkannt wurden. So hat das System beispielsweise auch Probleme, Hunde und Katzen zu erkennen.

„Elon Musk behauptet, dass die FSD-Software großartig ist“, erklärt The-Dawn-Project-Gründer Dan O’Dowd in dem kurzen Clip und fügt hinzu: „Ist sie aber nicht!“ Viel mehr sei das „Full Self-Driving“ eine Gefahr für alle Amerikaner. Mit den Tests sollen die Schwachstellen dargelegt werden und so Druck auf die US-Politik ausgeübt werden, die Funktion zu verbieten. Und zwar so lange, bis die Elektroautos von Tesla „keine Kinder mehr niedermähen“, schreibt O‘Dowd auf Twitter.

Tesla: Full Self-Driving in der Kritik

Doch auch der Gründer des „The Dawn Project“, das für ein sicheres Zusammenspiel von Menschen und Computer sorgen will, steht in der Kritik. Der Grund: Er hat ein Unternehmen, das im Bereich von Selbstfahrenden Autos tätig ist. O‘Dowd betont jedoch, dass es keine Konkurrenz zu Tesla gebe und die Software seiner Firma von den Autoherstellern nur in wenigen Komponenten genutzt werde.

Noch mehr spannende Auto-Themen finden Sie im kostenlosen Newsletter von 24auto.de, den Sie gleich hier abonnieren können.

Dass die Kritik an Tesla FSD-System nicht unbegründet ist, beweisen die zahlreichen Unfälle. Entsprechend untersucht auch die US-Verkehrsbehörde NHTSA einen Zusammenhang. In Deutschland musste der US-Hersteller einer Kundin sogar Geld zurückerstatten, da ein Gericht die Software für zu gefährlich hielt.

Auch interessant

Kommentare