Die Vision von CEO Elon Musk ist, dass Millionen Elektroautos von Tesla künftig allein mithilfe von Kameras autonom unterwegs sein werden. Dieser Ansatz verspricht Kostenvorteile gegenüber konkurrierenden Technologien. Doch eine aktuelle Auswertung der US-amerikanischen National Highway Traffic Safety Administration (NHTSA) rückt mögliche Schwächen dieses Konzepts in den Fokus.
Die Behörde hat ihre Untersuchung von Teslas Fahrassistenzsystem ausgeweitet. Grundlage sind Unfalldaten, die laut NHTSA „die Sorge aufkommen lassen, dass die Technik Probleme bei schlechten Sichtbedingungen haben kann“. Damit bestätigt die Analyse eine zentrale Kritik, die von Experten und Wettbewerbern schon länger geäußert wird.
Während Musk weiterhin auf ein kamerabasiertes System setzt, verfolgen andere Entwickler einen breiteren Ansatz. Unternehmen wie die Google-Schwester Waymo nutzen zusätzlich Technologien wie Laser-Radare, um die Umgebung präziser zu erfassen. Diese Systeme gelten als robuster bei schwierigen Sichtverhältnissen, sind jedoch kostenintensiver.
Im Zentrum der Untersuchung steht Teslas System „Full Self-Driving“ (FSD). Trotz seines Namens handelt es sich bislang lediglich um ein Fahrassistenzsystem, bei dem die Fahrer jederzeit die Kontrolle behalten müssen. Tesla unterscheidet zwischen einem „beaufsichtigten“ Modus und einer weiterentwickelten Version, die in den USA derzeit nur als Beta getestet wird und künftig vollständig autonomes Fahren ermöglichen soll. Auch in Europa bemüht sich der Konzern um die Akzeptanz und Genehmigung seiner fortschrittlichsten Selbstfahr-Technologie.
Besonders kritisch bewertet die NHTSA die Reaktionsfähigkeit des Tesla-Systems bei eingeschränkter Sicht. Nach Angaben der Behörde erkannte das FSD-System in untersuchten Unfällen nicht, wenn Kameras etwa durch Blendung oder Partikel beeinträchtigt waren. Entsprechend wurden keine Warnungen ausgegeben, sodass Fahrer nicht genügend Zeit bekommen hätten, um zu reagieren. Betroffen sind Modelle ab dem Baujahr 2016.

Powerwall Thorsten meint
Noch zwei Aufreger für die Bürogemeinschaft.
Was sagt ihr wohl, wenn die Niederlande Mitte April das Tesla Supervised FSD durchwinken wird – oder schaut euch lieber das aktuelle Video Tesla Semi Part Deux an – treibt den Puls dann sicher auch noch mal in neue Höhen.
;-)
M. meint
Wenn die Niederlande die Ausnahmegenehmigung durchwinkt, kann man – in den Niederlanden – FSD nutzen. Und? Für den Rest der Welt ändert sich damit nichts.
Ein weiteres L2-System, und eins, das – darum geht es hier doch – klare Limits hat.
hu.ms meint
…oder die NL werden durch die neue überprüfung der US-betriebsgenemigung auf defizite aufmerksam und denken nochmal darüber nach…
Future meint
Wenn NL das macht, dann folgen die anderen europäischen Länder. Deutschland wird es natürlich herauszögern wegen der hohen Geschwindigkeiten, die hier gefahren werden. Damit kommen nur Menschen klar und keine Maschinen, wie man immer wieder an dem Stammtischen in den Gewerbegebieten hören kann.
M. meint
Du treibst dich also an Stammtischen in Gewerbegebieten rum.
Das erklärt ja so einiges von dem, was du hier zum Besten gibst.
Paule meint
Wird immer Leute geben, die in jeder technischen Neuerung ein Risiko sehen und interpolieren, was alles passieren kann. Und wenn dann tatsächlich Rückschläge kommen, werden sie beklatscht.
Nicht lange, tauchen sie ab und müssen feststellen, die Entwicklung ist an ihnen vorbei gegangen. Und sehen, die Menschen sind bereit, Risiken einzugehen, um in drei Stunden von Berlin nach Malle zu kommen. Auch, wenn ab und zu mal einer runterfällt.
Future meint
Warum darf ein Autofahrer eigentlich noch im Nebel oder bei Dunkelheit fahren, wenn die Augen ohne Radar dabei so wenig sehen können? Warum darf ein Autofahrer auf der linken Spur mit 200 km/h ohne Radar fahren, obwohl der Anhalteweg bei der Geschwindigkeit ca. 450 Meter beträgt? Es gibt verpflichtende regelmäßige Gesundheitschecks für Führerscheinbesitzer ab einem bestmmten Alter bereits in Spanien, Italien, Portugal, Dänemark, Griechenland und Tschechien. Warum gibt es sowas nicht in Deutschland? Alle verkehrsuntüchtigen älteren Autofahrer könnten dann wenigsten rechtzeitig aussortiert werden.
M. meint
Vielleicht brauchtnTesla einfach nur Kameras, die etwas näher an die Leistung menschlicher Augen herankommen.
Ich will nicht zu viel verraten, aber mit „Auflösung“ alleine ist es nicht getan.
bs meint
as menschliche Auge ist auch nicht perfekt. Es gibt regelmäßig Unfälle weil der Fahrer durch Sonne oder Gegenlicht geblendet wurde. Vielleicht müsste man dazu auch mal Untersuchungen einleiten.
Übrigens, das Problem ist schon längst vom Tisch. Ein SW Update hat das Problem schon (ausreichend) beseitigt.
M. meint
Schöner Nick. Das Problem, dass die Kamera nichts sieht, wurde per Update gelöst.
Nimmt man die hintere Kamera?
Ihr macht euch doch nur froh.
Fred Feuerstein meint
Da spricht der langjährige Experte aus dem Bereich „Autonomes Fahren“…Der Bachelor muss es wissen.
Powerwall Thorsten meint
Man merkt eben, dass du entweder noch gar nie oder schon lange nicht mehr in einem Tesla gesessen bist.
Wenn ich bei Dunkelheit durch einen Ort fahre, sehe ich auf dem Display. Fußgänger oder Radfahrer in dunkler Kleidung, un beleuchtet ich sie selbst gesehen hätte.
So ist das halt mit der Meinung ohne Ahnung.
M. meint
Ganz offensichtlich teilt die NHTSA deine Meinung nicht, aber vielleicht haben die auch schon zu lange keinen Tesla mehr gefahren.
hu.ms meint
Wieder mal ein netter ablenker mit der dunkelheit, Thorsten.
Der NHTSA geht aber um nebel und starkregen !
Jörg2 meint
Es ist sinnvoller, Kamerasysteme zu verwenden, die die Minderleistungen des menschlichen Auges NICHT haben (s. Auflösungsverteilung im menschlichen Auge).
M. meint
Das Ergebnis ist wie es ist. Da kannst du jetzt an Definitionen rumbasteln, solange du willst.
Jörg2 meint
M
Ich habe nichts definiert. Wo list Du soetwas?
Das menschliche Auge hat nicht die gleichen Eigenschaften, wie ein Kamerasystem. Am besten sieht man das im Bereich der Auflösung (Auge: sehr ungleichmäßig, Kamerasystem: im Idealfall über den Bereich gleich) oder auch in den Möglichkeiten, mit Minderbeleuchtung im System umzugehen (was sich jeder bereits bei simplen Rückfahrsystemen ansehen kann).
Also: Ich möchte keine Kameras verbaut wissen, die auf die Eigenschaften des menschlichen Auges begrenzt sind. Du offenbar (?)
M. meint
Du unterstellst menschlichen Augen eine Minderleistung ggü. (kommerziellen, mindestens) Kameras und definierst die Auflösungverteilung zum (einzigen, andere hast du nicht genannt) Parameter.
Das hättest du aber selbst merken können.
Weißt du, was ich im Auto nicht möchte: dass jemand mit deiner Auswahlstrategie entscheidet, was verbaut wird, und warum. Das wird ein Desaster.
Daher – mal wieder, leider, ein Angebot: du versuchst, dich darüber selbst zu informieren (am besten nicht bei Tesla, soviel kann ich vorwegnehmen), was ein Auge im Vergleich zu einer Kamera so kann (und was nicht). Falls du das nicht schaffst, das Bescheid. Im Sinne des echten, unabgängigen Verständnisses des Themas helfe ich dir.
MK meint
@Future:
Der zweite Teil Ihres Kommentars gibt ja eigentlich schon die Antwort auf Ihre Fragen: Dass menschliche Fahrer es in Deutschland tun (dürfen), ist weder sinnvoll noch sicher…schwere Unfälle gibt es ja immer wieder…und was z.B. die 200 km/h angeht: Da ist Deutschland weltweit das einzige Land, wo das überhaupt erlaubt ist. Entsprechend muss man aber natürlich auch die Frage stellen, ob es für Autohersteller Sinn macht, Systeme zu entwickeln, die autonomes Fahren bei mehr als 130 km/h ermöglichen würden.
hu.ms meint
Weil er ein mensch ist mit fähigkeiten, die die einer maschine – insbesondere nur camerabasiert – bei weitem übersteigen.
Mit zusätzlich wellenbasierter ausrüstung wird der abstand dann in bestimmten situationen geringer – bei nebel oder starkregen sogar besser. Aber das will ja Elon partout nicht !
Future meint
Der Mensch überschätzt seine »Fähigkeiten« regelmäßig. Das ist vermutlich auch der Grund, warum es in Deutschland keine verpflichtenden Gesundheitschecks für Autofahrer gibt. Nicht einmal die Augen werden untersucht. Ich glaube, die Maschine kann die eigenen Fähigkeiten sehr viel besser einschätzen, weil die Emotion fehlt. Zudem ist die Maschine dazu in der Lage, lebenslang zu lernen. Die Maschine wird gewinnen gegenüber dem Menschen – es ist nur eine Frage der Zeit.
hu.ms meint
Die zeit kann aber noch sehr lange sein…
NeutralMatters meint
Wenn selbst ein verhältnismäßig günstiger Sandero eine Kamera, Ultraschallsensoren und ein Radar verbaut haben, verstehe ich bis heute nicht Teslas beinahe absurd-verbohrten Ansatz nicht, auf alles, außer den Kameras zu verzichten.
Gerade die Redundanz, gerade die Möglichkeit Systeme gegenseitig abzusichern, erhöht die Zuverlässigkeit und Sicherheit – nicht das Weglassen ebendieser.
Aber nach Rationalität braucht man bei Tesla auch nicht mehr fragen.
Powerwall Thorsten meint
Siehe Verständnis zu Redundanzen und Sinn dieser wenn es unterschiedliche Systeme sind.
Manche wollen einfach nicht verstehen
M. meint
Du zum Beispiel.
hu.ms meint
Redundanzen: bei schönwetter wird mit cameradaten gefahren, wenn diese zu wenig sieht werden wellenbezogene systeme mehr gewichtet.
Wo soll das problem sein ?
Andi EE meint
@ecomento.de
„Unternehmen wie die Google-Schwester Waymo nutzen zusätzlich Technologien wie Laser-Radare, um die Umgebung präziser zu erfassen.“
Das ist Unwissen oder eine Lüge die ihr hier verbreitet. Lidar kann weder den Strassenrand noch Spuren präzise erkennen. Ihr solltet nicht wiederholt technisch falsche Dinge behaupten. HD Maps (Waymo) gibt es nur aus einem einzigen Grund, weil die Automatik das eben nicht sicher erkennen kann. Ihr solltet das korrekt im Text darstellen, dass Waymo hier ohne Vorarbeit und Kartographie, keine „Autonomie“ bieten kann.
Konkret, Lidar eben kein präziser Sensor bezüglich dieser Umgebung ist, wie ihr das falsch darstellt. Wenn sich kaum was 3D absetzt (Strassenrand und Spuren), ist der Senor blind. Es ist falsch, den wichtigsten Teil der Umgebung, die Basics (Strassenrand und Spuren) beherrscht das System nicht. Nur in Zusammenhang mit der virtuellen Umgebung (HD Maps, Geofencing, GPS) funktioniert es.
David meint
Was alle anderen Hersteller außer Tesla machen, ist sogenannte Sensorfusion. Die Redaktion hat das völlig korrekt beschrieben. Es sind verschiedene Sensorsysteme als Spezialisten für bestimmte Disziplinen tätig.
Es gibt u.a. jede Menge Kameras. Die sehen zum Beispiel die Spuren. Es gibt aber auch eine HD Karte und die wird relevant, wenn im Gegenlicht die Frontkamera geblendet wird. Auch der Tesla fährt übrigens in solchen Momenten nach seiner Kartierung. Nur ist die nicht so gut. Und außerdem ist Gegenlicht der Moment, in dem bei Tesla viele Unfälle passieren. Denn der Tesla kann den langsameren Motorradfahrer vor sich nicht sehen.
Dagegen kann der Waymo selbst wenn die Kamera geblendet ist, mit der Kombi aus Radar und Lidar Position, Geschwindigkeit und Gestalt des Hindernisses erkennen. Die Recheneinheit sagt dann, dass der schmale, hohe Gegenstand, der in gleicher Richtung mit nur 60 km/h vor einem fährt, ein Motorrad ist.
Powerwall Thorsten meint
Ach deswegen gibt es so viele WEMO Videos die im Moment Einsatzfahrzeuge blockieren Dumm hin und her fahren etc- weil sie alles top erkennen – ich verstehe
Und deswegen funktioniert deine geniale redundante Sensorfusion auch überall so gut – ich verstehe.
Vielleicht solltest du nicht einfach irgendwelche Texte lesen und Leute, die davon wirklich Ahnung haben, einfach ihre Arbeit machen lassen.
Andi EE meint
@David
„Es sind verschiedene Sensorsysteme als Spezialisten für bestimmte Disziplinen tätig.“
Es zählt nicht die Anzahl der Sensoren, sondern die Güte der Auswertung, du bist wirklich ein limitierter Spezialfall.
„Es gibt u.a. jede Menge Kameras. Die sehen zum Beispiel die Spuren.“
Auch hier sieht man wie ahnungslos du bist, einem Strich nachfahren kann jeder, aber was passiert, wenn mit dem Strich Schluss ist. Du musst auch ohne / mit grossen Unterbrechungen, mit hunderten Variationen auskommen. Du hast wirklich null Ahnung von der Materie. Mit der Kamera hast du nicht mal ein Promill eines Promilles gelöst, ein Millionstel der Aufgabe vielleicht. Das was entscheidet ist die Auswertung des Videostreams. Mit händischer Programmierung ist es auch Tesla nicht gelungen, substanziell vorwärts zu kommen, erst das maschinelle Lernen hat den Durchbruch gebracht.
Es ist unmöglich, mit menschlicher Programmierung all diese diversen Muster die man alle korrekt verstehen und interpretieren muss, zu erkennen. Nur die KI (Training) kann das.
„Es gibt aber auch eine HD Karte und die wird relevant, wenn im Gegenlicht die Frontkamera geblendet wird.“
So ein Quatsch, schau doch mal auf die Visualisierung bei Waymo, da sind Strassenränder und Spuren drin, wo das Fahrzeug gar nicht hinsehen kann. Wie soll das bitte entstehen auf der Visualisierung, wenn es nicht aus der HD Map kommt?Auch hier wieder, du behauptest einfach was.
„Auch der Tesla fährt übrigens in solchen Momenten nach seiner Kartierung. Nur ist die nicht so gut.“
Eine Kartierung brauchst du, damit du das Ziel autonom erreichen kannst. Zwischen einer HD Map und einer Google Map bestehen riesige Unterschiede. Aber mit dir das zu diskutieren, bringt einfach nichts. Du bist ein Ideologie ohne technische Ahnung.
„Dagegen kann der Waymo selbst wenn die Kamera geblendet ist, mit der Kombi aus Radar und Lidar Position, Geschwindigkeit und Gestalt des Hindernisses erkennen.“
Aber den Strassenrand und die Spuren nicht. Der kann keinen Meter ohne HD Map sicher fahren. Waymo könnte keine 100 Meter sicher bei dir Zuhause um den Block fahren.
hu.ms meint
Andi,
es geht doch nicht um entweder oder sondern um sowohl als auch.
Wenn das camerasystem witterungsbedingt (starkregen, nebel u.a.) zu wenig sieht wird es durch wellenbasierte systeme ergänzt.
Einfach situationsbedingt immer die besten systeme priorisieren.
Ganz einfach. Aber einfach ist wohl nicht Elons sache…
Fred Feuerstein meint
Schönes Beispiel dass du da bringst, das zeigt dass du keine Ahnung hast. Bei deinem Beispiel mit dem Starkregen sieht LIDAR nichts.
hu.ms meint
Na Fredi,
habe ich was von lidar geschrieben ?
Empfehle zu verstehen, was da steht und nicht eingeschänkt zu antworten.
Offensichtlich ist dir nicht bekannt welches wellenbasierte system bei starkregen verwendet werden kann.
Fred Feuerstein meint
humsi, der selbsternannte Experte für das automatisierte Fahren redet von wellenbasierte systemen…Können wellenbasierte Systeme (Radar und Lidar) bei Starkregen oder Nebel die Fahrspuren erkennen? Nein. Taugt überhaupt Lidar bei Starkregen: Nein…Bleibt noch das Radar. Und selbst das wird bei Starkregen gestört. Na ja, nicht in deiner Welt mit fünfphasigen Kabel…
hu.ms meint
Andi,
du hast wieder mal nicht verstanden was geschrieben wurde.
Es ist doch ganz einfach:
Unterschiedliche erkennungssysteme ergänzen einander – gerade bei den jeweiligen schwachstellen – und sind dadurch einfach besser als nur eines alleine.
Das weiss sogar Elon. Der will aber beweisen, dass es nur mit cameras funktioniert.
Bis dahin – vielleicht auch nie – wird es die zulassungsbehörde gewaltig einschränken !
Mark Müller meint
Jedem Ingenieur ist völlig klar, dass man in der Sicherheit immer redundante Systeme wählt, wenn es die zu vertretbaren Kosten gibt.
Wir menschlichen Tiere haben zwar weder Laser noch Radar, nutzten dafür Millionen von Jahren, um die Sehleistung zu optimieren. Fledermäuse fahren redundant und segeln uns in der Dämmerung pfeilschnell um die Ohren.
Bei einem technischen System wie dem Auto kann ich mir keine Millionen von Jahren Evolution mit vielen Sackgassen und Opfern leisten, dafür kann ich eben zu einem vertretbaren Preis redundante technische Systeme basierend auf Laser und Radar einbauen.
Nur ein arroganter, überheblicher Egomane à la E.M. kann einfach seine Blitzidee gegen die ganze Ingenieurs-Erfahrung durchsetzen. Diese arrogante Fehleinschätzung wird der Firma das Rückgrat brechen.
Jörg2 meint
Mark
Die NHTSA untersucht in diesem Verfahren nicht, ob (oder welche) das System redundand aufgebaut ist. Es wird schlicht untersucht, ob das System, bei selbsterkanntem Ausfall, den Fahrer rechtzeitig darüber informiert.
Und: Natürlich ist ein nur auf Kameras aufgebautes System (welches Licht im menschlich sichtbaren Bereich verarbeitet) redundand aufbaubar.
M. meint
Möglich ist vieles, aber es wird weniger, wenn es kein Geld kosten darf – und das ist üblicherweise dort der Startpunkt für eine „technologische“ Entscheidung.
Und beim aktuellen L2 ist es noch möglich, einen Fahrer zu informieren.
Wen informierst du, wenn es keinen Fahrer mehr gibt?
Rechts ran, alle aussteigen, dieses Taxi endet hier, weil es dunkel wird, regnet, ne Fliege auf der Kamera sitzt, die Sonne zu tief steht?
Testet mal die Akzeptanz, bevor ihr das groß ausrollt.
Jörg2 meint
M
Antwortest Du auf meinen Beitrag?
Powerwall Thorsten meint
Du beschreibst den „Stau-Assistenten“ von Mercedes (Level 3 Weltmeister), oder?
M. meint
Die Antworten solltet ihr euch selbst geben können.
Jörg, dein letzter Abschnitt – brauchst du Hilfe bei der Zuordnung?
Und T., stelle dir einfach ein Robotaxi vor, das nichts mehr sieht.
Da braucht man nicht auf Merc abzulenken.
Jörg2 meint
M
Meinst Du das?
„… Und: Natürlich ist ein nur auf Kameras aufgebautes System (welches Licht im menschlich sichtbaren Bereich verarbeitet) redundand aufbaubar…“
Wenn ja, was gefällt Dir daran nicht?
Mark Müller meint
Eine Fledermaus kann noch fliegen, wenn ein Vogel nicht mehr fliegen kann.
Die Grenze der Wahrnehmbarkeit und des korrekten Funktionierens, bei der die Steuerung an den Fahrer abgegeben werden muss, kommt bei ihr deutlich später.
Powerwall Thorsten meint
Die zweite Kamera ist ja schon die Redundanz und davon gibt es acht – einige nach vorne, einige zur Seite einige nach hinten – aber das verstehen die Leute hier offensichtlich nicht oder besser gesagt, sie wollen es nicht verstehen, weil man muss Tesla in irgendeiner Weise beschädigen.
M. meint
Bei der Schädigung der Firma ist niemand auch nur annähernd so effektiv wie der Chef.
Der macht es für denkende Menschen nahezu unmöglich, dieses Fahrzeug zu wählen, lange bevor technische Mängel überhaupt zu einer Entscheidung beitragen können.
Dienanderen sind die, die sich um den Wert ihres Aktiendepots sorgen – dafür die Demokratie über die Klinge springen lassen? Kein Problem.
Aber wie gesagt: wenn die Sichtverhältnisse für die aktuell verfügbaren Kameras nichts hergeben, ist egal, wie viele man davon hat.
Und welcher davon der Computer jetzt glaubt. Oder gibt es dort vielleicht ein Informationsdilemma?
Andi EE meint
@Müller
Das ist jetzt kompletter Käse, wenn du auf dem Radar was siehst und mit dem optischen System nichts, dann machst du eine Vollbremsung? Dann weisst du genau genommen gleich wenig wie vorher, du weisst ja nicht was korrekt ist? 😄 Redundante Systeme sind z.B. in Flugzeugen, wo drei Anstellwinkelsensoren zurückmelden und bei Abweichung Messung, man auf die zwei Gleichen zurückgreift. Mit sehr hoher Wahrscheinlichkeit ist der Dritte der abweicht, falsch.
Es gibt sehr wenig Sensorfusion in der Technikwelt, die F-35 ist eines der wenigen Systeme wo es umgesetzt ist. Hier ist das Problem der Tarnung des Gegners vorhanden, wo man mit mehreren Sensoren (IR, elektro-optisch und Radar) eine möglichst präzise Detection-Rate zu erzielen versucht. Grad gegenüber den Bodenechos ist das Radar unpräzise und voller störenden Echos.
Im normalen Verkehr versucht sich eigentlich nichts zu tarnen. Die schwierigste Aufgabe im Verkehr, ist jederzeit sicher den Strassenrand zu entdecken. Das ist der Grund, wieso es Waymo nicht kann und trotz Sensorfusion, alles mit HD Maps zugefüttert werden muss. Waymo kann es nicht automatisch, hoffe das begreifst du endlich. Deine tolle Sensorfusion scheitert dort schon im Ansatz, weil Waymo den Strassenrand nicht autonom erkennen kann.
Paule meint
Das neueste System verwendet 13 Kameras statt 29, vier LiDAR-Sensoren statt fünf und sechs Radargeräte.
Finde, das ist im Gegensatz zu zwei Augen schon ein heftiger Aufwand. Habe den Verdacht, man will mit Hardware das kompensieren, was man mit Software nicht schafft.
Powerwall Thorsten meint
Seit wie vielen Jahren erklärt man dir, dass, ein LiDAR, ein Radar und 27+ Kameras, die zu einer unterschiedlichen Einschätzung der Situation kommen, einen Konflikt bekommen.
Dass so die richtige Enteignung nicht leichter wird verstehst du eines Tages auch noch.
Während wir in Deutschland im Jahr 2025 beinahe 3000 Verkehrstote haben diskutieren wir in der Ethik Kommission, ob ein autonomes Fahrzeug besser den Opa links oder die Mutter mit Kinderwagen rechts überfahren soll, wenn ein Bremsen nicht mehr möglich ist – Respekt
David meint
Wo ist denn jemals ein Unfall passiert, weil sich die Systeme untereinander „gestritten“ haben? Ich denke, das ist eine Kleinkinderlogik von Bachelor Murks, der nicht zugeben kann, dass er sich da in eine Sackgasse manövriert hat. Tatsächlich sind mehrere Sensorsysteme in fast allen aktuellen technischen Objekten kombiniert und arbeiten reibungslos zusammen. Dabei sind unplausible Werte ein häufiges Thema und Regeln und Bewertungen dazu sind lange eingeübt. Auch in kritischen Strukturen wie in Reaktoren oder zum Beispiel in der Luftfahrt.
Andi EE meint
Du bist der technische Tiefflieger hier, die Phantombremsungen wurden fast alle durchs Radar ausgelöst. Durch die Sensorfusion sind die Fehler primär entstanden!!! Die optische Erkennung durch die KI ist so viel besser als die damalige manuelle Programmierung, dass der Radarsensor zu 99.9999% nur Mist hinzufügt.
„Tatsächlich sind mehrere Sensorsysteme in fast allen aktuellen technischen Objekten kombiniert und arbeiten reibungslos zusammen.“
Bist du Verkäufer, du hast technisch so wenig Ahnung, das müsste passen.
„Auch in kritischen Strukturen wie in Reaktoren oder zum Beispiel in der Luftfahrt.“
Dann klar und doch bitte auf, wo es die Sensorfusion in der Luftfahrt gibt, Schwätzer.
Powerwall Thorsten meint
Ach so – mit den Level 2 Systemen der deutschen Althersteller gibt es keine Unfälle mehr?
Erzähl der Community bitte mehr darüber?
Mark Müller meint
Völlig richtig.
Unglaublich, wie Leute, die keine Ahnung haben, einfach etwas anderes behaupten können.
M. meint
„die Phantombremsungen wurden fast alle durchs Radar ausgelöst“
Jede von mir erlebte Phantombremsung wurde ohne Radar ausgelöst, weil keins verbaut war.
Daher mal wieder nur FUD.
Mark Müller meint
Da scheinen ein paar Tesla-, bzw. Musk-Gläubige ziemlich getroffen.
@ Thorsten: Erstens einmal geht es um Entscheidung und nicht um Enteignung (?). Wenn man verschiedene Technologien hat, die Umwelt wahrzunehmen, ergänzen sich Stärken und Schwächen der verschiedenen Systeme. Es ist informationstechnisch problemlos lösbar, die verschiedenen Inputs zu einem Gesamtbild zu verschmelzen und bei Widersprüchen eine sinnvolle Entscheidung zu treffen – das muss man bei einem Autopiloten sowieso dauernd.
@ Andi EE: Wie so oft erzählst du tüchtigen Unfug. Die von dir geschilderten Widersprüche im Output der verschiedenen Systeme sind sehr willkommen und können problemlos verarbeitet werden. Der üblichste Fall ist, dass das System einfach auf die sichere Seite kippt (Ich habe lange über 150 Informatiker geführt).
Irgendwie hast du dich da auf die Erkennung des Strassenrands verbohrt und kommst nicht mehr raus. Immer locker; das ist ein Problem von ganz vielen, und teilweise auch nur hermeneutisch lösbar.
Powerwall Thorsten meint
Mensch Mark – schön, daß du das offensichtlich von Siri falsch verstandene Wort immerhin als solches identifiziert hast.
Endet hier deine Argumentationskette?
Vielleicht solltest du mal eine E-Mail an Apple schreiben, damit die noch 2-3 Redundanzen für Siri einbauen, damit das endlich mal zuverlässig funktioniert.
Mark Müller meint
Das ist gerade mal die erste Zeile eines 14-zeiligen Beitrags und zum Schmunzeln gedacht. Offenbar konntest du aus Betroffenheit nicht mehr weiterlesen.
Dir persönlich würde ich empfehlen, endlich mal gegen Tesla zu klagen. Beim Kauf hatte dir Tesla versprochen, dass du das Gefährt over the air zum autonomen Fahren aufrüsten könntest, und du hast das geglaubt. Das ist ein klassischer Motiv-Irrtum aufgrund einer absichtlichen Täuschung und du hast gute Chancen vor Gericht.
Jörg2 meint
Lese ich es richtig? Es geht nicht um das „FSD“ ansich, sondern eher um die Reaktion des Systems, wenn es mit Sichtschwierigkeiten konfrontiert wird?
Also ähnlich der Situation, wenn ich plötzlich in Nebel hineinfahre?
Die Reaktionsmöglichkeit ist simpel: Geschwindigkeitsreduzierung auf den Sichtbereich. Bei Sicht Null -> Geschwindigkeit Null (rechts ran).
Ich möchte auch hier nochmal folgendes anmerken:
Wer die Forderung aufmacht, ein solches System (von welchem Hersteller auch immer) müsse besser „sehen“ können, als die anderen menschlichen Verkehrsteilnehmer, also praktisch mit höheren Geschwindigkeiten unterwegs sein können, als der übliche „menschliche“ Sichtbereich es zulässt… der muss dann den anderen, „nicht-autonomen“ Verkehrsteilnehern (Egon im alten Auto ohne Spielekram, Omma auf dem Fahrrad, Kleinfritzen hinter dem Ball…) erklären, dass urplötzlich und außerhalb des persönlichen Erfahrungshorizontes (und wohl dann auch außerhalb der StVO) Automaten angeschossen kommen, die vorher nicht sichtbar waren.
So lange der Fahrraum gemischt benutzt wird (autonom, nicht-autonom), wäre es mMn mehr als sinnvoll, wenn sich die Automaten an das Fahren nach menschlicher Sicht halten würden.
Powerwall Thorsten meint
Wenn jemand natürlich mit FSD – 2023 hieß es ja noch so – unter Nichtbeachtung der Bedienungsanleitung in eine dichte Staubwolke hineinfährt – ohne Worte
In unserer Zivilisation ist eben immer besser ein anderer schuld – eigenverantwortliches Handeln Fehlanzeige.
Aber deswegen stellen ja viele gerade ihre Bemühungen im Bereich des autonomen Fahrens ein – oder eben auf Vision um.
David meint
Nein, du liest das falsch. Es geht nicht darum, dass das System nichts kann – das steht außer Frage. Es geht um zwei Dinge: Erstens, warum alle anderen Hersteller ihre Systeme so hinbekommen, dass sie diese Probleme nicht haben, während Tesla weiterhin ein System betreibt, das in bestimmten Alltagssituationen regelmäßig versagt. Und zweitens, dass der Fahrer selbst dann nicht gewarnt wird, wenn das System mal wieder aussetzt, obwohl er sich gerade darauf verlässt.
Jörg2 meint
„Es geht um zwei Dinge: Erstens, warum alle anderen Hersteller ihre Systeme so hinbekommen, dass sie diese Probleme nicht haben, während Tesla weiterhin ein System betreibt, das in bestimmten Alltagssituationen regelmäßig versagt. Und zweitens, dass der Fahrer selbst dann nicht gewarnt wird, wenn das System mal wieder aussetzt, obwohl er sich gerade darauf verlässt.“
Die NHTSA interessiert sich dafür, dass „alle anderen Hersteller“ ein System der Qualität A und ein anderer Anbieter ein System der Qualität B hat? Das ist doch völliger Quatsch. Die untersuchen doch auch nicht, ob VW bei irgendwelchen Assi-Systemen besser oder schlechter als BMW ist.
Hier geht wohl erneut Dein Wunschdenken-Gaul mit Dir durch.
Dabei ist doch dermaßen einfach, solch Fehldarstellungen zu vermeiden. Bzw für jeden anderen möglich, Deine Fehldarstellung festzustellen. Die NHTSA-Dokumente sind schließlich öffentlich.
Die NHTSA untersucht schlicht, ob die Warnung des Systems an den Fahrer, dass das System durch schlechte Sicht an seine Grenzen gekommen ist… das diese Warnung rechtzeitig erfolgt.
Die NHTSA führt in dieser Untersuchung keine Marktanalyse durch, keine Bewertung von Systemen verschiedener Hersteller.
Mal wieder schreibst Du Unsinn.
Powerwall Thorsten meint
Willst du die Notbremseassistenten bei Daimler und Co wirklich ausdiskutieren und mit Tesla vergleichen – mach das Fass lieber nicht auf
M. meint
Lesekompentenz, Jörg.
Wenn du magst, kannst du für dich das Problem auf Nebel verengen und dafür eine Strategie wählen, aber Nebel ist beileibe nicht das (einzige) Problem, und der Artikel beschränkt es nicht nur nicht auf Nebel – er erwähnt Nebel nicht einmal.
Magst du selbst nochmal lesen oder soll ich dir bei den Schlüsselbegriffen helfen?
Jörg2 meint
M
Ich habe mir die Quelle durchgelesen.
Es geht der Behörde um nicht zeitgerechte Mitteilung an den Fahrer, dass das System bei verschlechterter Sicht (Nebel, Regen, Dreck auf der Kamera…. diese Aufzählung wird dort nicht gemacht, ich hoffe aber sie hilft Dir zu verstehen, was ich meine) nicht mehr voll funktionstüchtig ist und aussteigt.
M. meint
Wichtig ist, dass du jetzt andere mögliche Probleme erkannt hast, wie Regen, was ja je nach Region gar nicht so selten ist wie „Nebel“. Oder nehmen wir mal noch Dunkelheit hinzu. Auch gar nicht so selten.
Schön, dass das ab sofort in deine Überlegungen zum Thema einfließt. Das wird Auswirkungen auf die Bewertung haben.
hu.ms meint
Naja, wenn es wirklich nur darum geht, ist das mit einem einfachen software-update zu korrigieren:
sofortige warnung des fahrers bei sichtproblemen der cameras.
Ich sehe das hauptproblem darin, dass von tesla viel zu viel versprochen wurde, die fahrer bei guter sicht sich auf das system verlassen, dies auch funktioniert und – naiv wie viele amis einfach sind – garnicht auf die idee kommen, dass die cameras auch mal nichts sehen können.
Powerwall Thorsten meint
Komm doch dem FH Brain nicht mit Originalquellen, der schimpft auf Grok und ChatGPT und macht sich nicht einmal die Mühe, die dort genannten Quellen anzusehen.
So lernt man das wohl auf der FH
M. meint
Du hast keine Originalquellen genannt. Daher gibt es dort nichts anzusehen.
ICH habe dir Originalquellen genannt, aber du hast sie ignoriert.
Das eigene Versagen anderen anlasten, lernt man das in der Baumschule, oder wolltest du mal AfD-Politiker werden?
Jörg2 meint
M
Du kannst das Originaldokument bei der NHTSA einsehen.
Was dort steht, mag vielleicht nicht in Dein Weltbild passen oder Deine Erwartungen erfüllen… das spielt aber keine Rolle.
Fred Feuerstein meint
Mister M.oralapostel liest doch nur den oben stehenden Artikel und denkt er ist umfassend informiert. Die Arbeit den Artikel der NHTSA zu lesen macht er sich nicht…Aber Links zu Tesla suchen, darin ist er auch ganz große Klasse. I
MK meint
@Jörg2:
Der Vorteil eines selbstfahrenden Autos soll ja sein, dass man während der Fahrt etwas anderes tun kann und nicht jederzeit bereit sein muss, das Steuer wieder zu übernehmen. Die Annahme ist also doch grade, dass der Fahrer nicht aus dem Fenster schaut und daher dichten Nebel etc. vor sich auch nicht bemerken muss.
Daimler hat bei seinem in Deutschland bereits zugelassenen System z.B. eine Zeit von 30 Sekunden angesetzt, die der Fahrer Zeit hat, Buch/Laptop bei Seite zu legen und sich wieder fahrbereit zu machen.
Und hier hakt es offensichtlich bei Tesla: Während andere Systeme, die bei anderen Firmen verwendet werden, offensichtlich frühzeitig erkennen, dass sie auf so eine Situation zusteuern und dem Fahrer die Wahl überlassen, selber weiterzufahren oder eben das Auto anhalten, reagiert Tesla hier offensichtlich zu spät. Ob das daran liegt, dass Kameras per Sé diese Aufgabe vielleicht niemals erfüllen können oder ob die Software einfach noch nicht weit genug entwickelt ist, ist dabei für den Kritikpunkt übrigens vollkommen irrelevant.
Jörg2 meint
Daimler verkauft sein System nicht mehr.
In der Untersuchung geht es nicht um autonomes Fahren. Es geht um die Information an den Fahrer, dass das System bei schlechter Sicht aussteigt.
MK meint
@Jörg2:
Darum, ob Daimler dieses System grade verkauft, ging es aber nicht, sondern darum, dass Daimler damit die europäischen Behörden überzeugt und eine Zulassung erhalten hat.
Und: Doch, natürlich geht es um autonomes Fahren. Nur da muss ich nämlich den Fahrer informieren. Bei allen anderen Anwendungen muss der Fahrer nciht informiert werden, weil er sowieso die Verantwortung hat.
Powerwall Thorsten meint
Zu den Fakten:
Quelle: Chat GPT / Grok
Zusammenfassend: Der tödliche Unfall, der maßgeblich zur Eskalation der Untersuchung beigetragen hat, liegt bereits über zwei Jahre zurück (November 2023). Die anderen Vorfälle sind jünger, aber die Mehrheit datiert vor der Software-Aktualisierung von Juni 2024. Die NHTSA prüft derzeit explizit, ob die nach dem tödlichen Unfall eingeführte Verbesserung das Problem dauerhaft löst oder ob trotz Update ähnliche Risiken bestehen bleiben. Für die genauesten Details zu einzelnen SGO-Berichten empfehle ich die offizielle NHTSA-Website (Suche nach EA26002 oder den genannten Report-Nummern).
M. meint
Powerwall Thorsten meint
23.03.2026 um 11:58
Zu den Fakten:
Quelle: Chat GPT / Grok
Einfach lebensfern, erst „Fakten“ und dann „Grok“ zu sagen.
https://www.faz.net/aktuell/feuilleton/medien-und-film/medienpolitik/grok-erzeugt-weiter-sexualisierte-bilder-200502477.html
https://the-decoder.de/xai-manipuliert-grok-elon-musk-ist-nicht-mehr-der-groesste-verbreiter-von-desinformation-auf-x/
https://www.n-tv.de/technik/Elon-Musks-KI-Grok-dreht-voellig-durch-article25883696.html
https://www.heise.de/news/Manipulation-am-Systemprompt-Grok-fabulierte-ueber-weissen-Genozid-10386925.html
https://www.mimikama.org/grok-gegen-musk/
https://t3n.de/news/grok-3-weigert-trump-musk-desinformationsquelle-1674653/
Soll ich weitermachen?
Powerwall Thorsten meint
Gähn – wenn du es besser weißt, dann lass uns doch an deinem Ingenieurswissen (FH) teilhaben, und sag uns wann die einzelnen Fälle deiner Meinung nach waren und zu welchem Ergebnis das Ganze führen wird Mister neunmalschlau
M. meint
Da sind doch genug Links für dich zur Lektüre, die zeigen, dass deine Unfähigkeit zur eigenen Recherche zu nichts führt außer zu Falschnachrichten.
Einfach alles in Grok eingeben (die KI von Musk, was soll die zu Tesla schon sagen?), BS rausbekommen und wenn es dann Hinweise gibt, warum das nicht vertrauenswürdig ist – dann kommt nicht mehr als „gähn“ und das ausgeleierte „Herr Ingenieur (FH)“. Mehr hast du nicht?
Du steckst so tief in deiner Alternativrealität, dass du die Welt da draußen gar nicht mehr wahrnimmst.
Fred Feuerstein meint
Du meinst am Bachelorwissen…FH Ingenieur wird er nicht sein, dafür ist er sicherlich zu jung.
M. meint
Freddi! :-)
Ich habe mich schon gefragt, wann der nächste faktenfreie Teslajünger hier zur Verteidigung mit persönlichen Angriffen aufläuft, aber du bist echt zuverlässig!
Powerwall Thorsten meint
@Fred
Mit seiner FH Leseschwäche hat er ChatGPT einfach mal kurz überlesen – schade auch, aber Hauptsache, er weiß, wie die Welt funktioniert.
M. meint
Die Ignoranz, die du bei der Nutzung von KI (Ergebnissen) an den Tag legst, hat schon oft genug gezeigt, dass du gar nicht verifizierst, was da rauskommt.
Du hast auch nicht in Grok und andere unterschieden. Soll ich das jetzt für dich machen?
Aber du versuchst gar nicht, das Generalversagen von Grok irgendwie zu widerlegen – du weichst zu ChatGPT aus.
Und schon ist die Thorsten-Welt wieder in Ordnung. ;-)
Powerwall Thorsten meint
Lesen und verstehen – weniger Schaum Einfach doch mal nach oben schauen und meinen ersten Post lesen und wenigstens versuchen zu verstehen. Beide sind erwähnt, ich hab es in beiden angeschaut. Wenn du andere Quellen hast nennen diese oder halt dich einfach zurück mit deiner faktenfreien Meinung.
M. meint
Ich habe dir Quellen genannt, aus denen zweifelsfrei hervorgeht, dass (insbesondere, aber nicht nur) Grok jede Menge Unsinn redet, weil das System neben technischen Unzuläglichkeiten auch noch das Problem von Regeln hat, die ihm die freie Antwort untersagen – indem es bestimmte Quellen nicht nutzen darf.
Was Grok aber nutzen darf: das eigene Wiki, in dem FakeNews dokumentiert sind.
Das ist schlicht eine armselige Quelle.
Was du nicht verlinkt hast: die Quellen, aus denen Grok seine „Informationen“ bezieht. Oder auch nur, was davon nicht von Grok, sondern von ChatGPT ist. Du wandelst durch den Nebel und grinst, weil dir etwas deine Meinung bestätigt hat, wie das zustande kam, hast du selbst nicht durchschaut. Aber das brauchst du nicht, solange es deiner Meinung entspricht.
So machen es Flacherdler und Trump auch. Die wollen nicht die Wahrheit wissen, die wollen bestätigt werden.
Netter Club, in dem du bist.
David meint
Du weißt ganz genau, dass erst vor sechs Tagen wieder ein Video bei Fox News gezeigt wurde von einem CyberTruck, der mit diesem unverantwortlichen Assistenzsystem einen schweren Unfall produziert hatte. Die Statistik aus Austin zeig eine zweistellige Anzahl Unfälle aus den ganz wenigen Fahrten eines Jahres von Tesla, dazu alle mit Sicherheitsfahrer. Unschwer war daraus rechnerisch abzuleiten, dass die überwachten Tesla auf kontrolliertem Gebiet trotzdem fünfmal unsicherer fahren als ein durchschnittlicher amerikanischer Fahrer.
Natürlich macht Tesla nach jedem schweren Unfall schnell ein Update, egal, ob da wirklich eine Verbesserung drin ist, um sagen zu können: Mit der neuen Version passiert das nicht mehr. Das ist genau so ein mieser Trick, wie, dass sich der FSD kurz vor einem Unfall abstellt, damit Tesla sagen kann: Der FSD war ja gar nicht aktiviert!
Aber die NHTSA und die Gerichte kennen indessen diese ganzen Tricks und auch in China und in Europa dürfte klar sein, niemand wird das Risiko auf sich nehmen und diese untauglichen Assistenzsysteme zulassen.
Powerwall Thorsten meint
Und du weißt auch ganz genau, dass dieses Video auch schon wieder debunked ist – FSD war nicht aktiv – blöd, gell
Bitte Fakten – spar dir deinen FUD einfach, aber dafür wirst du ja leider bezahlt.
David meint
Das Argument hatte ich bereits in meinem Beitrag zerlegt. Dass der FSD kurz vorher aussteigt, damit man behaupten kann, er sei nicht aktiviert gewesen, ist bereits seit Marc Rober bewiesen. Es spielt keine Rolle, denn es bestand auch bei diesem aktuellen Fall nicht mehr die Chance, etwas zu retten. Eher steht das für die Perfidität des Systems Tesla. Und genau diese Teilschuld wird ihnen in aktuellen Prozessen zugeschrieben. Endlich.
Steffen meint
Darauf ging der Beitrag ja schon ein – war es 1-2 Sekunden vorher aktiv?
M. meint
Habe selbst mal ein Video auf YT gesehen, wo auf dem Highway im Dunklen ein Auto stand, und 2 bis 3 Sek vor Einschlag hat sich das System abgeschaltet.
Bei 50 mls. keine Chance, dann noch was zu retten.
Aber beim Einschlag war das System off.
Wäre aber vorher möglich gewesen, entweder mit Radar/Lidar, oder mit „genauer hinsehen“ – das Auto war vorher zu erkennen. Nur schwach – zu schwach offrnsichtlich, um von dem System ernstgenommen zu werden, aber doch sichtbar für jemanden, der full self fährt.
Powerwall Thorsten meint
David, du zerlegt hier gar nichts – so sehr du es auch versuchst, stattdessen versuchst du, jedes mal Tesla zu diskreditieren, und du kannst dich darüber freuen, dass sich bei dir niemand die Mühe macht, all diese Versuche wieder hervor zu kramen, wenn sich deine Behauptungen wie meistens in Luft auflösen
Powerwall Thorsten meint
Gähn – immer wieder der selbe Clickbait – am Ende ist es immer das Gleiche:
Alte Fälle – die Probleme gibt es aktuell dann schon gar nicht mehr – Fehlbedienung ….
Mit dem nächtlichen OTA geht es dann meist weiter in Richtung Zukunft.
Da können die üblichen Verdächtigen schreiben bis das Handy glüht.
Time will teach them – same procedure as every year
;-)
M. meint
Jaja, 14.000 OTA-Updates später… geht’s immer noch nicht. ;-)
Wird auch schwer, ein Update gegen schlechte Sichtverhältnisse zu machen.
Vielleicht die Wetterkontrolle aus Minecraft? Das wäre doch komplett auf EM-Niveau.
Powerwall Thorsten meint
Du hast offensichtlich nach Jahren den Unterschied zwischen FSD Supervised und FSD Unsupervised immer noch nicht verstanden – vergebene Liebesmühe also…
M. meint
Abgesehen davon, dass schon die Namensgebung nichts weiter als Irreführung ist – was soll denn „überwacht voll selbst fahrend“ bedeuten, außer dass es nicht voll selbst fährt? – ist der Hinweis auf die OTA-Updates so alt wie das System selbst.
Deswegen ist man jetzt beim Anlauf Nr. 14, mit jeweils hunderten Iterationen, um Dingen wie „Mond steht tief, das ist ne Ampel“ Herr zu werden, oder „Schatten von Bäumen weicht man am besten in den Baumstamm aus“, und das kann man alles irgendwann mal hinbekommen – aber was will man machen, wenn die Kamera nichts sieht?
Du gehst gar nicht auf die Probleme ein und windest dich lieber mit persönlichen Angriffen irgendwie raus.
Und warum? Weil du zu den Fakten nichts sagen kannst.
Wenn die Kamera nichts sieht, dann sieht sie nichts. Daran können Updates nichts ändern.
Punkt, Aus, Ende.
David meint
Wichtiger ist, dass führende Opferanwälte indessen die Gemeinsamkeiten verstanden haben: die perfide Kommunikation, die dem Hersteller eine Teilschuld an schweren Unfällen durch Überschätzung des gefährlichen Assistenzsystems gibt.
Powerwall Thorsten meint
Einer muss ja vorangehen. Deutsche Ingenieure sind es nicht.
M. meint
Wenn die sich mit Faktenverdrehern wie dir rumschlagen müssen, wird’s halt schwierig. Und was übrig bleibt, wenn die Ideen von EM auf die Wirklichkeit treffen, das füllt ganze Bücher.
MK meint
@Powerwall Thorsten:
Man könnte fast meinen, Sie würden von Tesla dafür bezahlt…ein „full self driving“, bei dem ich als Fahrer jede Sekunde aufmerksam sein muss, bringt genau gar nichts und hat nichts mit „sellf driving“ zu tun.
Und wenn Sie schon behaupten, dass deutsche Ingenieure da hinterher seien: Daimler hat als einziger Hersteler weltweit die Zulassung, bis 130 km/h Autos autonom fahren zu lassen, bei denen der Fahrer wirklich das Recht hat, etwas anderes zu tun und ab Hinweis des Systems 30 Sekunden Zeit hat, das Steuer wieder zu übernehmen.
Tinto meint
Für Deutschland sehe ich da kein Problem, hier ist Tesla ja weitgehend aus dem Strassenverkehr verschwunden. Das ist auch nichts schlimmes, dafür übernehmen andere, allen voran der VW Konzern. Das Bessere war schon immer des Guten F.eind.
Wie sagte der Chef von Neura Robotics erst letztens: „Die größte Schwäche von Tesla ist, dass sie versuchen alles selber zu machen“
hu.ms meint
„weitgehend aus dem Strassenverkehr verschwunden.“
Hier im grossraum M sehe ich täglich mehrere – allerdings kaum neue Y mit dem durchgehenden lichtband !
M. meint
Hier gibt es ganz vereinzelt Highland unter den ganzen Altfahrzeugen, aber ein Juniper… das muss Monate her sein.
Die Leute, die man mit den Altfahrzeugen sieht, haben einerseits weniger das Problem, auf ihren Kauf vor dem politischen Hintergrund angesprochen zu werden, und andererseits wahrscheinlich auch den Traum vom autonomen Fahren ausgeträumt.
Fred Feuerstein meint
„ haben einerseits weniger das Problem, auf ihren Kauf vor dem politischen Hintergrund angesprochen“ Vor allem von M.oralaposteln einfacher Struktur…
Die anderen sehen es als das was es ist: Ein Fahrzeug mit dem man eine Distanz A – B überwinden kann. Aber wem erzähle ich das, einen Dieselfahrer…Wo kommt nochmal dein Öl her? Lass mich raten: lupenreinen Demokratien…
Powerwall Thorsten meint
Fahr mal im Süden Deutschlands – entlang der Schweizer Grenze.
Du wirst Augen zu machen müssen.
;-)
Aber hey, wir fahren kommenden Samstag im Tesla nach Schottland.
Ich gib dann ab und zu mal Bescheid wie viel neue Model drei oder Juni Pass wir unterwegs gesehen haben. Das dauert wohl eher Minuten und nicht Monate.
M. meint
Kurze Analyse.
Fred: nichts zum Thema, daher wie immer Ausweichen auf persönliche Angriffe.
Thorsten: nichts zum Thema, will auf der Urlaubsfahrt Autos zählen und das als Gegenbeweis posten.
Schon dünn, Leute.
Aber das Thema ist auch echt undankbar.
Fred Feuerstein meint
Na ja, so dünn wie deine Argumentationslinie. Aber macht nichts, es wird sich zeigen, welche Systeme in der Zukunft vorne liegen werden. Vielleicht ist es Tesla, vielleicht Waymo, vielleicht ein ganz anderes. Aber eines ist sicher: Volkswagen, Mercedes oder BMW werden es leider nicht sein.
M. meint
Das war keine „Argumentation“, das war ein Bericht darüber, was hier von Tesla so rumfährt.
Und das kann man ja gut mit den Zulassungszahlen abgleichen. Dann sieht man: das stimmt. Außer am Bodensee, und auf deiner Reiseroute, da ist es anders. Tesla überall. ;-)
M. meint
Da gibt es schon noch andere Sichtweisen, wer es nicht ist.
Worüber ging es hier nochmal?
Ah, richtig. Steht ja oben.
Powerwall Thorsten meint
@Fred
bei Mitarbeitenden wie diesen hier, werden sie es Gott sei Dank nicht sein
hu.ms meint
Habe ich schon mehrfach geschrieben:
Wegen 200 $ für eine wellenbasiertes zusatzsystem und der Elon-eitelkeit: „nur video-basiert“
wird die genehmigiung für das tesla-FSD von der zulassungsbehörde vermutlich widerrufen und es wird zum „schönwetter-assistenzsystem“.
Anonymous meint
So wie Mercedes mit seinem Level 3 Piloten und etlichen Radar und Lidarsensoren?
hu.ms meint
Na wieder mal auf einen anderen hersteller abgelenkt, weil man zu teslas problemen nichts schreiben will… ?
THeRacer meint
… bei primär sicherheitsrelevanten Bauteilen wie Bremsen, Reifen, Fahrwerk und Fahrassistenzsystemen mit „Spar“- und Kosten-„Vorteilen“ zu argumentieren ist mehr als du mm und endet schnell 🤕 bis exitus. Das beste ist da grad gut genug. …
Couch Kartoffel meint
Entfernt. Bitte verfassen Sie konstruktive Kommentare. Danke, die Redaktion.
David meint
Das ist ja keine brandneue Erkenntnis und das schreibe ich hier seit Jahren. Das ganze System ist unredlich, weil man den Fahrer absichtlich in der trügerische Sicherheit wiegt, um mit dieser technischen Sackgasse durchzukommen.
Jetzt kam ja in den USA wieder die Statistik der tödlichsten Automarken und Tesla ist ganz vorne. Dabei handelt es sich um eine nachvollziehbare Auswertung der Fatality Analysis Reporting System Daten der NHTSA. Statistisch ist das Risiko exakt doppelt so hoch, mit einem Tesla tödlich zu verunglücken wie mit einem durchschnittlichen Fahrzeug. Und nicht erfasst sind die Insassen, die lebendig in einem Tesla verbrennen, wenn er keinen schwerwiegenden Unfall vorher hatte.
Zumal es jedem europäischen Käufer indessen klar sein müsste, wo Tesla steht. Wir sind jetzt den iX3 gefahren und der fährt bis 130 km/h stundenlang auf der Autobahn, ohne dass man die Hände ans Steuer nehmen muss. Er überholt über Augenkontakt. Das ist genau das System, was in abgespeckter Form Tesla seit Monaten in Europa nicht zugelassen bekommt.
Ben meint
Kannste bitte ein Video eines ID.4 aus Chattanooga posten der so so autonom fährt wie die Teslas oder Waymos…oh warte die Waymos haben mehr Unfälle als die Teslas aber hey.
Denk an das Video des autonomen ID.4, danke.
eBikerin meint
„oh warte die Waymos haben mehr Unfälle als die Teslas aber hey.“
Machen die Tesla Taxis auch 450.000 Fahrten pro Woche?
M. meint
Keine Ahnung, was nun Volkswagen in diesem Beitrag zu suchen hat.
Ich kann mich nicht mal an Aussagen oder Behauptungen erinnern, dass ein ID.4 autonom fahren würde.
Hier geht es darum, dass das System – wie tatsächlich schon seit Jahren gesagt wird – mit schlechten Sichtverhältnissen Probleme hat.
David meint
Tesla fährt nicht autonom. Es ist exakt ein Tesla ohne Fahrer im Auto unterwegs und der wird per Teleoperator gesteuert. Tesla vermeidet übrigens akribisch das Wort „autonom“. Da sind sie nach letzten Urteilen sehr vorsichtig geworden.
Wie du weißt, fahren aber etliche ID.Buzz AD in den USA offizielle Level 4 Tests. Level 4, was Tesla nirgends beantragt hat. Wenn der nächste Milestone fällt, wirst du hier wieder etwas zu VWs Fortschritten lesen und dich ärgern.
Andi EE meint
@David, @Mary und Co.
„Tesla fährt nicht autonom.“
Eben, wie kann ein Level 2 System was 100x besser als dieser clowneske Lane-Assist von VW ist, schuld an diesem Unfall sein. Das ist unmöglich, der Mensch muss es ja überwachen. Schau mal, diese lächerlichen Assistenzsysteme aus deinem Laden an, die sind 100x gefährlicher und nie ein Thema. Grad in Deutschland lässt man von den eigenen Herstellern Systeme zu, die einfach hochgradig lebensgfährlich mit dieser Deppen-Autonomie performen. Das ist nichts anderes als ein Mafia hier. Das ist nichts Neues, mit einem Software-Update hat man Diesel sauber gemacht, obwohl nach Selbstdeklaration, die Vorschriften niemals erfüllt hatten werden können und man quasi bescheisssen müssen. Jetzt fahren fie Dinger alle legal in Europa herum = Mafia.
In den USA ist die Sache ausgewogener, man muss es prüfen auch mit dem aktuellen Stand der Technik. Da ist nichts Schlimmes hinter der Sache. Andere werden auch wegen trivialsten Dingen von der NHTSA geprüft und da gibt es nie eine Meldung. Bei Mercedes brennen die Autos ab, dank genialer Akku-Technik, ist nie ein bei dir, mein objektiver Freund. 🥳 Rund um die vielen Cybercabs die jetzt in den Städten zu Promotion-Zwecken gezeigt werden, musste man das wieder aufkochen, das war ja klar.
M. meint
„Bei Mercedes brennen die Autos ab, dank genialer Akku-Technik“
So wie hier:
https://www.shz.de/lokales/flensburg/artikel/feuer-tesla-geht-in-flensburg-in-flammen-auf-und-brennt-aus-47826921
https://www.focus.de/auto/elektroauto/thermal-runaway-im-elektroauto-tesla-kennt-die-brandgefahr-seiner-akkus-seit-10-jahren_id_10620636.html
https://www.tz.de/auto/tesla-flammen-model-explodiert-ohne-vorwarnung-tiefgarage-zr-12211001.html
https://www.n-tv.de/mediathek/videos/panorama/Tesla-Model-S-brennt-in-Tirol-komplett-aus-article20094288.html
Das war die Seite 1 in der kurzen Suche.
Fred Feuerstein meint
Schöne Linksammlung, jetzt mach das gleiche nochmal mit Mercedes, BMW, Porsche und VW. Dann hast du etwas mehr Vielfalt.
Aber das wär wahrscheinlich schwer für dich zu ertragen, denn in deiner kleinen Welt kann das nur bei Tesla passieren.
Kleiner Spoiler aus der realen Welt: Die Realität sieht anders aus, wie zahlreiche Rückrufe der überlegenen deutschen Hersteller eindrucksvoll zeigen.
M. meint
Mach du das, Fred.
Und keine Rückrufe verlinken. Brände.
Aber wenn doch Rückrufe, nimm die mit rein, die zu den von mir verlinkten Bränden passen.
Die müsste es doch auch geben, oder willst du sagen, dass die ganzen Brandbomben da draußen noch unterwegs sind?
Fred Feuerstein meint
Brände, kein Problem. Gib mal als Beispiel dein Lieblingsauto Porsche Taycan ein. Da gibt es einige…Na ja, wie gesagt, nicht in deiner kleinen Welt.
hu.ms meint
In den teslas sitzt ein firmen-MA der das auto überwacht.
In den waymos nicht mehr.
Und die unfälle natürlich nicht nach stückzahl sondern in bezug auf die gefahrenen km vergleichen – dann siehts gleich ganz anders aus – ALTER !
Jörg2 meint
hu.ms
Hatten wir hier eigentlich auch schon mehrfach:
Natürlich überwacht Waymo seine Fahrzeuge auch. Das klappt manchmal nicht ganz so gut.
Und natürlich stellte Waymo aktuell ein höheres Risiko für andere Verkehrsteilnehmer dar. Die Dinger fahren einfach mehr im zugelassenen Raum.
Bevor Du das wieder in den falschen Hals bekommst: Ja „Unfall/Personen-km“ ist ein guter Wert für die Beurteilung der Systemsicherheit. Tesla ist hier schlechter als Waymo.
David meint
Einen Waymo kann die Zentrale nicht übernehmen oder steuern. Es ist ein echtes Level 4 Fahrzeug und das lässt per Typgenehmigung keine Fremdeingriffe zu. Die Zentrale kann maximal einen Push geben, wenn das Auto steht. Der veranlasst das zu einer neuen Planung. Bei Tesla ist es andersherum. Das Auto wird komplett fremdgesteuert. Es gibt keinerlei Autonomie, und der Begriff wird sorgsam von allen Tesla Stellen vermieden.
Jörg2 meint
David
Du erzählst Märchen.
Die Fremdüberwachung ist vorgeschrieben. Waymo beschäftigt dafür knapp 100 Mitarbeiter.
hu.ms meint
@Jorg:
„Und natürlich stellte Waymo aktuell ein höheres Risiko für andere Verkehrsteilnehmer dar.“
Ein höheres risiko im vergleich zu ?
Und schön, dass du einsiehst, dass es um unfälle pro gefahrenen 100.000 meilen geht. Bei menschen, bei waymo, bei tesla.
Wer hat da wohl den besten und wer die schlechtesten wert ?