Teslas Fahrassistenz-System «Autopilot» ist ins Visier neuer Ermittlungen der US-Verkehrsaufsicht geraten. Im Mittelpunkt steht die fortgeschrittene Version «Full Self Driving» (komplett selbstfahrend). Damit sollen Teslas Elektroautos mit der Zeit autonom fahren - noch sollen aber die Menschen am Steuer bei Fehlern eingreifen. Bei der neuen Untersuchung geht es unter anderem um Fälle, in denen die Software Autos auf die Gegenfahrbahn lenkte oder trotz roter Ampeln auf Kreuzungen fahren ließ.
Die Verkehrssicherheitsbehörde NHTSA prüft bei ihrer Untersuchung 58 Zwischenfälle, bei denen 23 Menschen verletzt wurden. Zu Todesfällen kam es dabei nicht.
Fahrer müssen eingreifen
Tesla lässt Fahrer in den USA schon seit einiger Test FSD-Software auf öffentlichen Straßen testen. Insbesondere am Anfang veröffentlichen sie viele Videos, in denen das System zum Teil grobe Fehler machte und die Menschen am Steuer eingreifen mussten, um Unfälle zu verhindern. Laut Tesla-Chef Elon Musk wurde die Software mit neuen Versionen viel besser.
Der NHTSA wurden sechs Fälle gemeldet, in denen die FSD-Software Teslas an roten Ampeln vorbei auf Kreuzungen steuerte und es dadurch zu Unfällen kam. Mehrere der Zwischenfälle ereigneten sich an derselben Kreuzung im Bundesstaat Maryland.
Bei der Untersuchung soll auch bewertet werden, wie gut das FSD-System Verkehrszeichen und die Verkehrsführung erkennt und sich daran orientiert.
Grundstein der Zukunftspläne
Musk versucht gerade, Tesla auf Robotaxis und humanoide Roboter auszurichten, während die Autoverkäufe seit dem vergangenen Jahr schwächelten. In der texanischen Stadt Austin befördert die Firma mit einigen selbstfahrenden Autos Fahrgäste ohne einen Menschen am Steuer. Allerdings sitzt noch ein Aufpasser auf dem Beifahrersitz. Auch die Tesla-Robotaxis wurden bei Verstößen gegen Verkehrsregeln gefilmt.
Die NHTSA startete schon vor Jahren mehrere Untersuchungen zur herkömmlichen Version des «Autopilot»-Assistenzsystems.