Technik

Hacker manipulieren Tesla-Autopilot – der lenkt in den Gegenverkehr

von
Leonie Butz

Nur mit ein paar kleinen Aufklebern tricksen chinesische Hacker den Autopiloten von Tesla aus – und lenken ihn so auf die Gegenfahrbahn.

Ein rotes Tesla Model S auf einer Straße.
Teslas Autopiloten austricksen: In China gelang es Forschern, den Spurhalteassistenten des Autos zu überlisten. Foto: Tesla

Das erfahren Sie gleich:

  • Wie chinesische Sicherheitsexperten den Spurhalteassistenten von Tesla manipuliert haben
  • Warum ein Szenario wie bei den Hackern eher unwahrscheinlich ist
  • Wie Tesla auf die Ergebnisse reagiert

Ein chinesisches Forschungsteam hat einen Tesla-Autopiloten dazu gebracht, in den Gegenverkehr zu steuern. Im Tencent Keen Security Lab – hinter dem kein Geringerer als der Mutterkonzern des größten sozialen Netzwerk des Landes, WeChat, steckt – manipulierte das Team den Spurhalteassistenten eines Model S so, dass es auf die Gegenfahrbahn lenkte.

Der neue Audi e-tron

Jetzt Ihren elektrischen SUV zusammenstellen

Konfiguration starten

audi.de/DAT-Hinweis

Wenn der Spurhalteassistent in den Gegenverkehr steuert

Hinter dem sogenannten Autopiloten bei Tesla steckt vor allem Technik für das autonome Fahren – also Kameras, Sensoren und Radar-Systeme. Die hier gewonnenen Informationen zur Umgebung verarbeitet der Bordcomputer mit Hilfe von künstlicher Intelligenz, um in Echtzeit eine Entscheidung über das Fahrverhalten zu treffen.

Um den Spurhalteassistenten zu manipulieren, klebte das Forschungsteam drei Aufkleber schräg auf die Straße. Da diese für das System wie eine Linie erschienen, veränderte das Auto seine Richtung und lenkte in den Gegenverkehr. Möglich machte das die Echtzeit-Anpassung der Umgebungsdaten, die die Forscher so überlisteten. Besonders spannend dabei: Die Aufkleber waren für das bloße Auge kaum sichtbar.

Hacker manipulieren den Autopiloten?

Dass ein solches Mittel zum Hacken eines selbstfahrenden Autos zum Einsatz kommt, bleibt jedoch fraglich. Dagegen spricht, dass das Forscherteam die Aufkleber sehr präzise einsetzen musste, um den sehr gut arbeitenden Autopiloten auszutricksen. In einer realen Situation wäre diese genaue Planung auf einer öffentlichen Straße wohl eher nicht umsetzbar.

Technik

Updates abonnieren und Dossier "E-Mobility" gratis erhalten.

Zusätzlich meldete sich auch Tesla zu dem Testergebnis zu Wort. In einem E-Mail-Statement gegenüber CNET stellte der Konzern klar, dass er sich über die tolle Arbeit des Forschungslabors freue – schließlich hatten sie zuvor bereits einige kritische Sicherheitslücken entdeckt. In diesem Fall, so Tesla, sei das Problem jedoch ausschließlich künstlich herbeigeführt worden – eine echte Situation, in der ein solcher Fall dokumentiert sei, fehle jedoch gänzlich. Außerdem, so Tesla, können Fahrer ganz einfach gegensteuern, wenn das System in die falsche Richtung lenkt.

Dass die selbstfahrenden Systeme grundsätzlich von Aufklebern in der Umgebung manipulierbar sind, ist hingegen keine neue Erkenntnis. Bereits 2017 beklebten Forscher Verkehrsschilder und stellten fest, dass autonome Autos diese schwer oder teils nicht mehr erkennen konnten. Hier ging es vor allem darum zu zeigen, wie sich die Systeme mit einfachen Mitteln überlisten ließen – und das scheint auch das Anliegen bei der aktuellen Forschung im Tencent Keen Security Lab zu sein.

Auch interessant

Diese Website verwendet Cookies, um die Nutzerfreundlichkeit zu verbessern. Durch die weitere Nutzung der Website stimmen Sie dem zu. Um mehr über die von uns verwendeten Cookies zu erfahren und wie man sie deaktiviert, können Sie unsere Cookie-Richtlinie aufrufen.

Schließen