Frontale botsing van zelfrijdende Tesla vastgelegd tijdens livestream

Tesla FSD botst frontaal tijdens livestream: “zelfrijdend” blijkt opnieuw te optimistisch

Een Tesla in Full Self-Driving-modus reed tijdens een livestream frontaal in op tegemoetkomend verkeer in China. De bestuurder, druk met filmen, kon niet tijdig ingrijpen. Het incident onderstreept opnieuw de kloof tussen Tesla’s marketing (“volledig zelfrijdend”) en de realiteit (geavanceerde assistentie die permanent toezicht vereist). Tesla ontkent elke verantwoordelijkheid.

Zelfrijdende auto’s zijn de toekomst, zo luidt het verhaal. En Tesla’s CEO Elon Musk beweert al jaren dat zijn Full Self-Driving-systeem (FSD) nagenoeg autonoom is. Maar de praktijk blijft weerbarstiger. Opnieuw is een Tesla in FSD-modus betrokken bij een crash, en deze keer werd het hele incident vastgelegd tijdens een livestream. De Tesla wisselde ineens van rijstrook, reed het tegenovergestelde verkeer in, en knalde frontaal op een andere auto. De bestuurder, bezig met zijn stream, kon niet ingrijpen. Gelukkig vielen er geen ernstig gewonden, maar het incident roept opnieuw vragen op over Tesla’s marketing, de betrouwbaarheid van FSD, en de verantwoordelijkheid als het misgaat.

FSD: “volledig zelfrijdend” of misleidende marketing?

Tesla introduceert FSD graag als “Full Self-Driving” – volledig zelfrijdend. De naam suggereert dat je gewoon achterover kunt leunen terwijl de auto het werk doet. Maar de realiteit is anders. FSD is een geavanceerd rijassistentiesysteem, geen autonome zelfrijfunctie. Het vereist permanente supervisie van de bestuurder, die te allen tijde moet kunnen ingrijpen. Tesla zelf benadrukt dat in de kleine lettertjes, maar de marketingboodschap is een stuk groter en luider: “Kijk, onze auto’s rijden zichzelf!”

Die discrepantie zorgt voor gevaarlijke misverstanden. Veel bestuurders denken dat FSD echt autonoom is, en vertrouwen er blind op. Ze kijken naar hun telefoon, eten een broodje, of – zoals in dit geval – livestreamen hun rit. En als het dan misgaat, is het te laat.

In China moest Tesla de naam FSD zelfs veranderen omdat de autoriteiten het misleidend vonden. Maar de perceptie blijft: mensen denken dat hun Tesla zichzelf kan rijden. En Tesla’s marketing doet weinig om dat misverstand te corrigeren.

De crash: live uitgezonden, voor iedereen zichtbaar

Sinds de introductie van FSD in China zijn veel Tesla-eigenaren het systeem gaan testen en vergelijken met concurrenten zoals NIO’s en Xpeng’s zelfrijdsystemen. Vaak worden die testritjes live gestreamd, zodat kijkers kunnen meekijken hoe goed (of slecht) FSD presteert. Tijdens zo’n livestream gebeurde het: de Tesla wisselde ineens van rijstrook, reed het tegenovergestelde verkeer in, en crashte frontaal op een tegemoetkomende auto.

Op de beelden is te zien hoe de bestuurder niet tijdig reageert. Hij is druk bezig met zijn stream, en tegen de tijd dat hij doorheeft wat er gebeurt, is het te laat. De vraag is: had hij het kunnen voorkomen als hij wél had opgelet? Misschien, maar FSD schakelde zo snel en onverwacht van rijstrook dat zelfs een oplettende bestuurder weinig tijd had gehad om in te grijpen.

Gelukkig vielen er geen ernstig gewonden, maar dat is vooral geluk. Bij hogere snelheid of in drukker verkeer had dit dodelijk kunnen aflopen.

De bestuurder wilde compensatie – en verborg eerst de beelden

De oorspronkelijke livestream had weinig kijkers. Pas toen beelden van de crash later online opdoken, kregen ze veel aandacht. Interessant detail: de eigenaar van de Tesla was aanvankelijk niet van plan om de crash-beelden te delen. Hij wilde namelijk volledige compensatie van Tesla, en het online gooien van bezwarend materiaal zou zijn onderhandelingspositie verzwakken.

Dat is begrijpelijk vanuit zijn perspectief, maar roept ook vragen op. Als FSD écht zo betrouwbaar was als Tesla claimt, waarom zou je dan compensatie verwachten? En waarom zou je bang zijn dat de beelden je zaak schaden?

Bovendien kwam er twijfel of FSD wel actief was tijdens de crash – een klassieke Tesla-verdedigingslijn bij ongevallen: “De bestuurder had het systeem uitgeschakeld, dus het is niet onze schuld.” Om die twijfel weg te nemen, plaatste de eigenaar uiteindelijk de volledige beelden online, waaruit blijkt dat FSD inderdaad was ingeschakeld.

Die stap was nodig, want Tesla heeft een geschiedenis van het afschuiven van verantwoordelijkheid. Als er geen hard bewijs is, claimt Tesla vaak dat de bestuurder handmatig stuurde of het systeem had uitgeschakeld. Het is een patroon dat frustratie oproept bij slachtoffers en onderzoekers.

Tesla’s verantwoordelijkheid: nul komma nul

In de kleine lettertjes van Tesla’s voorwaarden staat dat het bedrijf nooit verantwoordelijk kan worden gesteld voor FSD-gerelateerde ongevallen. De bestuurder blijft te allen tijde verantwoordelijk, ook al heet het systeem “Full Self-Driving” en suggereert de marketing dat je de auto kunt vertrouwen.

Dat is juridisch misschien waterdicht, maar ethisch twijfelachtig. Tesla promoot FSD als een doorbraak, als de toekomst van mobiliteit, als iets waar je op kunt vertrouwen. Maar als het misgaat, wijst het bedrijf naar de bestuurder: “Jij had moeten opletten.” Dat voelt als het hebben van je taart en hem ook opeten.

Het is vergelijkbaar met een autofabrikant die zegt: “Onze remmen zijn perfect, maar als ze falen, is het jouw schuld dat je niet harder op het pedaal drukte.” Dat zou geen enkele toezichthouder accepteren. Maar bij zelfrijdende systemen is de regelgeving nog onduidelijk, en bedrijven als Tesla profiteren daar volop van.

FSD-ongevallen: geen incident, maar patroon

Dit is niet het eerste FSD-gerelateerde ongeval, en het zal niet het laatste zijn. Tesla’s crash-database groeit gestaag:

  • Ongevallen met geparkeerde voertuigen: FSD herkent stilstaande objecten niet altijd, vooral niet in de nacht of bij slecht weer.
  • Foutieve rijstrookwisselingen: zoals in dit geval, waarbij de auto onverwacht van baan wisselt zonder logische reden.
  • Negeren van verkeerslichten en stopborden: meerdere gevallen waarbij FSD door rood reed of stopborden niet herkende.
  • Problemen met wegwerkzaamheden: tijdelijke borden, afsluitingen en omleidingen zijn een zwak punt.

Tesla verdedigt zich door te zeggen dat FSD nog in ontwikkeling is, dat gebruikers “bèta-testers” zijn, en dat het systeem continu wordt verbeterd. Maar dat rechtvaardigt niet dat het op openbare wegen wordt getest, met onwetende medeweggebruikers als potentiële slachtoffers.

China vs. de rest van de wereld

Interessant is dat dit ongeval in China gebeurde, waar Tesla FSD pas recent introduceerde. Dat roept vragen op: is FSD in China minder goed getraind dan in de VS of Europa? Of zijn de verkeerssituaties in China gewoon anders, en kan het systeem daar niet mee omgaan?

Chinese wegen hebben andere kenmerken: drukker verkeer, andere verkeersregels, meer scooters en fietsers, en soms chaotischere rijstijlen. Als FSD vooral getraind is op Amerikaanse data, kan het moeite hebben met die verschillen. Dat zou verklaren waarom er kort na de lancering al meerdere incidenten zijn.

Maar dat is geen excuus. Als Tesla FSD in China lanceert, moet het systeem klaar zijn voor Chinese verkeerssituaties. Anders is het onverantwoord om het uit te rollen.

Livestreamen tijdens het rijden: een apart probleem

Een bijkomend probleem in dit geval: de bestuurder was aan het livestreamen. Dat is op zich al gevaarlijk, ook zonder FSD. Je aandacht is verdeeld, je reageert trager, en je neemt meer risico’s om “goede content” te maken.

Maar het illustreert ook een pervers neveneffect van FSD: mensen voelen zich vrij om dingen te doen die normaal onverantwoord zijn tijdens het rijden. Want “de auto rijdt toch zelf?” Dat is precies de mentaliteit die Tesla’s marketing creëert, en precies de mentaliteit die dodelijk kan zijn.

Wat moet er veranderen?

Dit incident – en de vele anderen – maken duidelijk dat er structurele problemen zijn:

  1. Tesla’s marketing moet eerlijker: Stop met suggereren dat FSD volledig autonoom is. Noem het wat het is: geavanceerde rijassistentie die permanent toezicht vereist.
  2. Strengere regelgeving: Toezichthouders moeten eisen dat systemen grondig getest worden voordat ze op openbare wegen komen. Gebruikers mogen geen onbetaalde bèta-testers zijn.
  3. Verantwoordelijkheid bij de fabrikant: Als Tesla claimt dat FSD veilig is, moet het bedrijf verantwoordelijkheid nemen als het misgaat – niet alles afschuiven op de bestuurder.
  4. Betere detectiesystemen: FSD moet bestuurders actief waarschuwen als ze niet opletten, en het systeem moet uitschakelen als er geen reactie komt.
  5. Transparantie over beperkingen: Tesla moet open zijn over wat FSD wel en niet kan, en in welke situaties het faalt.

Conclusie: zelfrijdend is nog lang niet zelfrijdend

De frontale botsing tijdens een livestream is opnieuw bewijs dat Tesla’s Full Self-Driving nog lang niet “full” of “self-driving” is. Het is een geavanceerd assistentiesysteem met ernstige beperkingen, en de marketing die het als bijna-autonoom presenteert, is misleidend en gevaarlijk.

Voor gebruikers is de boodschap helder: vertrouw niet blind op FSD. Blijf altijd alert, hou je handen aan het stuur, en wees klaar om in te grijpen. Want als het misgaat, wijst Tesla naar jou – ook al beloofde het bedrijf dat de auto het zelf kon.

En voor Tesla: tijd om te stoppen met overdreven claims en te focussen op wat écht veilig is. Want elke crash ondermijnt niet alleen je reputatie, maar ook het vertrouwen in zelfrijdende technologie als geheel.

Leave a Reply

Je e-mailadres zal niet getoond worden. Vereiste velden zijn gemarkeerd met *