Notebookcheck Logo

Gehackte Tesla FSD-computers onthullen alarmerende ruwe gegevens over dodelijke Autopilot-ongevallen

De printplaat van het FSD-computersysteem van Tesla (Afb. bron: WSJ)
De printplaat van het FSD-computersysteem van Tesla (Afb. bron: WSJ)
Een groot onderzoek waarbij geborgen Tesla FSD computers uit elkaar werden gehaald en hun chips werden gehackt om ruwe Autopilot gegevens te extraheren, onthult hoe twijfelachtige beslissingen van het zelfsturende systeem tot dodelijke ongelukken kunnen leiden.

Terwijl de nieuwste Tesla FSD 12.5 aan het uitrollen is naar het publiek, hebben twee grote bedrijfspublicaties negatieve verhalen over Tesla's bestuurdersassistentiesystemen gepubliceerd.

In Bloomberg wordt anekdotisch bewijs aangehaald van een sell-side analist die zijn ervaringen tijdens Tesla FSD-demoritten in een notitie aan klanten beschrijft. Hij moest een paar keer ingrijpen in bijzondere situaties, zoals het gehoorzamen van handsignalen van een verkeersagent, maar ook in meer alledaagse scenario's.

De Tesla Model Y stak bijvoorbeeld herhaaldelijk ononderbroken rijstrookmarkeringen over of reed een kruispunt op omdat de computer een situatie verkeerd las waarin een andere auto pas halverwege een bocht naar rechts was. De Model Y reed echter op FSD 12.3.6, en de analist merkte enkele duidelijke verbeteringen op ten opzichte van de vorige versie die ze eerder dit jaar hadden getest.

Het andere negatieve artikel over de ambities van Tesla op het gebied van zelfrijdende auto's bevat echter veel ernstiger beschuldigingen en is gevuld met exclusief bewijs. Onderzoekers van de Wall Street Journal hebben FSD-computers uit afgedankte Tesla's gehaald en naar hackers gestuurd om de ruwe Autopilot-gegevens te extraheren.

Tesla houdt dit soort gegevens anders geheim, omdat ze laten zien hoe de hulpalgoritmen voor de bestuurder on-the-fly denken en reageren, omdat ze uitsluitend vertrouwen op het interpreteren van de input van een paar mensen Tesla Vision camera's.

De lessen uit de verzamelde ruwe Autopilot-besluitvormingsgegevens werden vervolgens gekoppeld aan ongevalsbeelden van de camera's van Tesla-auto's. De WSJ vergeleek ook de rapporten van individuele staten met de federale database van ongevallen die de NHTSA bijhoudt voor haar eigen crashonderzoek onderzoeken slaagde erin om 222 Tesla-ongevallen na te spelen.

In 44 daarvan deden de ongelukken zich voor toen Tesla's op Autopilot "plotseling wegdraaiden", terwijl 31 ongelukken plaatsvonden toen de voertuigen "niet stopten of voorrang verleenden" Uit het onderzoek bleek dat dit laatste leidde tot de ernstigste ongelukken met Tesla's die op Autopilot reden.

Experts, die de beelden van zulke ongelukken zagen en de manier waarop het Autopilot systeem algoritmisch werkt, zeiden dat het tijd zal kosten om het te trainen op alles wat er op de weg gebeurt. Een van de dodelijke ongelukken was bijvoorbeeld te wijten aan het niet herkennen van een gekantelde dubbele aanhanger die de snelweg blokkeerde.

Het systeem wist niet wat dit was, dus reed het met volle snelheid tegen de aanhanger aan. Er zijn genoeg voorbeelden waarbij Autopilot in de war raakt door de lichten van hulpverleningsvoertuigen en er ook tegenaan knalt.

Over het algemeen wijzen de bevindingen erop dat zelfrijdende Teslas crashen om zowel hardware- als softwarematige redenen. De genoemde problemen variëren van trage algoritme-updates tot onvoldoende camerakalibratie. Er is echter meer diepgaande informatie van onafhankelijke bronnen nodig voordat dit Autopilot-gegevenslek de belangrijkste veronderstelling van Elon Musk, namelijk dat de zelfsturende functie van Tesla uiteindelijk veiliger is dan menselijke bestuurders, in twijfel trekt.

Koop de 80A Tesla Gen 2 Muurconnector met 24' kabel op Amazon

Bron(nen)

Please share our article, every link counts!
> Overzichten en testrapporten over laptops en mobieltjes > Nieuws > Nieuws Archief > Nieuws archieven 2024 07 > Gehackte Tesla FSD-computers onthullen alarmerende ruwe gegevens over dodelijke Autopilot-ongevallen
Daniel Zlatev, 2024-07-30 (Update: 2024-09- 8)