Incidente mortale in Tesla, l’Autopilot era attivo ma il conducente non ha risposto ai suoi avvisi
Incidente mortale in Tesla, l’Autopilot era attivo ma il conducente non ha risposto ai suoi avvisi
https://ift.tt/2E8C8lR
Un incidente avvenuto a Mountain View, in California, nel quale ha perso la vita il conducente di una Tesla Model X, ha posto nuovi interrogativi sul sistema di guida assistita di Tesla, il cosiddetto Autopilot.
L’incidente, e soprattutto la conseguente indagine delle autorità statunitensi per la sicurezza dei trasporti (NTSB), è anche una delle ragioni della forte caduta (8%) delle azioni Tesla e del declassamento del credit rating di Tesla da parte di Moody. Le altre sono le lentezze, rispetto alle promesse di Elon Musk, nella produzione della Model 3 (il modello meno caro delle Tesla, che è in vendita ma col contagocce) e le conseguenti incertezze sull’indebitamento dell’azienda. Insomma, è un momento difficile per Tesla.
Poche ore fa è emerso che al momento dell’incidente l‘Autopilot della Model X era attivo. Questo sembra indicare un difetto grave nel sistema di guida assistita che avrebbe ripercussioni enormi su Tesla e sulle circa 280.000 sue auto circolanti, oltre che sull’intero concetto di guida autonoma, già scosso dal recente incidente mortale di un’auto di Uber.
Ma è importante capire la dinamica di questo incidente prima di saltare a conclusioni affrettate.
Secondo il rapporto della California Highway Patrol, l’auto ha colpito frontalmente e di testa lo spartitraffico, si è incendiata ed è stata colpita da altre due auto. L’impatto è stato terribilmente violento perché lo spartitraffico non aveva più l’ammortizzatore apposito, che era andato distrutto in un altro incidente, nel quale aveva contribuito a salvare il conducente smorzando l’impatto.
Tesla ha dichiarato che secondo i dati dei sensori di bordo “negli istanti che hanno preceduto la collisione, avvenuta alle 9:27 del mattino venerdì 23 marzo, l’Autopilot era attivato, con la distanza di inseguimento del cruise control adattivo impostata al minimo” (la guida assistita dell’auto mantiene automaticamente la distanza dal veicolo che la precede, e questa distanza era impostata al valore minimo). Ma nota anche che “il conducente aveva ricevuto numerosi avvisi visivi e uno acustico di riprendere il controllo poco prima, durante la guida, e le mani del conducente non sono state rilevate sul volante per sei secondi prima della collisione. Il conducente ha avuto circa cinque secondi e 150 metri di visuale non ostruita dello spartitraffico in cemento con l’ammortizzatore collassato, ma le registrazioni del veicolo mostrano che non è stata intrapresa alcuna azione.”
In altre parole, sembra che si tratti ancora una volta di un caso di uso scorretto dell’Autopilot, che non è un sistema di guida automatica ma è solo un assistente di guida, nonostante il nome ingannevole e altisonante. Il conducente deve essere costantemente vigile e pronto a intervenire. Ma troppo spesso i conducenti di queste auto attribuiscono a questi sistemi capacità che assolutamente non hanno, si fidano troppo e iniziano a ignorare gli allarmi. Nel contempo, sembra chiaro che il sistema di guida assistita non è stato in grado di gestire un ostacolo fermo sulla carreggiata, e non è la prima volta che succede.
È importante sottolineare che l’informatizzazione delle auto, particolarmente spinta nelle Tesla e in altre marche, consente di avere dati tecnici che permettono di ricostruire gli eventi con precisione e (si spera) evitare altri eventi come questo. Senza questi dati, le cause di questo incidente mortale resterebbero probabilmente un mistero.
Fonti aggiuntive: Electrek, Teslarati. Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle donazioni dei lettori. Se vi è piaciuto, potete incoraggiarmi a scrivere ancora facendo una donazione anche voi, tramite Paypal (paypal.me/disinformatico), Bitcoin (3AN7DscEZN1x6CLR57e1fSA1LC3yQ387Pv) o altri metodi.
tecnologia
via Il Disinformatico https://ift.tt/1h71Cjx
March 31, 2018 at 10:58AM
https://ift.tt/2E8C8lR
Un incidente avvenuto a Mountain View, in California, nel quale ha perso la vita il conducente di una Tesla Model X, ha posto nuovi interrogativi sul sistema di guida assistita di Tesla, il cosiddetto Autopilot.
L’incidente, e soprattutto la conseguente indagine delle autorità statunitensi per la sicurezza dei trasporti (NTSB), è anche una delle ragioni della forte caduta (8%) delle azioni Tesla e del declassamento del credit rating di Tesla da parte di Moody. Le altre sono le lentezze, rispetto alle promesse di Elon Musk, nella produzione della Model 3 (il modello meno caro delle Tesla, che è in vendita ma col contagocce) e le conseguenti incertezze sull’indebitamento dell’azienda. Insomma, è un momento difficile per Tesla.
Poche ore fa è emerso che al momento dell’incidente l‘Autopilot della Model X era attivo. Questo sembra indicare un difetto grave nel sistema di guida assistita che avrebbe ripercussioni enormi su Tesla e sulle circa 280.000 sue auto circolanti, oltre che sull’intero concetto di guida autonoma, già scosso dal recente incidente mortale di un’auto di Uber.
Ma è importante capire la dinamica di questo incidente prima di saltare a conclusioni affrettate.
Secondo il rapporto della California Highway Patrol, l’auto ha colpito frontalmente e di testa lo spartitraffico, si è incendiata ed è stata colpita da altre due auto. L’impatto è stato terribilmente violento perché lo spartitraffico non aveva più l’ammortizzatore apposito, che era andato distrutto in un altro incidente, nel quale aveva contribuito a salvare il conducente smorzando l’impatto.
L’ammortizzatore nelle sue condizioni normali, visto da Google Street View. |
L’ammortizzatore com’era il giorno prima dell’incidente della Tesla. |
Tesla ha dichiarato che secondo i dati dei sensori di bordo “negli istanti che hanno preceduto la collisione, avvenuta alle 9:27 del mattino venerdì 23 marzo, l’Autopilot era attivato, con la distanza di inseguimento del cruise control adattivo impostata al minimo” (la guida assistita dell’auto mantiene automaticamente la distanza dal veicolo che la precede, e questa distanza era impostata al valore minimo). Ma nota anche che “il conducente aveva ricevuto numerosi avvisi visivi e uno acustico di riprendere il controllo poco prima, durante la guida, e le mani del conducente non sono state rilevate sul volante per sei secondi prima della collisione. Il conducente ha avuto circa cinque secondi e 150 metri di visuale non ostruita dello spartitraffico in cemento con l’ammortizzatore collassato, ma le registrazioni del veicolo mostrano che non è stata intrapresa alcuna azione.”
In altre parole, sembra che si tratti ancora una volta di un caso di uso scorretto dell’Autopilot, che non è un sistema di guida automatica ma è solo un assistente di guida, nonostante il nome ingannevole e altisonante. Il conducente deve essere costantemente vigile e pronto a intervenire. Ma troppo spesso i conducenti di queste auto attribuiscono a questi sistemi capacità che assolutamente non hanno, si fidano troppo e iniziano a ignorare gli allarmi. Nel contempo, sembra chiaro che il sistema di guida assistita non è stato in grado di gestire un ostacolo fermo sulla carreggiata, e non è la prima volta che succede.
È importante sottolineare che l’informatizzazione delle auto, particolarmente spinta nelle Tesla e in altre marche, consente di avere dati tecnici che permettono di ricostruire gli eventi con precisione e (si spera) evitare altri eventi come questo. Senza questi dati, le cause di questo incidente mortale resterebbero probabilmente un mistero.
Fonti aggiuntive: Electrek, Teslarati. Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle donazioni dei lettori. Se vi è piaciuto, potete incoraggiarmi a scrivere ancora facendo una donazione anche voi, tramite Paypal (paypal.me/disinformatico), Bitcoin (3AN7DscEZN1x6CLR57e1fSA1LC3yQ387Pv) o altri metodi.
Scritto da Paolo Attivissimo per il blog Il Disinformatico. Ripubblicabile liberamente se viene inclusa questa dicitura (dettagli). Sono ben accette le donazioni Paypal.
tecnologia
via Il Disinformatico https://ift.tt/1h71Cjx
March 31, 2018 at 10:58AM
Comments