Incidente Tesla: una coincidenza sfortunata?

Non cessano le duscussioni e i dibattiti a seguito dell’incidente mortale di una Tesla a guida semiautonoma, incidente che è stato reso noto il 30 giugno in occasione dell’apertura di un’inchiesta da parte dell’organismo responsabile della sicurezza stradale negli USA (NHTSA).

Tra l’altro, oltre alle polemiche sul pilota automatico vi sono anche accuse per aver tenuto nascosto l’incidente. Fortune ha infatti dichiarato che Tesla nascose l’episodio dell’incidente fatale agli investitori perché ciò avrebbe potuto danneggiare le quotazioni delle azioni dell’azienda in borsa, accusa che i vertici di Palo Alto respingono.

Ma la domanda che tutti si fanno è: perché, in una autostrada a due corsie, in Florida, in condizioni di tempo buone, la funzione di guida assistita della Tesla S non ha rilevato un semi-rimorchio che gli tagliava la strada?

Tesla sostiene che il sistema ha già percorso 130 milioni di miglia e questo è stato il primo episodio fatale, facendone statisticamente un sistema più sicuro della guida umana. Sulle cause dell’incidente Tesla precisa: «Per essere precisi questo incidente è il risultato di un semirimorchio che ha attraversato entrambe le linee continue di un’autostrada di fronte ad un’auto che sopraggiungeva. La situazione avrebbe richiesto una manovra di emergenza in modalità manuale».

«Si è trattato di una coincidenza sfortunata, spiega a L’Argus Arnaud de la Fortelle, direttore del laboratodio di robotica di Mines ParisTech ed esperto di vetture semi autonome. Vale a dire, la combinazione di una cattiva configurazione dei sensori legati a tecniche di apprendimento che non hanno programmate questo caso – insolito – e un utilizzo piuttosto abusivo della condotta “automatica” perché Autopilot è solo semi-automatico e doveva permanere la supervisione del conducente. Ma è ovvio che nessuno sembra voler usarlo in questo modo».

Un incidente stradale è un evento raro che ha sempre più cause simultanee. Raro significa dunque difficile o impossibile da apprendere, a livello di machine learning.

Quanto è avvenuto non implica che la guida automatizzata sia meno sicura di quella manuale. Ma ovviamente urge una riflessione più profonda su tutto il sistema.