L’inevitabile è successo: il 7 maggio scorso, a quanto ci è dato sapere, si è verificato in Florida il primo incidente mortale dove è stata coinvolta un’auto che, al momento, operava in modalità semi-autonoma.

Le investigazioni, sia quella interna di Tesla, che quelle di enti governativi come l’NHTSA, sono ancora in corso, ma pare che il software di guida abbia confuso il colore chiaro del rimorchio con quello del cielo, non rilevando l’ostacolo che si avvicinava. I segnali del radar, invece, sono stati interpretati, secondo Elon Musk stesso, come un cartello sopraelevato, non un rischio.

In effetti il sistema di Tesla potrebbe avere qualche problemino di gioventù: tuttavia, proprio per evitare complicazioni, l’azienda californiana ripete spesso che l’Autopilot non è un sistema indipendente, ma semi-autonomo, il che vuol dire che ha dei limiti, riconosciuti anche dall’azienda israeliana che ha contribuito alla sua creazione, e può operare solo sotto la sorveglianza dell’autista, che deve tenersi pronto a prendere il controllo in qualsiasi momento.

Come in aereo, dove, pur essendo il pilota automatico in grado di mantenere il controllo per buona parte del volo, la presenza dei piloti resta fondamentale. Prima di poter esprimere giudizi in merito, va poi considerata l’ambientazione dell’incidente: si tratta di un incrocio a raso su un tipo di strada assimilabile alle nostre statali principali, quelle a carreggiate separate, per intenderci.

Non serve sottolineare la pericolosità di questi attraversamenti, la cui presenza, in Italia, è vietata dal Codice della Strada. Per ultimo bisogna considerare il conducente, rimasto vittima dell’urto, che forse non era poi così “pronto a prendere il controllo in qualsiasi momento” come avrebbe dovuto, anche se qui scendiamo in un territorio puramente speculativo, che è meglio evitare per non rischiare di offendere inutilmente la memoria del defunto.

Insomma, questo non pare l’evento epocale dipinto dai media sensazionalisti. Certo, la perdita di una vita umana non è un evento felice, ed è innegabile che vi è stata una rilevazione errata da parte del sistema, tuttavia la guida autonoma non può essere l’unica imputata: non siamo in un romanzo di Stephen King, dove auto in preda alla follia uccidono “volontariamente” le persone.

Qualsiasi programma non sarà mai totalmente immune da errori, così come ogni sensore è prono a rilevazioni errate: nemmeno il cervello o gli occhi di noi esseri umani lo sono. Comprendere ciò è fondamentale. Gli automobilisti devono capire che passeranno decenni prima di arrivare ad un mondo dove basterà salire in auto e premere un bottone per poi dedicarsi ad altro. Con gli attuali sistemi semi-autonomi, è necessario dedicare alla guida la stessa attenzione di sempre.

Le istituzioni dovranno tener conto di incidenti come questo, quando si andranno a promulgare normative ad-hoc che sono sempre più necessarie. Casi come questo dimostrano che l’attitudine “laissez-faire”, usata dai legislatori nei confronti dei sistemi attuali, può essere incompatibile con la condizione delle reti viarie o del traffico, soprattutto se si pensa al futuro, alla guida totalmente autonoma.

Tuttavia, se le istituzioni si troveranno a dover fare la parte del leone, non da meno sarà il ruolo delle case automobilistiche, che dovranno fare quanto in loro potere per affinare sempre di più queste nuove tecnologie ed educare noi automobilisti al rispetto di esse, in modo da guadagnare la fiducia non solo dei loro clienti, ma di tutti gli attori di quell’intricato mondo che è la mobilità moderna su strada.

Lascia un commento

Informativa

Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy.
Chiudendo questo banner, scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all’uso dei cookie.