Veicoli a guida autonoma in viaggio verso il diritto

Leggi anche in English
Tempo di lettura: 7 min

I veicoli a guida autonoma reagiscono in una frazione di secondo, ovvero più rapidamente del più attento guidatore. I veicoli autonomi non sono mai stanchi, deconcentrati o aggressivi, non hanno preoccupazioni o problemi legati alla quotidianità, non soffrono la fame né hanno mai mal di testa. I veicoli autonomi non bevono alcol e non si mettono mai in viaggio sotto l’effetto di droghe. In breve, se vietassimo subito la guida manuale, gli incidenti causati dall’errore umano sarebbero solo un ricordo del passato. Non è forse così? Ciò sarebbe vero, se non fossero recentemente giunte notizie di due decessi durante il collaudo di un veicolo autonomo (UBER) e durante il viaggio su autostrada di un autoveicolo parzialmente automatizzato con sistema anti-sbandamento (Tesla). Entrambi gli incidenti sono avvenuti nel marzo 2018 negli Stati Uniti. Nel caso di Tesla non è ancora chiarito se l’assistente di guida semiautomatico fosse attivo al momento dell’incidente.

Ogni giorno in tutto il mondo muoiono esseri umani a causa di distrazioni nel traffico stradale, e il 90% di tutti gli incidenti è imputabile a un errore umano, mentre solo una minima parte ha come causa un problema tecnico dell’autoveicolo. Ma, nonostante gli errori umani, non vietiamo di guidare. Due incidenti mortali che hanno visto coinvolti veicoli a guida autonoma in fase di collaudo, invece, hanno attirato l’attenzione mediatica di tutto il mondo, e hanno fatto sorgere dubbi sullo sviluppo tecnico di un’industria, che sta facendo passi da gigante. I veicoli autonomi sono soltanto una moda, oppure una tendenza ormai inarrestabile?

Per molti osservatori, l’idea di un’auto del futuro completamente autonoma, in grado di guidarsi da sola senza conducente, è fonte di disagio. E certamente i due recenti decessi negli Stati Uniti causati da veicoli (parzialmente) autonomi hanno contribuito a diffondere questa paura. Da un punto di vista giuridico, però, per i soggetti che hanno subito il danno è indifferente se la causa di un incidente sia una persona distratta oppure una tecnologia che non funziona in maniera adeguata. Se ciononostante viene fatta una distinzione, è probabilmente perché un errore umano rappresenta un incidente isolato, mentre il mancato funzionamento ovvero il difetto di una tecnologia costituisce – come è comprensibilmente giusto ritenere – un difetto che concerne il sistema o la serie di una tecnologia esistente in un determinato momento.

Dal punto di vista giuridico, un difetto tecnico rappresenta di solito anche un difetto di costruzione che riguarda tutta la serie di un modello di automobile. Solitamente, quando si verificano decessi dovuti a errori di software, la gente perde di colpo la fiducia in altri veicoli dotati del medesimo software difettoso. Mentre se un conducente ubriaco ferisce o uccide qualcuno in un incidente stradale non si concluderà che tutti gli altri conducenti, o la maggior parte di essi, siano guidatori potenzialmente ubriachi.

La domanda fondamentale per tutti gli sviluppi tecnologici è la seguente: vogliamo i veicoli autonomi?

Quando parliamo di veicoli autonomi o di auto senza guidatore intendiamo macchine guidate da computer. Al giorno d’oggi l’utilizzo di computer di bordo nel settore del trasporto aereo è una pratica ormai diffusa: i piloti conducono aeromobili senza dover costantemente tenere le mani sulla cloche e – “nonostante” ciò – da un punto di vista statistico, gli aerei sono il mezzo di trasporto più sicuro. Non potrebbe l’automobile diventare altrettanto sicura? Paragonare gli aeroplani alle automobili non è però corretto, sia in base ai diversi gruppi di utenti, sia per il numero di aerei pilotati ogni giorno, sia a causa del costante pericolo d’imminente collisione con altri partecipanti al traffico stradale, ivi inclusi i pedoni.

Mentre i sistemi di assistenza alla guida riscontrabili in diversi modelli diffusi di autoveicoli – come il sistema anti-sbandamento, l’assistenza al parcheggio o al mantenimento della distanza di sicurezza – sono fondamentalmente consentiti e vengono ammessi in Europa, la legislazione attualmente in vigore in Europa e in Austria prevede l’uso di veicoli (parzialmente) autonomi esclusivamente ai fini di un collaudo. Inoltre, i collaudi su strada in Austria possono essere effettuati solo su autostrade ovvero con navette nel traffico urbano seguendo percorsi specificamente contrassegnati (come avviene per i collaudi con minibus nelle città di Salisburgo e Velden); inoltre deve sempre trovarsi a bordo del veicolo una persona, che deve potere prontamente intervenire in caso di incidente imminente, al fine di correggere un errore di guida del computer ovvero per riassumere il controllo (umano) del veicolo.

Anche la normativa degli Stati federali americani che consentono i collaudi su strada prevede (per il momento ancora) che debbano trovarsi all’interno del veicolo delle persone (la California ha annunciato, prima degli incidenti summenzionati, una legge che renderà obsoleta la presenza di un essere umano in vettura). Si pongono perciò tre quesiti riguardo all’incidente di UBER durante il collaudo su strada in Arizona, che ha visto la collisione con una ciclista e il decesso di quest’ultima: 1. la persona che per ragioni di sicurezza si trovava all’interno del veicolo avrebbe potuto azionare un freno di emergenza e con ciò impedire la collisione con la ciclista che all’improvviso attraversava la strada? 2. Per quali ragioni i sensori incorporati nel veicolo non hanno riconosciuto per tempo la ciclista? 3. Come mai l’autovettura non ha rispettato il limite di velocità previsto dalla legge?

Attualmente vengono collaudati sistemi di guida sia in Europa che negli Stati Uniti. In questi ultimi, i collaudi sono possibili anche sulle strade statali e nel traffico urbano. Fintanto che saremo ancora nelle fasi di collaudo, non si può parlare di sistemi di guida tecnicamente provati, e ancor meno ufficialmente autorizzati. Lo sviluppo tecnico dei veicoli autonomi mostra tuttavia chiaramente sin da ora che la responsabilità giuridica si sposterà sempre di più dai conducenti ai costruttori dei veicoli e ai creatori di software.

Se e quando i veicoli autonomi costituiranno un fenomeno di massa dipende pertanto in modo essenziale da determinate questioni (future): gli esseri umani possono legittimamente aspettarsi una sicurezza assoluta dei veicoli autonomi? Inoltre, che decisioni prenderanno i veicoli autonomi nel caso in cui, ad esempio, una vita umana possa essere salvata solo sacrificandone un’altra, e in che modo si può risolvere tale dilemma?

Anche nel momento in cui l’intelligenza artificiale (IA) e i sistemi di apprendimento automatico faranno il loro ingresso nella tecnologia dei veicoli autonomi, ciò che ne risulterà saranno forse “robot umanoidi su quattro ruote” ma non saranno comunque paragonabili ad un individuo dotato di determinati valori e principi morali. Mentre ogni essere umano in una specifica situazione di incidente è personalmente responsabile del proprio comportamento messo in atto in maniera solitamente intuitiva, diventano evidenti i confini del nostro sistema giuridico nel momento in cui gli algoritmi ricavati da enormi quantità di dati prendono già in anticipo decisioni in merito a una futura situazione di incidente, le quali difficilmente possono essere attribuite a una determinata persona ovvero a un creatore di software nel caso di un veicolo autonomo. Sarà compito di noi giuristi prestare assistenza legale al legislatore nel suo sforzo di far fronte a queste sfide.

Andreas Eustacchio
  • Contenzioso
  • Diritto societario
  • Intelligenza artificiale
  • Lavoro

Scrivi a Andreas Eustacchio





    Leggi la privacy policy di Legalmondo.
    Questo sito è protetto da reCAPTCHA e si applicano le Norme sulla privacy e i Termini di servizio di Google.