Nessuno è perfetto, neanche le intelligenze artificiali create a tavolino: o forse si, ma soltanto algoritmicamente parlando e non nella vita reale.
Perché la “causa” del primo incidente stradale provocato dalla Google Self-driving car è proprio questa: il comportamento dell’automobile faccia a faccia con l’imprevisto è stato corretto se si considera l’algoritmo di gestione ma imprevedibile se si tiene conto dello scenario reale con cui questo è avvenuto.
Innanzitutto, non ci sono stati feriti. In secondo luogo, chiariamo che non si tratta del primo incidente per le self-driving Car, ma del primo “provocato” da una di esse in modalità di guida autonoma – dunque, in pratica, da una intelligenza artificiale.
E adesso, la dinamica: secondo il report, la collisione è avvenuta poiché la Google Lexus ha trovato sul suo percorso alcuni sacchi di sabbia a protezione di un tombino aperto, si è fermata ed ha cercato di immettersi nella corsia centrale. Il guidatore a bordo della Lexus, che non aveva il controllo – affidato al pilota automatico – del veicolo, ha pensato che l’autobus che occupava la corsia centrale si sarebbe fermato – o avrebbe quantomeno rallentato – per permettere il cambio alla Lexus, così come l’algoritmo stesso, dunque non ne ha assunto il controllo manuale.
Ciò non è successo, l’autobus non si è fermato né ha rallentato ma la Google Lexus ha tentato comunque di immettersi in corsia dunque tre secondi dopo c’è stato l’impatto tra la fiancata dell’automobile e quella del bus.
Un classico incidente stradale evitabile sia nel caso che l’autobus avesse rallentato sia nel caso che la Google Car si fosse fermata e ne avesse atteso il passaggio; secondo il codice della strada, l’autobus non aveva nessun obbligo a cambiare la sua marcia – dunque, di fatto, l’incidente è stato provocato dal non-fermarsi della Lexus.
Morale della favola: un incidente che non sarebbe avvenuto sia se da ambo le parti ci fosse stato il controllo umano sia se da ambo le parti ci fosse stato il pilota automatico – il tentativo di immissione della Lexus sarebbe stato visto come un ostacolo dal bus, che l’algoritmo di controllo avrebbe bloccato automaticamente.
Trattasi quindi della dimostrazione che la convivenza tra pilota automatico e pilota umano non è assolutamente sinonimo di perfezione né di sicurezza assoluta.
Almeno non ancora.