venerdì 8 luglio 2016

Veicoli autonomi, chi sacrificare negli incidenti ?



L'inverno scorso è stato riproposto il dibattito vaccino si - vaccino no. Negli ultimi anni è stata una hit di successo, solo che stavolta si è aggiunta l'impennata dovuta alla probabile relazione tra vaccini ed autismo. Ci si chiede se un genitore deve essere propenso a vaccinare, accettando qualche rischio (veramente non ancora dimostrato), evitando così che batteri e virus si diffondano, oppure lasciare il pargolo senza precauzioni, pensando che questo sia il suo bene, ma permettendo alle malattie di diffondersi. Questo si definisce dilemma sociale. Qualcosa di simile si sta ponendo negli ultimi tempi circa la programmazione dei veicoli a guida autonoma, quelli tipo la Google-car, per intenderci. Vediamo perchè.

Allo stato attuale, l'intelligenza artificiale non è ancora evoluta al punto di prendere decisioni senza una programmazione umana, con la quale siamo noi stessi a decidere come un computer, un robot o qualsivoglia sistema digitale, debba comportarsi di fronte ad un evento. Proprio per questo un veicolo autonomo dovrà avere la capacità, appresa mediante complessi algoritmi, di decidere il da farsi davanti ad una situazione tipica della letteratura di settore, quella di un improvviso attraversamento di pedoni. Potrà succedere infatti che scansi il gruppo di pedoni ma buttandosi su un marciapiede colpisca una persona che passa in quel momento; oppure per scansarli si vada a schiantare mettendo in pericolo l'incolumità dei passeggeri; o ancora, al contrario, decida di proteggere gli occupanti dell'auto investendo uno o più pedoni. Parliamo naturalmente di situazioni in cui non basterebbe solo frenare per evitare l'impatto. Capire la soluzione migliore da scegliere, per chi programma, ha chiaramente un impatto etico e morale; perciò, se in futuro queste vetture si diffondessero davvero, i produttori e le autorità tecniche dovrebbero seguire un atteggiamento coerente in ogni situazione, evitare di provocare indignazione pubblica ed infine non scoraggiare gli acquirenti. Un compito al limite del possibile.

Per provare a tracciare un quadro più realistico, all'università della California, Dipartimento di Psicologia e Comportamento Sociale, hanno condotto sul tema sei diversi sondaggi online, raggruppando per ognuno circa 350 persone. I risultati hanno evidenziato un comportamento simile a quello della sindrome NIMBY , nel senso che le persone in primis mostravano preferenza per quei veicoli senza conducente che minimizzano il danno, ossia tendevano a sacrificare il singolo passeggero oppure il passante sul marciapiede, piuttosto che travolgere più pedoni in attraversamento. Ma, davanti a domande del tipo "vale ancora questo ragionamento con lei in macchina e suoi familiari ?", la probabilità di ottenere la stessa preferenza tendeva a scendere; ciò si faceva decisamente più forte se, a parità di logica di scelta da parte del veicolo, veniva chiesto agli intervistati se avessero voluto acquistare un mezzo del genere. In altre parole, le risposte avevano un certo trend se il partecipante rispondeva con la logica di stare fuori da quel veicolo, e probabilmente essere un pedone così salvato, ne avevano uno opposto se lui stesso si fosse trovato all'interno dell'abitacolo. Ecco l'assonanza con la Nimby: salviamo più vite umane solo se si decide delle vite altrui, salviamo noi stessi se invece possiamo trovarci in pericolo, ignorando l'esigenza dei tanti. 

Si tratta di un vero e proprio dilemma sociale. Si gioca infatti una partita tra la coppia vantaggio individuale - svantaggio collettivo e la coppia svantaggio individuale - vantaggio collettivo. Quasi tutti hanno chiara la finalità di risparmiare più vite umane possibili, minimizzare i danni del probabile incidente, ma poi, quando lo svantaggio individuale riguarda sè stessi, ci ripensano. Solo che nel caso dei veicoli autonomi è in gioco anche l'economia di scala che potrebbe portare al successo di questo genere di mobilità o alla loro fine prematura. Qualcuno potrebbe affermare l'inutilità di simili mezzi di trasporto. Certo, eliminare lo stress della guida, poter fare altre attività, essere sicuri di arrivare alla giusta destinazione senza seguire (e sbagliare) il navigatore, sono benefici importanti. Sarà un volano sufficiente per trovarcele sulle strade nei prossimi decenni ? O piuttosto le auto dei nostri epigoni avranno il pilota automatico solo come alternativa ? La tecnologia presenta ancora alcune falle da colmare. Se poi ci sono da risolvere anche questioni etiche e morali, apriti cielo. Intanto, qualche giorno fa, negli Stati Uniti, una Tesla a guida automatica, durante una prova su strada vera, si è schiantata contro un camion. Chissà, il software aveva un bug e al rientro sarebbe stato sufficiente fare un aggiornamento. Provate a dirlo ai familiari della vittima.



Nessun commento:

Posta un commento