L'inverno scorso è stato riproposto il dibattito vaccino si - vaccino no. Negli ultimi anni è stata una hit di successo, solo che stavolta si è aggiunta l'impennata dovuta alla probabile relazione tra vaccini ed autismo. Ci si chiede se un genitore deve essere propenso a vaccinare, accettando qualche rischio (veramente non ancora dimostrato), evitando così che batteri e virus si diffondano, oppure lasciare il pargolo senza precauzioni, pensando che questo sia il suo bene, ma permettendo alle malattie di diffondersi. Questo si definisce dilemma sociale. Qualcosa di simile si sta ponendo negli ultimi tempi circa la programmazione dei veicoli a guida autonoma, quelli tipo la Google-car, per intenderci. Vediamo perchè.
Allo stato
attuale, l'intelligenza artificiale non è ancora evoluta al punto di prendere
decisioni senza una programmazione umana, con la quale siamo noi stessi a
decidere come un computer, un robot o qualsivoglia sistema digitale, debba comportarsi
di fronte ad un evento. Proprio per questo un veicolo autonomo dovrà avere la
capacità, appresa mediante complessi algoritmi, di decidere il da farsi davanti
ad una situazione tipica della letteratura di settore, quella di un improvviso
attraversamento di pedoni. Potrà succedere infatti che scansi il gruppo di
pedoni ma buttandosi su un marciapiede colpisca una persona che passa in quel
momento; oppure per scansarli si vada a schiantare mettendo in pericolo
l'incolumità dei passeggeri; o ancora, al contrario, decida di proteggere gli
occupanti dell'auto investendo uno o più pedoni. Parliamo naturalmente di
situazioni in cui non basterebbe solo frenare per evitare l'impatto. Capire la
soluzione migliore da scegliere, per chi programma, ha chiaramente un impatto
etico e morale; perciò, se in futuro queste vetture si diffondessero davvero, i
produttori e le autorità tecniche dovrebbero seguire un atteggiamento coerente
in ogni situazione, evitare di provocare indignazione pubblica ed infine non scoraggiare
gli acquirenti. Un compito al limite del possibile.
Per provare a
tracciare un quadro più realistico, all'università della California, Dipartimento
di Psicologia e Comportamento Sociale, hanno condotto sul tema sei diversi sondaggi
online, raggruppando per ognuno circa 350 persone. I risultati hanno
evidenziato un comportamento simile a quello della sindrome NIMBY , nel senso che le persone in primis
mostravano preferenza per quei veicoli senza conducente che minimizzano il
danno, ossia tendevano a sacrificare il singolo passeggero oppure il passante
sul marciapiede, piuttosto che travolgere più pedoni in attraversamento. Ma,
davanti a domande del tipo "vale ancora questo ragionamento con lei in
macchina e suoi familiari ?", la probabilità di ottenere la stessa
preferenza tendeva a scendere; ciò si faceva decisamente più forte se, a parità
di logica di scelta da parte del veicolo, veniva chiesto agli intervistati se
avessero voluto acquistare un mezzo del genere. In altre parole, le risposte
avevano un certo trend se il partecipante rispondeva con la logica di stare
fuori da quel veicolo, e probabilmente essere un pedone così salvato, ne
avevano uno opposto se lui stesso si fosse trovato all'interno dell'abitacolo.
Ecco l'assonanza con la Nimby: salviamo più vite umane solo se si decide delle
vite altrui, salviamo noi stessi se invece possiamo trovarci in pericolo,
ignorando l'esigenza dei tanti.
Si tratta di un
vero e proprio dilemma sociale. Si gioca infatti una partita tra la coppia
vantaggio individuale - svantaggio collettivo e la coppia svantaggio
individuale - vantaggio collettivo. Quasi tutti hanno chiara la finalità di
risparmiare più vite umane possibili, minimizzare i danni del probabile
incidente, ma poi, quando lo svantaggio individuale riguarda sè stessi, ci
ripensano. Solo che nel caso dei veicoli autonomi è in gioco anche l'economia
di scala che potrebbe portare al successo di questo genere di mobilità o alla
loro fine prematura. Qualcuno potrebbe affermare l'inutilità di simili mezzi di
trasporto. Certo, eliminare lo stress della guida, poter fare altre attività,
essere sicuri di arrivare alla giusta destinazione senza seguire (e sbagliare)
il navigatore, sono benefici importanti. Sarà un volano sufficiente per
trovarcele sulle strade nei prossimi decenni ? O piuttosto le auto dei nostri
epigoni avranno il pilota automatico solo come alternativa ? La tecnologia
presenta ancora alcune falle da colmare. Se poi ci sono da risolvere anche
questioni etiche e morali, apriti cielo. Intanto, qualche giorno fa, negli
Stati Uniti, una Tesla a guida automatica, durante una prova su strada vera, si
è schiantata contro un camion. Chissà, il software aveva un bug e al rientro
sarebbe stato sufficiente fare un aggiornamento. Provate a dirlo ai familiari
della vittima.
Nessun commento:
Posta un commento