L’utilizzo dell’intelligenza artificiale
(IA) si sta evolvendo rapidamente. C’è chi pensa si tratti di sistemi destinati
a rimanere in laboratorio, oppure ad essere usati solo da grandi aziende.
Invece non è affatto così. Parliamo di un business destinato nei prossimi tempi
a crescere in modo esponenziale, ma anche a modificare in modo sensibile la
vita quotidiana. Ne avevamo già parlato in altre occasioni, ad esempio riguardo
alle macchine atte a leggere
la comunicazione non-verbale, oppure circa un progetto di messa a punto di una voce sintetica più umana
possibile. Già oggi esistono aziende che lavorano con obiettivi precisi per
tale scopo; una di esse, non molto conosciuta, è Affectiva che, dal 2009 a Boston, sta provando a digitalizzare le
emozioni.
Ho usato apposta quello che si potrebbe
definire un ossimoro: da una parte il digitale, fatto di freddi numeri,
asettici e ben definiti, dall’altra le emozioni, con le loro mille sfumature,
oggettive e soggettive. Ma in Affectiva questa è una grande sfida: riuscire a
far capire alle macchine qual è il nostro stato d’animo e farle comportare di
conseguenza. Quando dico macchine intendo ogni dispositivo tecnologico con cui
interagiamo: lo smartphone, la nostra auto, la casa con le sue propaggini
informatiche ed elettroniche, e via discorrendo. Così in questa società sono
stati collezionati alcuni milioni di video raccolti in 87 paesi, consentendo di
definire un sistema di IA per comprendere le espressioni del viso legate alle
emozioni, tenendo conto anche delle differenze di cultura nell'espressività.
Utilizzando la computer-vision,
l'analisi del linguaggio e il cosiddetto "apprendimento profondo", sono
riusciti a classificare espressioni facciali e vocali in base all'emozione del
momento.
L'intelligenza artificiale che diventa
quindi "intelligenza emotiva artificiale", incentrata su algoritmi di
sviluppo che possono identificare non solo le emozioni umane di base come la
felicità, la tristezza e la rabbia, ma anche stati cognitivi più complessi come
stanchezza, attenzione, interesse, confusione e distrazione. Il CEO di
Affectiva, Rana el Kaliouby, ha detto che queste tecnologie di interazione
emotiva potrebbero essere disponibili nei prossimi cinque anni: "La
maggior parte dei dispositivi risponderà agli stati cognitivi ed emotivi umani,
proprio come fanno gli uomini. L'intelligenza emotiva artificiale sarà radicata
nelle tecnologie che utilizziamo ogni giorno, rendendo le nostre interazioni
più personalizzate, autentiche, molto simili a quelle tra persone".
E' facile per esempio considerare che se
un'autovettura "conosce" il conducente può monitorarne il grado di stanchezza o di
distrazione; in alternativa, potrebbe favorire una migliore esperienza per i
viaggiatori, cambiando la musica o le impostazioni ergonomiche a seconda di chi
sta trasportando. Ma non è il solo settore a poterne beneficiare. Pensate all'apprendimento
on-line (e-learning): spesso non è facile
capire se uno studente sta seguendo con attenzione. Un sistema dotato di IA
emotiva capirebbe il suo stato d'animo e lo aiuterebbe ad approfondire certi
argomenti, magari "svegliandolo" anche con una battuta, prima che
risponda ai test finali. Ancora, un'altra applicazione prevedibile è legata
alla salute: uno smartphone analizza, sia in base ad app già presenti che,
soprattutto, al riconoscimento di espressioni facciali particolari, se lo stato
mentale dell'utente è buono o se appaiono i primi segni di malattie
neurodegenerative, allertando il medico di famiglia.
L'obiettivo di questi studi, e del
relativo business di aziende come Affectiva, sarà quindi quello di aggiungere
empatia alla tecnologia che ci circonda. Non c'è dubbio che raccogliere dati
come stati d'animo o volti soggetti a particolari emozioni è un'operazione che
tocca l'annoso problema della privacy. Si tratta infatti di stabilire con scrupolo
usi e limiti di tali informazioni sensibili, questione non affatto semplice,
visto che si pone già ora per dati più banali. Rana el Kaliouby crede in questa
innovazione e sottolinea: "Sappiamo che le generazioni più giovani stanno
perdendo la capacità di empatia, dato che crescono con interfacce digitali in
cui manca l'emozione, uno dei punti di forza degli uomini. Dare un carattere
umano alla tecnologia potrebbe contribuire a riavvicinarci". Capisco,
aggiungo io, ma riuscire a farlo senza la tecnologia, o evitandone gli abusi,
sarebbe ancora meglio.
(fonte
https://www.technologyreview.com/s/609071/we-need-computers-with-empathy/; si ringrazia il sito https://www.abouttimemagazine.co.uk per la gentile concessione della foto)
Ciao Giacomo, grazie per l'articolo. Sinceramente ho una certa difficoltà nel riconoscere queste nuove realtà, nel senso che se ritorno al significato di empatia: credo che, prima ancora che un "comprendere", l'empatia sia un "sentire". E' già di per se difficile sentire esattamente ciò che sente l'altro. E' possibile però sentire qualcosa di simile e vicino. Anche il verde, ad es, che vedo io non è lo stesso verde che vedi tu. Ma chiamarlo "verde" ci permette di stare in relazione. Dunque lo scambio di uno sguardo di un contatto hanno il valore di qualcosa di inatteso, di speciale, di unico. Come posso comprendere davvero la rabbia o la gioia altrui? Quando tra me e te, ci sono i nostri sensi (che sono composti, biologicamente, in modo diverso in ogni individuo) e le esperienze personali?
RispondiEliminaUn caro saluto
Buongiorno Carla, grazie per il tuo commento. Ciò che dici è giustissimo, i nostri sensi hanno così tante sfaccettature che sembra assurdo confinarli con degli algoritmi. A volte è complesso comprendere anche chi ci sta accanto, figuriamoci con le macchine, o loro con noi. Ma credo che, oltre al mero denaro, certi sviluppi della cibernetica sia inevitabile portarli avanti. O per assurdo si decide che macchine e robot di punto in bianco non faranno più parte della nostra vita, oppure, se al contrario ci sono e ci resteranno, renderle più pronte ad interagire con le persone potrebbe (uso il condizionale) renderci la qualità delle vita migliore.
EliminaRicambio il saluto affettuosamente :-)