Powered By Blogger

martedì 14 novembre 2017

Tecnologie empatiche


L’utilizzo dell’intelligenza artificiale (IA) si sta evolvendo rapidamente. C’è chi pensa si tratti di sistemi destinati a rimanere in laboratorio, oppure ad essere usati solo da grandi aziende. Invece non è affatto così. Parliamo di un business destinato nei prossimi tempi a crescere in modo esponenziale, ma anche a modificare in modo sensibile la vita quotidiana. Ne avevamo già parlato in altre occasioni, ad esempio riguardo alle macchine atte a leggere la comunicazione non-verbale, oppure circa un progetto di messa a punto di una voce sintetica più umana possibile. Già oggi esistono aziende che lavorano con obiettivi precisi per tale scopo; una di esse, non molto conosciuta, è Affectiva che, dal 2009 a Boston, sta provando a digitalizzare le emozioni.

Ho usato apposta quello che si potrebbe definire un ossimoro: da una parte il digitale, fatto di freddi numeri, asettici e ben definiti, dall’altra le emozioni, con le loro mille sfumature, oggettive e soggettive. Ma in Affectiva questa è una grande sfida: riuscire a far capire alle macchine qual è il nostro stato d’animo e farle comportare di conseguenza. Quando dico macchine intendo ogni dispositivo tecnologico con cui interagiamo: lo smartphone, la nostra auto, la casa con le sue propaggini informatiche ed elettroniche, e via discorrendo. Così in questa società sono stati collezionati alcuni milioni di video raccolti in 87 paesi, consentendo di definire un sistema di IA per comprendere le espressioni del viso legate alle emozioni, tenendo conto anche delle differenze di cultura nell'espressività. Utilizzando la computer-vision, l'analisi del linguaggio e il cosiddetto "apprendimento profondo", sono riusciti a classificare espressioni facciali e vocali in base all'emozione del momento.

L'intelligenza artificiale che diventa quindi "intelligenza emotiva artificiale", incentrata su algoritmi di sviluppo che possono identificare non solo le emozioni umane di base come la felicità, la tristezza e la rabbia, ma anche stati cognitivi più complessi come stanchezza, attenzione, interesse, confusione e distrazione. Il CEO di Affectiva, Rana el Kaliouby, ha detto che queste tecnologie di interazione emotiva potrebbero essere disponibili nei prossimi cinque anni: "La maggior parte dei dispositivi risponderà agli stati cognitivi ed emotivi umani, proprio come fanno gli uomini. L'intelligenza emotiva artificiale sarà radicata nelle tecnologie che utilizziamo ogni giorno, rendendo le nostre interazioni più personalizzate, autentiche, molto simili a quelle tra persone".

E' facile per esempio considerare che se un'autovettura "conosce" il conducente può  monitorarne il grado di stanchezza o di distrazione; in alternativa, potrebbe favorire una migliore esperienza per i viaggiatori, cambiando la musica o le impostazioni ergonomiche a seconda di chi sta trasportando. Ma non è il solo settore a poterne beneficiare. Pensate all'apprendimento on-line (e-learning): spesso non è facile capire se uno studente sta seguendo con attenzione. Un sistema dotato di IA emotiva capirebbe il suo stato d'animo e lo aiuterebbe ad approfondire certi argomenti, magari "svegliandolo" anche con una battuta, prima che risponda ai test finali. Ancora, un'altra applicazione prevedibile è legata alla salute: uno smartphone analizza, sia in base ad app già presenti che, soprattutto, al riconoscimento di espressioni facciali particolari, se lo stato mentale dell'utente è buono o se appaiono i primi segni di malattie neurodegenerative, allertando il medico di famiglia.

L'obiettivo di questi studi, e del relativo business di aziende come Affectiva, sarà quindi quello di aggiungere empatia alla tecnologia che ci circonda. Non c'è dubbio che raccogliere dati come stati d'animo o volti soggetti a particolari emozioni è un'operazione che tocca l'annoso problema della privacy. Si tratta infatti di stabilire con scrupolo usi e limiti di tali informazioni sensibili, questione non affatto semplice, visto che si pone già ora per dati più banali. Rana el Kaliouby crede in questa innovazione e sottolinea: "Sappiamo che le generazioni più giovani stanno perdendo la capacità di empatia, dato che crescono con interfacce digitali in cui manca l'emozione, uno dei punti di forza degli uomini. Dare un carattere umano alla tecnologia potrebbe contribuire a riavvicinarci". Capisco, aggiungo io, ma riuscire a farlo senza la tecnologia, o evitandone gli abusi, sarebbe ancora meglio.



2 commenti:

  1. Ciao Giacomo, grazie per l'articolo. Sinceramente ho una certa difficoltà nel riconoscere queste nuove realtà, nel senso che se ritorno al significato di empatia: credo che, prima ancora che un "comprendere", l'empatia sia un "sentire". E' già di per se difficile sentire esattamente ciò che sente l'altro. E' possibile però sentire qualcosa di simile e vicino. Anche il verde, ad es, che vedo io non è lo stesso verde che vedi tu. Ma chiamarlo "verde" ci permette di stare in relazione. Dunque lo scambio di uno sguardo di un contatto hanno il valore di qualcosa di inatteso, di speciale, di unico. Come posso comprendere davvero la rabbia o la gioia altrui? Quando tra me e te, ci sono i nostri sensi (che sono composti, biologicamente, in modo diverso in ogni individuo) e le esperienze personali?
    Un caro saluto

    RispondiElimina
    Risposte
    1. Buongiorno Carla, grazie per il tuo commento. Ciò che dici è giustissimo, i nostri sensi hanno così tante sfaccettature che sembra assurdo confinarli con degli algoritmi. A volte è complesso comprendere anche chi ci sta accanto, figuriamoci con le macchine, o loro con noi. Ma credo che, oltre al mero denaro, certi sviluppi della cibernetica sia inevitabile portarli avanti. O per assurdo si decide che macchine e robot di punto in bianco non faranno più parte della nostra vita, oppure, se al contrario ci sono e ci resteranno, renderle più pronte ad interagire con le persone potrebbe (uso il condizionale) renderci la qualità delle vita migliore.
      Ricambio il saluto affettuosamente :-)

      Elimina