Cinque anni orsono mi sono dato alla comunicazione,
anche se non venivo da un periodo di mutismo. Ho frequentato un corso in
Comunicazione Scientifica in quel di Roma, riscoprendo una passione mai sopita,
quella per le Scienze, ed apprendendo diversi concetti interessanti. Tra le
varie cose, ricordo le differenze tra comunicazione verbale, paraverbale e non-verbale.
Per i pochi profani, se nella prima si usa la bocca per trasmettere un
messaggio e le orecchie per riceverlo, in quella paraverbale sono le modalità
di espressione ad aggiungere informazioni alle parole; invece, la comunicazione
non-verbale fa uso di atteggiamenti del corpo, delle mani, della nostra
postura, per inoltrare a chi ci sta davanti, anche inconsciamente, messaggi in
più rispetto al solo parlato.
Ma questo post non tratterà tutto ciò.
Mi sono venuti in mente questi concetti quando ho saputo che ora anche le
macchine riusciranno a comprendere il linguaggio del corpo. Infatti, i
ricercatori dell'Istituto di Robotica dell'università Carnegie Mellon, sita in
Pennsylvania, hanno permesso ad un computer di capire le pose del corpo e i
movimenti di più persone dall’osservazione di un video in tempo reale, intuendo
anche la posizione delle dita di ogni individuo. Questo nuovo metodo è stato
sviluppato con l'aiuto della multicamera Panoptic Studio, una sorta di cupola contenente 500 videocamere e progettata presso la
stessa università.
Si aprono in tal modo nuove possibilità
di interazione tra persone e macchine, ma anche possibilità di utilizzare le
macchine per comprendere meglio il mondo che ci circonda. Ad esempio, la
capacità di riconoscere che posizione hanno le mani permetterà alle persone di
interagire con i computer in modi nuovi e più naturali, semplicemente indicando
degli oggetti. Ciò già avviene con la tecnica cosiddetta gesture: avrete visto qualche spot in tv di automobili, nelle quali
per dare un comando alla radio o al navigatore si fa un movimento della mano davanti
allo schermo. Ma qui la rilevazione di ciò che significa la postura della mano assume
carattere di una qualche intelligenza, visto che da certe sfumature non verbali
i robot potranno in un certo modo socializzare, percependo addirittura gli
stati d'animo dei loro interlocutori.
Le applicazioni sono limitate solo
dalla fantasia. Una vettura a guida autonoma potrebbe capire con anticipo che
un pedone sta per attraversare la strada monitorando il linguaggio del suo corpo.
Abilitare le macchine a comprendere certi segnali dal comportamento potrebbe
consentire nuovi approcci alla diagnosi e alla riabilitazione di condizioni
come l'autismo, la dislessia e la depressione. A pensarci bene, le informazioni
del non-verbale sono quantitativamente simili al verbale, quindi un computer
che ascolta la nostra voce e che non ci vede non ci comprenderà mai a fondo. La
lettura di quello che la nostra postura vuol dire tenderà a colmare questo
handicap digitale.
Di solito con un’unica immagine della
mano se ne visualizza una parte sola, e naturalmente se si aggiungono più
immagini ottenute da angoli diversi si ottiene una visione pressoché completa
dell’arto umano in quel preciso istante. In questo senso l’uso della multicamera
Panoptic Studio stato fondamentale. Tramite la Panoptic si raggiungono 500
viste contemporanee della mano di un individuo, con le quali l’elaborazione in
tempo reale consente di fissare la posizione precisa nel contesto in cui
l’individuo si trova. Ma per un sistema da usare sul campo sono state pensate
fino a 31 fotocamere ad alta definizione per realizzare un solo scatto. Ed è
solo l’inizio, perché il numero potrebbe essere aumentato e nello stesso tempo
l'attrezzatura diventare scalabile. La potenza di calcolo dovrà chiaramente
essere adeguata alla mole di dati che ne deriva.
Chiosa finale: è paradossale come
nell’epoca della scarsa comunicazione derivante dal digitale, scarsa in quanto
a contenuti di pregio ed affidabili, in cui ci siamo ridotti ad usare acronimi tipo
"nn x tvb xke", dove i messaggini sono l’apoteosi dei simboletti e
degli emoticon (o emoji), le macchine inizino a comprendere tutti gli aspetti
della comunicazione umana tradizionale, dalla quale ci siamo molto distratti.
Forse perché sono gli uomini a programmarle? Probabilmente sì. E allora probabilmente
qualche essere umano degno di nota esiste ancora.
Nessun commento:
Posta un commento