mercoledì 12 luglio 2017

Macchine sempre più "umane"


Cinque anni orsono mi sono dato alla comunicazione, anche se non venivo da un periodo di mutismo. Ho frequentato un corso in Comunicazione Scientifica in quel di Roma, riscoprendo una passione mai sopita, quella per le Scienze, ed apprendendo diversi concetti interessanti. Tra le varie cose, ricordo le differenze tra comunicazione verbale, paraverbale e non-verbale. Per i pochi profani, se nella prima si usa la bocca per trasmettere un messaggio e le orecchie per riceverlo, in quella paraverbale sono le modalità di espressione ad aggiungere informazioni alle parole; invece, la comunicazione non-verbale fa uso di atteggiamenti del corpo, delle mani, della nostra postura, per inoltrare a chi ci sta davanti, anche inconsciamente, messaggi in più rispetto al solo parlato.

Ma questo post non tratterà tutto ciò. Mi sono venuti in mente questi concetti quando ho saputo che ora anche le macchine riusciranno a comprendere il linguaggio del corpo. Infatti, i ricercatori dell'Istituto di Robotica dell'università Carnegie Mellon, sita in Pennsylvania, hanno permesso ad un computer di capire le pose del corpo e i movimenti di più persone dall’osservazione di un video in tempo reale, intuendo anche la posizione delle dita di ogni individuo. Questo nuovo metodo è stato sviluppato con l'aiuto della multicamera Panoptic Studio, una sorta di cupola contenente 500 videocamere e progettata presso la stessa università.

Si aprono in tal modo nuove possibilità di interazione tra persone e macchine, ma anche possibilità di utilizzare le macchine per comprendere meglio il mondo che ci circonda. Ad esempio, la capacità di riconoscere che posizione hanno le mani permetterà alle persone di interagire con i computer in modi nuovi e più naturali, semplicemente indicando degli oggetti. Ciò già avviene con la tecnica cosiddetta gesture: avrete visto qualche spot in tv di automobili, nelle quali per dare un comando alla radio o al navigatore si fa un movimento della mano davanti allo schermo. Ma qui la rilevazione di ciò che significa la postura della mano assume carattere di una qualche intelligenza, visto che da certe sfumature non verbali i robot potranno in un certo modo socializzare, percependo addirittura gli stati d'animo dei loro interlocutori.

Le applicazioni sono limitate solo dalla fantasia. Una vettura a guida autonoma potrebbe capire con anticipo che un pedone sta per attraversare la strada monitorando il linguaggio del suo corpo. Abilitare le macchine a comprendere certi segnali dal comportamento potrebbe consentire nuovi approcci alla diagnosi e alla riabilitazione di condizioni come l'autismo, la dislessia e la depressione. A pensarci bene, le informazioni del non-verbale sono quantitativamente simili al verbale, quindi un computer che ascolta la nostra voce e che non ci vede non ci comprenderà mai a fondo. La lettura di quello che la nostra postura vuol dire tenderà a colmare questo handicap digitale.

Di solito con un’unica immagine della mano se ne visualizza una parte sola, e naturalmente se si aggiungono più immagini ottenute da angoli diversi si ottiene una visione pressoché completa dell’arto umano in quel preciso istante. In questo senso l’uso della multicamera Panoptic Studio stato fondamentale. Tramite la Panoptic si raggiungono 500 viste contemporanee della mano di un individuo, con le quali l’elaborazione in tempo reale consente di fissare la posizione precisa nel contesto in cui l’individuo si trova. Ma per un sistema da usare sul campo sono state pensate fino a 31 fotocamere ad alta definizione per realizzare un solo scatto. Ed è solo l’inizio, perché il numero potrebbe essere aumentato e nello stesso tempo l'attrezzatura diventare scalabile. La potenza di calcolo dovrà chiaramente essere adeguata alla mole di dati che ne deriva.

Chiosa finale: è paradossale come nell’epoca della scarsa comunicazione derivante dal digitale, scarsa in quanto a contenuti di pregio ed affidabili, in cui ci siamo ridotti ad usare acronimi tipo "nn x tvb xke", dove i messaggini sono l’apoteosi dei simboletti e degli emoticon (o emoji), le macchine inizino a comprendere tutti gli aspetti della comunicazione umana tradizionale, dalla quale ci siamo molto distratti. Forse perché sono gli uomini a programmarle? Probabilmente sì. E allora probabilmente qualche essere umano degno di nota esiste ancora.




Nessun commento:

Posta un commento