Powered By Blogger

martedì 9 dicembre 2014

L’analisi del sentiment mediante immagini



Con l’avvento di internet e soprattutto dei social network molte cose sono cambiate nel rapporto tra grandi marchi e consumatori. Sono stati creati software dedicati ad analizzare quello che dice “la rete” riguardo ad un brand, un prodotto, un evento, oppure quando la gente fa di più una certa cosa, informazioni molto appetibile a pubblicitari e commerciali. Questo tipo di ricerca, automatizzata visti i milioni di utenti connessi, è stato definito coi termini anglosassoni sentiment analysis, che in italiano è diventato brutalmente analisi del sentiment (termine traducibile come emozione, sensazione, umore, oppure anche sentimento nell’accezione comune).

Il sistema di analisi si basa su ciò che gli internauti scrivono. Ora però, un team composto da ricercatori dell’Università della California e degli Yahoo Labs, guidati dal professor Xu, sta cercando di capire qual è l’umore delle persone anche tramite le immagini che vengono postate e caricate, utilizzando un algoritmo basato su reti neurali.  Queste reti sono dei modelli matematici composti da più formule, nelle quali ci sono dei parametri variabili modulati finemente durante un procedimento noto come addestramento o training, dove i dati di ingresso sono sottoposti un numero elevato di volte al modello, fino ad ottenere i dati di uscita molto vicini a quelli desiderati. Si tratta di un sistema già utilizzato per il riconoscimento automatico delle immagini, sempre più in crescita date le attuali potenze di calcolo disponibili.

I ricercatori americani sono partiti da un insieme di immagini suddivise in 1000 raggruppamenti, poi hanno preso moltissime foto dai social Tumblr e Twitter, già valutate per il sentiment su una scala a cinque punti di molto negativo, negativo, neutro, positivo e molto positivo. Il passo successivo è stato quello di creare ed addestrare una rete neurale che abbinasse la suddivisione iniziale con il sentiment associato alle immagini prese dai social. In sostanza, nel primo set di immagini si era a conoscenza di cosa conteneva la foto senza comprenderne il significato emozionale, nel secondo non si era interessati al contenuto ma era noto all’incirca cosa provava il soggetto fotografato o cosa trasmetteva lo scatto nel guardarlo. Alla prova dei fatti, la rete neurale creata dal professor Xu ha riportato risultati migliori delle attuali tecniche di analisi delle immagini, come ad esempio quella basata su caratteristiche visive di basso livello, tipo il colore e le sue tonalità, oppure come  SentiBank, un software che genera una descrizione completa di aggettivi per una foto e dà quindi l’idea di riconoscerne il sentimento.

Gli esperti di marketing e di comunicazione si staranno già leccando i baffi. Uno strumento del genere potrebbe superare le analisi fatte solo su frasi, messaggi e post, che hanno due grossi limiti: la dipendenza del senso dalla lingua in cui sono formulati e le influenze culturali su sarcasmo e l'ironia, problematiche inesistenti per le immagini. L’affidabilità quindi ne avrebbe un bel guadagno e, di conseguenza, il business di chi potrà usare questi nuovi sistemi. Per non dire dell’uso, oltre a quello corrente, che potrebbero farne i partiti politici nel misurare e anche reindirizzare l’opinione della gente a loro insaputa.

Ma è naturale pensare a quali altre possibilità potrebbe portare un sistema del genere, magari nella sua versione più evoluta. L’uso più banale sarebbe quello su un presunto colpevole, per capire qualcosa in più sulla verità in base alla sua espressione. Quello meno banale e anche un po’ inquietante, potrebbe essere la misurazione del livello di felicità delle persone. Ve lo immaginate, in un futuro spero più lontano possibile, un supercomputer che smaschera gli umani tristi, relegandoli da qualche parte, e fa prosperare solo coloro che i suoi algoritmi neurali giudicano come felici ?





Nessun commento:

Posta un commento