Con
l’avvento di internet e soprattutto dei social network molte cose sono cambiate
nel rapporto tra grandi marchi e consumatori. Sono stati creati software
dedicati ad analizzare quello che dice “la rete” riguardo ad un brand, un
prodotto, un evento, oppure quando la gente fa di più una certa cosa,
informazioni molto appetibile a pubblicitari e commerciali. Questo tipo di
ricerca, automatizzata visti i milioni di utenti connessi, è stato definito coi
termini anglosassoni sentiment analysis, che in italiano è diventato
brutalmente analisi del sentiment (termine traducibile come emozione,
sensazione, umore, oppure anche sentimento nell’accezione comune).
Il
sistema di analisi si basa su ciò che gli internauti scrivono. Ora però, un
team composto da ricercatori dell’Università della California e degli Yahoo
Labs, guidati dal professor Xu, sta cercando di capire qual è l’umore delle
persone anche tramite le immagini che vengono postate e caricate, utilizzando
un algoritmo basato su reti neurali. Queste
reti sono dei modelli matematici composti da più formule, nelle quali ci sono
dei parametri variabili modulati finemente durante un procedimento noto come
addestramento o training, dove i dati di ingresso sono sottoposti un numero
elevato di volte al modello, fino ad ottenere i dati di uscita molto vicini a
quelli desiderati. Si tratta di un sistema già utilizzato per il riconoscimento
automatico delle immagini, sempre più in crescita date le attuali potenze di
calcolo disponibili.
I
ricercatori americani sono partiti da un insieme di immagini suddivise in 1000
raggruppamenti, poi hanno preso moltissime foto dai social Tumblr e Twitter,
già valutate per il sentiment su una scala a cinque punti di molto negativo,
negativo, neutro, positivo e molto positivo. Il passo successivo è stato quello
di creare ed addestrare una rete neurale che abbinasse la suddivisione iniziale
con il sentiment associato alle immagini prese dai social. In sostanza, nel
primo set di immagini si era a conoscenza di cosa conteneva la foto senza
comprenderne il significato emozionale, nel secondo non si era interessati al
contenuto ma era noto all’incirca cosa provava il soggetto fotografato o cosa
trasmetteva lo scatto nel guardarlo. Alla prova dei fatti, la rete neurale creata
dal professor Xu ha riportato risultati migliori delle attuali tecniche di
analisi delle immagini, come ad esempio quella basata su caratteristiche visive di basso
livello, tipo il colore e le sue tonalità, oppure come SentiBank,
un software che genera una descrizione completa di aggettivi per una foto e dà
quindi l’idea di riconoscerne il sentimento.
Gli
esperti di marketing e di comunicazione si staranno già leccando i baffi. Uno
strumento del genere potrebbe superare le analisi fatte solo su frasi, messaggi
e post, che hanno due grossi limiti: la dipendenza del senso dalla lingua in
cui sono formulati e le influenze culturali su sarcasmo e l'ironia,
problematiche inesistenti per le immagini. L’affidabilità quindi ne avrebbe un
bel guadagno e, di conseguenza, il business di chi potrà usare questi nuovi
sistemi. Per non dire dell’uso, oltre a quello corrente, che potrebbero farne i
partiti politici nel misurare e anche reindirizzare l’opinione della gente a
loro insaputa.
Ma è
naturale pensare a quali altre possibilità potrebbe portare un sistema del
genere, magari nella sua versione più evoluta. L’uso più banale sarebbe quello su
un presunto colpevole, per capire qualcosa in più sulla verità in base alla sua
espressione. Quello meno banale e anche un po’ inquietante, potrebbe essere la
misurazione del livello di felicità delle persone. Ve lo immaginate, in un
futuro spero più lontano possibile, un supercomputer che smaschera gli umani tristi,
relegandoli da qualche parte, e fa prosperare solo coloro che i suoi algoritmi
neurali giudicano come felici ?
(fonte http://www.technologyreview.com/view/533061/neural-network-rates-images-for-happiness-levels/
)
Nessun commento:
Posta un commento