Daniel McDuff:«Le donne sorridono mediamente più dei maschi per accrescere l’empatia con il prossimo»

diMartin Patiño*

Come stai?”Così sono iniziate, negli anni, quasi tutte le mie conversazioni per poi prendere qualsiasi tipo di direzione. Quando ho incontrato l giovane scienziato Daniel McDuff però, la sensazione è stata che tutta la conversazione con girasse intorno a questa domanda. Il perché? Facciamo un passio indietro. Daniel lavora nel campo dell’affective computing, un ramo dell’intelligenza artificiale per creare computer capaci di riconoscere ed esprimere emozioni, una ricerca su – per dirla con le sue parole – ”l’intersezione tra emozioni e computistica”. Ci siamo trovati durante il Tedx di Berlino, dove ha spiegato che cosa e’ l’ affective computing, ed a cosa sta lavorando ad Affectiva, azienda statunitense che opera nel campo. Ho anche avuto la possibilità di testare il loro software di riconoscimento emozionale facciale, un applicazione incredibile che, attraverso la videocamera dell’iPad, mappa 34 punti nel viso e, basandosi sulla relazione tra questi, riconosce diversi stati emotivi. Ps: finita l’intervista, sono tornato a casa con un affascinante dubbio, ovvero: che cosa risponderò al prossimo che mi chiederà “Come stai?”

Emozioni…se dovessimo visualizzarle su una mappa, insieme alle loro connessioni, cosa verrebbe fuori?

Per visualizzare le emozioni, dobbiamo prendere simultaneamente in considerazione i loro due stati: si, perché come la luce e’ sia una onda e sia una particella, anche le emozioni hanno due stati, uno discreto ed uno continuo. Per esempio, se dovessimo rispondere alla domanda ”Quanto felice (o triste) ti senti?” troveremmo una gamma intera di risultati che parte da ”molto triste” ed arriva a ”molto felice”, e questa sarebbe la dimensione continua. Ma chiediamoci ora cosa c’è in questi due frangenti: nella parte negativa troviamo emozioni come tristezza, rabbia e paura, mentre in quella positiva ne troviamo altre, come godimento, divertimento, felicità… questi sono tutti stati discreti, che non appaiono uno dopo l’altro, e che quindi non si trovano su una dimensione continua. Le emozioni, sono un discorso complicato, e noi non abbiamo le parole giuste per descriverle; l’arte ci ha provato diverse volte, ma se cerchiamo di essere specifici, non facciamo altro che usare il linguaggio per qualcosa che è oltre il linguaggio stesso.

Ora che hai citato l’arte, sappiamo che il nostro piacere nell’ascoltare la musica e’ dato da un gioco di ripetizione e cambiamento, ma anche dal fatto che noi ci sentiamo toccati, come se la musica raggiungesse un punto oltre al linguaggio. Non riusciamo a descrivere, per esempio, quale emozione stiamo provando mentre ascoltiamo Bach. Pensi che l’affective computing possa riconoscere, definire e categorizzare anche questa emozioni?

Beh, nel passato l’unico modo per sapere come si sentiva qualcuno, era quello di chiedere, con tutti i relativi problemi: la gente si dimentica i sentimenti passati e spesso si inventa una risposta, o ne da una sproporzionatamente condizionata dalla fine dell’esperienza. Ora possiamo catturare quantitativamente cosa succede nel corpo, nella voce, nella pelle o nella faccia. Abbiamo un nuovo modo di categorizzare le emozioni, quindi invece di usare solo il vocabolario, abbiamo tutta una serie di extra dimensioni come l’attività celebrale, il battito cardiaco, l’attività della pelle o il movimento degli occhi. Non dico che la tecnologia rimpiazzerà il chiedere ”come stai”, perchè la risposta sarebbe comunque influenzata a livello culturale: l’affective computing cattura cose differenti, quindi entrambi l’opinione cognitiva (ovvero la nostra risposta verbale) e la risposta fisica sono utili…sono complementari ma differenti.

Parliamo ora della faccia. Affectiva utilizza anche il riconoscimento facciale, e ricordo che Emmanuel Levinas, riguardo alla vista del viso di un altro, disse ”Una faccia richiede una risposta”, ”Non possiamo sfuggire ad una faccia”. Possiamo dire che l’espressione delle emozioni attraverso il viso e’ stato un elemento fondamentale nello sviluppo dell’interazione umana?

Certamente! Abbiamo due livelli nelle emozioni, uno innato, ed un altro culturale. Sorridere per esempio e’ innato ed universale: anche gli animali sorridono, quindi e’ qualcosa che ci portiamo dai nostri antenati. Ma a di sopra, vi è uno strato culturale che si sviluppa localmente: per esempio in India, si dice ”si” muovendo la testa da sinistra e destra. Una cosa che ho scoperto per esempio è che le donne sorridono più dei maschi,  per loro, è più conveniente esprimere emozioni positive per accrescere l’empatia, e questo e’ valido in tutto il mondo. Ma ciò non significa che si sono evolute così, ma piuttosto che hanno una norma sociale: questo e’ un esempio di come una norma sociale si adatta alla ereditata maniera di esprimersi.

Molto chiaro, grazie. Parliamo un poco di affective computing ed Affectiva, mi potresti spiegare che cosa e’, e cosa fate?

La premessa dietro l’affective computing è di creare hardware e software in grado di riconoscere, interpretare ed adattarsi alle emozioni umane. ”Riconoscere” include tutto ciò che serve ad immagazzinare dati sulle emozioni, come per esempio analizzare la fisiologia degli individui, le news o persino Twitter. ”Interpretare” ha molto a che fare con i numeri, e la maniera in cui modelliamo algoritmicamente le emozioni. E l’ultimo passo ”adattarsi” è la maniera in cui la tecnologia si adatta alle emozioni umane, come per esempio, una playlist che cambia in base alle emozioni riconosciute. Affectiva lavora nel riconoscimento delle emozioni, e cerca di costruirci uno strato tecnologico intorno che si possa interfacciare con altre cose. Abbiamo costruito un SDK – Software Development Kit – ed abbiamo creato gli algoritmi per il riconoscimento facciale, per fare in modo che chiunque possa creare giochi o altri software che utilizzino questa tecnologia. C’e’ una versione di prova del nostro SDK scaricabile dal nostro sito.

Pensi che sia possibile utilizzare questa tecnologia anche sugli animali? 

Charles Darwin ha scritto un libro a riguardo. Ci può sembrare assurdo ora, ma nel passato le persone pensavano che le emozioni arrivassero a caso. Disse anche che gli animali hanno un modo di mostrare le emozioni simile al nostro, e le analisi dimostrano che sorridono, e rispondono in maniera simile alla nostra, ma come abbiamo detto prima, una grande parte delle nostre emozioni e connessa  alla cultura, e la componente sociale non è così forte negli animali.

Il software di riconoscimento facciale di Affectiva cattura un momento, scatta una foto del nostro output emozionale. Sara’ possibile nel futuro vedere tutto il film, ovvero registrare ed apprendere dalla nostra storia delle emozioni? Cosa possiamo aspettarci?

Con i bracciali possiamo collezionare vari tipi di dati (battito cardiaco, movimenti, ritmi del sonno) su un lungo periodo, e questo e’ infatti il nostro obiettivo. Senza dubbio, è molto importante che prima le persone acconsentano all’analisi dei loro dati. Una volta collezionata tutta la storia, possiamo creare un modello per ogni persona, perché ognuno di noi ha un esperienza differente. La nostra idea e’ di iniziare con un modello generico, che possa imparare, e successivamente adattarsi, per regalare un esperienza personale.

Questa tecnologia potrà un giorno riconoscere le bugie?

Noi cerchiamo di rimanerne fuori per diverse ragioni, e sono sicuro che professionisti allenati saranno sempre meglio di un computer. Un campo in cui vediamo un grande potenziale è la sanità, per esempio, dove i dati sono collezionati per un lungo periodo, tanto da poter vedere un cambiamento nel comportamento; questo può essere molto utile per esempio per trattare la depressione, o per analizzare come una intera popolazione cambia i propri comportamenti. Mentire è un azione così delicata e specifica, che è difficile da riconoscere. Personalmente, preferisco porre la mia attenzione su quelle applicazioni che rendono la vita delle persone migliore, come l’educazione, o appunto, la sanità.

Qual è la scoperta più interessante che hai fatto nel campo mentre lavoravi con Affectiva?

Abbiamo misurato la reazione di molte persone a video online, e facendo ciò abbiamo raccolto una quantità enorme di dati, che non solo ci parla della reazione al contenuto, ma ci parla anche di aspetti fondamentali legate alla cultura. Abbiamo scoperto che i maschi esprimono mediamente più emozioni negative, e le ragazze ne esprimono di più positive, e non abbiamo mai incontrato una nazione in cui i maschi ridono più delle donne. Penso abbia senso, in una società dove la bellezza estetica della donna e’ cosi’ importante, un sorriso aumenta il fascino di una persona.

—-

Martin Patiño*:Artista e musicista con una seria debolezza per la psicologia, sono costantemente alla ricerca delle strutture all’origine dell’esperienza umana, e della sua ottimistica sensazione di individualità. Mail: francescospaggiari@hotmail.it

HEADER SCUOLA DI TEDESCO

Photo: ©