LOADING CLOSE

Facial Action Coding System: le app leggono le nostre espressioni

Da Peekabeat a MorphCast: ecco le più interessanti applicazioni di questo Sistema

Facial Action Coding System: le app leggono le nostre espressioni

La maggior parte delle comunicazioni tra persone avviene in modo non-verbale: non attraverso le parole, che siano scritte o pronunciate, ma attraverso i gesti e le espressioni del volto.

Secondo molti studi, meno del 10% della nostra comunicazione avviene attraverso le parole, eppure riusciamo ugualmente a trasferire i nostri messaggi agli interlocutori, senza problemi. In che modo? Semplice, il corpo parla per noi.

Comunicazione non-verbale: il Facial Action Coding System (FACS)

Un classico esempio di questo genere di comunicazione non-verbale è quella che avviene durante il tanto temuto colloquio di lavoro. Tutti conosciamo ormai le regole base per evitare di comunicare chiusura, insicurezza, disagio: no alle gambe o alle braccia incrociate, resistere all’impulso di toccarsi i capelli o di mordicchiarsi le dita, stringere la mano in modo energico e sicuro.

Sono solo alcuni degli esempi di comunicazione che costruiamo involontariamente con i gesti e le espressioni del volto.

FACS e app

Tra le categorie più importanti della comunicazione non-verbale ce n’è una, in particolare, che ci consente di capire nel dettaglio cosa accade a livello inconscio nel nostro interlocutore: si tratta delle micro espressioni facciali.

L’espressione delle emozioni avviene tramite l’attivazione di determinati muscoli – nell’uomo se ne contano 46 -, che sono stati codificati in un vero e proprio sistema, il Facial Action Coding System (FACS), dagli scienziati Ekman e Friesen sul finire degli anni Settanta. La contrazione di questi muscoli, infatti, genera oltre 7000 combinazioni di espressioni.

Nel Neuromarketing, il FACS è da tempo utilizzato per analizzare le risposte emotive delle persone, attraverso i cambiamenti di tensione nei muscoli facciali. L’analisi delle espressioni facciali permette, infatti, di comprendere che tipo di reazione provoca un prodotto o un messaggio nel soggetto che vi interagisce.

Quali implicazioni, quindi, può generare l’applicazione di un sistema come quello del Facial Action Coding System alla tecnologia odierna?

Facial Action Coding System le app leggono le nostre espressioni (3)

Peekabeat, l’app che legge le emozioni e ti consiglia la playlist giusta

Siamo andati alla ricerca delle più interessanti applicazioni di questo sistema in relazione a tecnologie come app e intelligenza artificiale e abbiamo scoperto Peekabeat, un’app sviluppata interamente da AQuest, che è in grado di riconoscere lo stato d’animo dell’utente, attraverso la sua espressione, per consigliare la playlist più adatta in quel preciso istante.

L’app utilizza proprio il sistema di codifica delle espressioni facciali (FACS) per riconoscere le emozioni istantanee dell’utente, interagendo direttamente con Spotify per fornire all’utente brani musicali che si adattano al suo mood del momento.

Peekabeat può essere utilizzata anche via desktop e utilizza tecnologie Microsoft come Azure Web App, Azure Cognitive Services ed Emotion API.

L’utente è invitato a scattarsi un selfie o a caricare una foto dalla galleria dello smartphone: la versione web genera una preview musicale di 30 secondi, mentre l’app mobile suggerisce una playlist completa, dando sempre la possibilità all’utente di variare la selezione sulla base di sette differenti stati d’animo.

Peekabeat è già disponibile per iOS (Vuoi provarla? Scaricala qui!e in sviluppo anche per altri marketplace, incluso quello di Microsoft.

Facial Action Coding System le app leggono le nostre espressioni

MorphCast: il video cambia a seconda della tua espressione

Anche MorphCast è un’app capace di riconoscere il volto di chi guarda lo schermo, capirne l’età, il genere e le emozioni, per trasformare il video che si sta guardando sulla base di questi dati.

L’applicazione funziona così: dopo aver chiesto l’autorizzazione all’utente, attraverso la fotocamera del dispositivo analizza le espressioni facciali di chi guarda. Lo spettatore si trasforma, attraverso l’analisi delle sue espressioni, nel regista del video, che cambia rispetto alle caratteristiche di chi lo guarda.

Una tecnologia nata per l’intrattenimento, ma con possibili futuri utilizzi nel campo della pubblicità o del parental control, per la sicurezza degli utenti più piccoli.

Credits: Depositphotos #76331113

Credits: Depositphotos #76331113

L’app dell’Università di Oxford che sceglie il cibo giusto per il tuo umore

Infine, l’app che controlla le espressioni facciali per valutare l’umore e poi suggerire il cibo perfetto per risolevvare gli animi o per mantenere l’allegria.

Sviluppata da alcuni scienziati all’Università di Oxford, si basa su una collaborazione con Just Eat: eseguendo la scansione del volto per coglierne i segni specifici delle diverse emozioni, la mappatura del viso fornisce un’analisi piuttosto chiara dell’emozione del momento e propone il cibo giusto per quella determinata espressione facciale.

Se il cibo può avere un effetto positivo sul nostro stato d’animo, perché non utilizzarlo in relazione alle effettive emozioni provate dalle persone?

L’applicazione può rilevare rabbia, disgusto, paura, sorpresa, tristezza e gioia e offrire suggerimenti sui menu da scegliere. Ad esempio, un volto arrabbiato suggerisce che una persona sia stressata e che possa trarre beneficio da alimenti con un effetto calmante, come cioccolato fondente e noci, contenenti magnesio.

E tu hai già provato un’app capace di leggere le tue emozioni?

 

Fonte: http://www.ninjamarketing.it/