Negli ultimi anni vi sarà capitato sicuramente di imbattervi in video o immagini di robot umanoidi dall’aspetto incredibilmente realistico, che riescono a riprodurre le espressioni umane con un’accuratezza stupefacente. Sono tantissimi, infatti, i ricercatori che in tutto il mondo lavorano per creare androidi dalle fattezze umane. Alcuni esempi sono Hiroshi Ishiguro (professore di macchine adattive nel dipartimento di intelligenza artificiale dell’Università di Osaka), David Hanson (CEO della Hanson Robotics, società di Hong-Kong fondata nel 2013) e Gustav Hoegen (disegnatore e creatore di animatronic per l’azienda londinese Pinewood Studios).
Articolo in collaborazione con BrainLink, dai un’occhiata al canale YouTube: BRAINLINK
Indice
Interazioni Robot-Uomo
L’antropomorfismo non è limitabile però solo all’aspetto fisico e alle movenze del robot, è necessario infatti curare anche il modo in cui il robot interagisce con gli esseri umani. Le interazioni robot-uomo sono, attualmente, fortemente unidirezionali. Per cercare di aumentare il grado di apprezzamento dell’interazione da parte degli umani, è necessario innescare dei meccanismi di risonanza sociale, ovvero far agire il robot in modo tale che nell’umano si attivino determinate aree del cervello. Ad esempio, osservare un’espressione di disgusto può attivare alcune aree della regione dell’insula (funzioni spesso legate all’emotività) che sono attive anche quando il soggetto è sottoposto ad odori nauseanti, percependo il disgusto in prima persona (Wicker et al., 2003). Anche l’empatia per il dolore crea una risonanza nella corteccia cingolata anteriore (ACC), una parte della corteccia situata nella regione superiore della superficie mediale dei lobi frontali, sopra il corpo calloso (Singer et al., 2004).
Cos’è il modello circonflesso delle emozioni?
In questo contesto, appare evidente come l’emulazione di espressioni facciali, da parte del robot, giochi un ruolo fondamentale nei processi di interazione con l’uomo. Per poter simulare tali espressioni facciali, occorre un modello in grado di definire quali configurazioni spaziali devono assumere i motori presenti sul viso del robot per poter produrre quell’espressione. Un modello largamente utilizzato nel settore è stato definito da James A. Russel nel 1980 su “Journal of Personality and Social Psychology” e prende il nome di modello circonflesso delle emozioni (Figura 1). Secondo tale modello, ogni emozione viene rappresentata in uno spazio circolare bidimensionale contenente come dimensioni la “valence” (valenza) sull’asse delle ascisse (distinta in valenza positiva o negativa) e l’arousal (inteso come risposta attiva/eccitata oppure passiva/placata) sull’asse delle ordinate. Secondo questa definizione, ad esempio, la felicità verrà rappresentata nel primo quadrante (con valenza positiva e arousal intorno allo zero), la frustrazione nel secondo quadrante (con valenza negativa e arousal positivo), la noia nel terzo quadrante (con valenza negativa e arousal negativo) e la calma nel quarto quadrante (con valenza positiva e arousal negativo).

Ad ognuna di queste emozioni è associabile, negli esseri umani, uno stereotipo di espressione facciale; corrispondente alla contrazione di precisi muscoli del viso. Uno dei più famosi studiosi di mimica facciale è Paul Ekman, il quale ha accuratamente descritto, nei suoi lavori, l’universalità di tali espressioni; che sarebbero di origine biologica e non influenzate da fattori di tipo culturale oppure legati alle tradizioni folcloristiche. Tali espressioni vengono riprodotte sul robot facendo corrispondere ad ogni “action unit” (gruppo di muscoli facciali) coinvolta uno specifico motore sul viso del robot. Dopo aver definito queste corrispondenze, il robot sarà in grado di passare da un’espressione facciale ad un’altra mediante un meccanismo di interpolazione fra i punti nello spazio di Russel; considerando le diverse configurazioni di “action unit” associate alle due espressioni interessate nella transizione.
A che stiamo con i robot in Italia?
Per quanto riguarda l’Italia, esistono alcuni gruppi di ricerca che lavorano per risolvere questo genere di problemi. In particolare vi segnalo l’articolo scientifico “Hefes: An hybrid engine for facial expressions synthesis to control human-like androids and avatars” pubblicato da Mazzei D., Lazzeri N., Hanson D., & De Rossi D., nel 2012 su “4th IEEE RAS & EMBS International Conference on biomedical robotics and biomechatronics (BioRob)”.
Per approfondire temi legati al mondo dell’intelligenza artificiale, della robotica, della cibernetica, della bionica e della neuroingegneria segui le spiegazioni di BrainLink su YouTube.
Potrebbe interessarti:
oppure…