The cognition of auditory smiles: a computational approach
La cognition des sourires auditifs: une approche computationnelle
Résumé
Emotions are the fuel of human survival and social development. Not only
do we undergo primitive reflexes mediated by ancient brain structures, but
we also consciously and unconsciously regulate our emotions in social contexts,
affiliating with friends and distancing from foes. One of our main tools
for emotion regulation is facial expression and, in particular, smiles. Smiles
are deeply grounded in human behavior: they develop early, and are used
across cultures to communicate affective states. The mechanisms that underlie
their cognitive processing include interactions not only with visual, but
also emotional and motor systems. Smiles, trigger facial imitation in their
observers, reactions thought to be a key component of the human capacity
for empathy.
Smiles, however, are not only experienced visually, but also have audible
consequences. Although visual smiles have been widely studied, almost
nothing is known about the cognitive processing of their auditory counterpart.
This is the aim of this dissertation. In this work, we characterise and
model the smile acousitc fingerprint, and use it to probe how auditory smiles
are processed cognitively. We give here evidence that (1) auditory smiles can
trigger unconscious facial imitation, that (2) they are cognitively integrated
with their visual counterparts during perception, and that (3) the development
of these processes does not depend on pre-learned visual associations.
We conclude that the embodied mechanisms associated to the visual processing
of facial expressions of emotions are in fact equally found in the auditory
modality, and that their cognitive development is at least partially independent
from visual experience.
Les émotions sont essentielles à notre survie et à notre développement social.
Non seulement elles nous servent au travers de réflexes primitifs, mais
aussi comme moyen de régulation de nos interactions sociales. Les outils
fondamentaux de cette communication sociale sont les expressions faciales
émotionnelles, dont une des plus importantes est le sourire. Le sourire se
développe tôt pendant l’enfance, et est utilisé comme un instrument de communication
affectif à travers les cultures. Les mécanismes cognitifs responsables
de sa perception impliquent des interactions avec des systèmes visuels,
émotionnels et moteurs. En particulier, l’observation d’un sourire entraîne
typiquement une imitation faciale spontanée, une réaction qui est considérée
comme essentielle à notre capacité d’empathie avec l’autre.
Malgré de grandes avancées scientifiques sur la cognition des sourires visuels,
très peu de travaux se sont intéressés à leur perception auditive. C’est
le but de cette thèse. Ici, nous caractérisons et modélisons les conséquences
acoustiques des sourires, et nous utilisons ces modèles pour étudier comment
ils sont traités cognitivement. Nos résultats montrent (1) que les
sourires auditifs induisent de l’imitation faciale chez leurs auditeurs, (2)
qu’ils sont intégrés de façon multimodale aux indices visuels, et (3) que ces
processus ne dépendent pas d’associations visuelles préalablement établies.
Nous concluons que les mécanismes de cognition incarnés typiquement associés
au traitement visuel des expressions émotionnelles se retrouvent dans
la modalité auditive, et que leur développement est au moins partiellement
indépendant de l’expérience visuelle.
Origine : Fichiers produits par l'(les) auteur(s)
Loading...