<strong> 🔲 Un robot peut-il vous consoler ?</strong>
Faites-vous preuve d’empathie ?
Est-ce que vous vous plaignez parfois du fait que vos proches ne se montrent pas suffisamment empathiques à votre égard ?
Révisé 10 juillet 2020
Que dire maintenant des robots à qui, par téléphone, vous expliquez votre situation et qui peinent à comprendre une requête pourtant toute simple et qui finalement vous renvoient bêtement à un autre service. Vous vous dites sans doute que la technologie est encore très loin du robot efficace et emphatique capable de décoder une situation et de répondre rapidement à votre demande.
Mais qu'est-ce que l'empathie au juste ?
L'empathie est un concept difficile à cerner !
Leslie Jamison* dans son livre The Empathy Exams se livre à un exercice révélateur en précisant tout d’abord tout ce que l’empathie n’est pas :
L’empathie n’a rien de mécanique.
L’empathie n’est pas un simple réseau de connexions synaptiques.
L’empathie ne se résume pas à l’emploi des mots justes.
Il ne s’agit pas non plus d’une réponse proportionnée à la souffrance que l’on constate chez l’autre.
Finalement, elle conclut en affirmant que l’empathie c’est porter notre attention vers l’autre en tentant alors de dépasser notre repli, en tentant d’élargir nos horizons.
À la lumière de ce que Leslie Jamison vient d’énoncer, comment réagir face aux efforts de « modélisation » de l’empathie. Devant un concept aussi fuyant, comment être en mesure de le modéliser ?
Si la tâche risque d’être ardue, elle répond toutefois à une nécessité. Les robots sont appelés à jouer un rôle prépondérant dans toute une panoplie d’activités humaines. Ils sont appelés à entrer directement en contact avec les humains et à communiquer avec eux. L’empathie computationnelle consiste à étudier les différentes approches par lesquelles des agents artificiels peuvent simuler et susciter l’empathie dans leurs interactions avec les humains.
Idéalement, un agent artificiel emphatique devrait être en mesure de se mettre à la place de son interlocuteur, de ressentir ses émotions, et de réagir de manière appropriée.
Des chercheurs ont passé en revue les différentes stratégies de développement d’agents emphatiques. Eux aussi se sont heurtés à la tâche difficile de définir ce qu’est exactement l’empathie.
Puisqu’il n’existe pas de définition unique, ils ont plutôt identifié trois catégories de définitions :
Une réponse affective aux états émotionnels d’autrui.
La compréhension cognitive des états émotionnels d’autrui.
Une combinaison d’une réponse affective et d’une compréhension cognitive.
Ils ont ensuite opté pour la définition générale suivante : l’empathie est un processus psychologique par lequel un individu, dans un situation donnée, ressent des émotions compatibles (et pas nécessairement semblables) à celles vécues par un tiers.
Décrite ainsi, la situation qui donne lieu à la réaction emphatique est constituée des éléments suivants :
L’individu ou l’agent : celui ou celle qui réagissent émotionnellement à l’état affectif d’autrui.
La cible : l’autre qui exprime son état émotionnel.
L’événement déclencheur dont est témoin, directement ou indirectement, l’observateur.
La situation ou le contexte dans lequel l’événement se déroule.
Les facteurs de médiation tels que l’humeur de l’observateur ou de la cible, la présence ou l’absence d’autres agents, les antériorités, etc.
Prenons comme exemple FearNot!, un logiciel d’apprentissage qui explore l’empathie des jeunes enfants dans des situations d’intimidation et de harcèlement. Le jeu de rôle intègre des personnages 3D dans des scènes virtuelles qui reproduisent des situations d’intimidation. L’enfant fait l’apprentissage d’attitudes appropriées face à de telles situations, car il se sent en sécurité face à l’écran.
FearNot! fonctionne comme suit. Une scène se déroule à l’écran. Les personnages (3D) sont dotés d’autonomie et ils génèrent automatiquement des événements. À l’écran, l’enfant (le joueur) est témoin d’actes d’intimidation. Il interagit avec la victime (verbalement, par le biais d’algorithmes de reconnaissance du langage) et la conseille sur ce qu’elle devrait faire. FearNot! est un exemple parmi d’autres de systèmes artificiels d’empathie.
Les chercheurs qui ont effectué le survol des approches actuelles d’empathie computationnelle reconnaissent que les nombreuses questions qui demeurent en suspens sont particulièrement difficiles. Qu’en est-il, par exemple, du contexte ?
Il s’agit d’une donnée très importante pour comprendre l’attitude emphatique à adopter. Pour modéliser correctement le contexte, un dispositif complexe de capteurs de données diverses devrait être mis en place pour recueillir, mémoriser et modéliser l’information requise ; des données qui par leurs natures (données physiologiques, métaboliques, cérébrales) complexifient considérablement la saisie.
Les agents emphatiques devraient aussi être dotés d’un degré élevé d’autonomie pour pouvoir faire face à une gamme de situations. Évaluer les agents est crucial pour améliorer leur performance.
Mais quoi mesurer au juste, et comment ? Enfin, comment réaliser la transition vers une empathie plus naturelle ? Une empathie qui ne serait pas strictement fondée sur un ensemble de règles préprogrammées visant à reproduire artificiellement des expressions émotionnelles humaines ?
La dernière question qui vient d’être soulevée, celle de l’empathie naturelle, constitue en quelque sorte le Saint-Graal de l’empathie computationnelle. Un chercheur japonais**** s’est récemment penché sur cette question.
Minoru Asada propose tout d’abord une définition à la fois simple (dans sa formulation) et complexe (dans ses implications) de l’empathie : l’aptitude qui consiste à se représenter l’état émotionnel d’un individu, tout en étant conscient des causes qui sont à l’origine de cet état.
Prendre la pleine mesure de cette définition suppose que celui qui fait preuve d’empathie est en mesure, par un processus d’introspection, de prendre conscience d’un état corporel qui n’est pas le sien. Pour bien saisir cette distinction, plusieurs éléments doivent être considérés :
Une panoplie d’éléments reliés aux neurosciences tels que la contagion émotionnelle ou la distanciation cognitive qui permet d’avoir un point de vue sur une situation donnée.
L’empathie entraîne l’activation de différents réseaux neuronaux : des réseaux plus anciens et des réseaux plus récents situés dans le néocortex.
L’empathie se manifeste aussi par des voies physiologiques. Elle est modulée par toute une série de molécules (les neuropeptides, par exemple, qui facilitent la transmission de données dans le cerveau).
Vue sous cet angle, l’empathie computationnelle, ou plus spécifiquement l’empathie robotique serait un sous-ensemble de la robotique affective qui vise à comprendre le développement affectif de l’humain par le biais d’une approche constructive.
Comment incorporer dans un robot une telle intelligence affective ?
En deux étapes
La construction d’un modèle du développement affectif (en tirant profit des recherches dans toutes les disciplines concernées ; en simulant les modèles avec de vrais robots et en vérifiant leur efficacité avec des humains)
En développant de nouveaux outils de compréhension du développement affectif chez l’humain (mesure de l’activité cérébrale ; vérification du modèle sur des sujets humains ; mise à la disposition des robots des outils de reproduction des expériences psychologiques).
Il y a loin de la coupe aux lèvres. Comme Minoru Asada l’avoue lui-même, il n’est pas certain qu’un robot puisse un jour être en mesure de partager les émotions d’un être humain.
Après tout, le comportement d’un robot dépend entièrement des règles de programmation que son concepteur lui a inculquées et, par conséquent, il dispose d’une marge de manoeuvre très réduite pour apprendre à développer des émotions comme les humains.
Lorsque nous demandons aux machines de se comporter comme des humains, nous sommes alors obligés de décortiquer nos comportements dans le menu détail afin de mieux les comprendre pour ensuite les modéliser.
Mais ces efforts ont aussi pour effet de jeter une lumière parfois crue sur ce que nous sommes ou devrions être. Cela nous force à nous interroger.
Le fait de demander à des machines de se comporter comme des humains nous incite à nous questionner sur ce que signifie être une femme ou un homme.
Plus encore, le « toujours plus de machines » nous forcera peut-être un jour à nous distinguer des machines que nous avons créées et à préciser les aptitudes et les habilités qui nous différencient d’elles, comme l’empathie par exemple.
Mais encore là, posons-nous la question suivante :
Est-ce que l’empathie fait obligatoirement de nous de meilleurs humains ?
Est-ce que l’empathie est un remède aux incivilités croissantes qui affligent nos sociétés ?
Des études ***** rappellent que nos comportements altruistes sont souvent teintés de préjugés, à l’endroit, par exemple, de ceux qui nous ressemblent, qui font partie de notre famille, de notre tribu, de notre communauté.
Pour nous démarquer encore plus des machines, peut-être devrions-nous pousser nos efforts un peu plus loin et explorer ce que les bouddhistes nomment Metta : un terme sanskrit qui signifie bienveillance, et qui vise à faire preuve de compassion envers tous les êtres, sans distinction.
Nous n'avons pas besoin d'un agent artificiel pour apprendre l'empathie, on peut déjà commençant avec de petits jeux entre nous, c'est l'exercice que je vous propose cette semaine.
Envie de tenter l’expérience ?
Découvrez l’exercice No. 86
Jeux d’empathie
Références :
* Leslie Jamison
*** La revue les différentes stratégies de développement d’agents emphatiques par des chercheurs
**** Un chercheur japonais
*****Des études