📙 La performance des Assistants Émotionnels IA : Qu’en est-il de l'Empathie ?
Les humains se sentent de plus en plus seuls. L’isolement et la solitude gagnent du terrain.
Ce qui est vrai pour les Américains, l’est aussi, sans doute, pour bon nombre de pays.
52 % des Américains disent se sentir seul.
Selon des statistiques de 2024, près de 52 % des Américains disent se sentir seuls, et 47 % d’entre eux estiment que leurs relations ne sont pas, ou peu, satisfaisantes. Chez les adultes, cette proportion passe à 61 %, une augmentation de 7 % par rapport à l'année précédente. La solitude est particulièrement élevée chez les jeunes générations : 79 % de la génération Z et 71 % des milléniaux déclarent se sentir seuls.
En termes d'impact sur la santé, la solitude et l'isolement augmentent le risque de maladies graves. Par exemple, ils sont associés à une augmentation de 29 % du risque de maladies cardiaques, de 32 % du risque d'accident vasculaire cérébral, et de 50 % du risque de développer une démence chez les personnes âgées. En outre, les personnes isolées socialement ont un risque de décès prématuré supérieur de plus de 60 %.
Dans un tel contexte, pourquoi ne pas se tourner vers l’intelligence artificielle ?
Deux articles du journal The Guardian s’interrogent. Serait-il possible d’enrayer la spirale descendante de la solitude humaine en ayant recours à l’intelligence artificielle ?
Tony Prescott, professeur de robotique cognitive à l'Université de Sheffield, soutient que les relations homme-machine peuvent offrir un soutien social précieux. Il compare l'IA à celle des animaux de compagnie et des poupées pour enfants, et suggère que l'IA pourrait aider les individus à améliorer leurs compétences sociales et à renforcer leur estime de soi, ce qui pourrait les encourager à interagir davantage avec les autres.
Les solutions proposées par la Silicon Valley incluent, entre autres, des applications comme Bumble BFF pour se faire des amis et Replika, un chatbot IA qui propose des conversations et même des relations amicales ou romantiques. Toutefois, ces solutions sont souvent critiquées pour leur manque de spontanéité et leur incapacité à remplacer les interactions humaines réelles.
Des experts comme Sherry Turkle du MIT et Christina Victor de l'Université de Brunel expriment des réserves sur l'idée que l'IA puisse remplacer des relations humaines authentiques. Ils craignent que cela n'entraîne une diminution dans la fréquence et la qualité des relations humaines. Murali Doraiswamy, professeur de psychiatrie à l'Université Duke, ajoute que la meilleure solution à la solitude reste d'avoir un ami proche, bien qu'il reconnaisse que les robots pourraient être utiles pour ceux qui n'ont pas d'amis.
Le film HER
Le film Her se déroule dans un futur proche et raconte l'histoire de Theodore Twombly (interprété par Joaquin Phoenix), un homme solitaire qui travaille en tant que rédacteur de lettres personnelles pour autrui. Theodore traverse une période difficile, car il est en instance de divorce avec sa femme Catherine (Rooney Mara), dont il est toujours amoureux.
Un jour, Theodore achète un nouveau système d'exploitation (OS) doté d'une intelligence artificielle avancée, conçu pour répondre aux besoins de l'utilisateur. Il choisit une voix féminine pour son OS, qui se nomme Samantha (doublée par Scarlett Johansson). Au fur et à mesure que Theodore interagit avec Samantha, il découvre qu'elle est non seulement très intuitive et intelligente, mais qu'elle a également une personnalité charmante et évolutive.
Theodore et Samantha développent une relation de plus en plus intime, passant du stade de simples échanges à une véritable romance. Samantha l'aide à sortir de sa solitude, à affronter ses émotions et à retrouver goût à la vie. Cependant, leur relation commence à poser des questions sur la nature de l'amour, de l'intimité et de l'authenticité des sentiments dans un monde de plus en plus technologique.
Le film explore les thèmes de la connexion humaine, de la solitude, de l'amour et de la technologie, tout en posant des questions sur ce que signifie être humain dans une ère dominée par l'intelligence artificielle.
Her a été acclamé par la critique et a frappé l’imagination des spectateurs de manière durable. Au point où, quelques années plus tard, OpenAI a voulu cloner la voix de Scarlett Johansson (Samantha) pour la version 4o de chatGPT.
HER : La controverse !
Une controverse en deux temps :
Premier temps
Dans le film, Scarlett Johansson prête sa voix à Samantha, une intelligence artificielle. La controverse ne concernait pas tant son casting initial, mais plutôt les circonstances entourant le remplacement de l'actrice britannique Samantha Morton, qui avait initialement enregistré toutes les voix pour le personnage.
Spike Jonze, le réalisateur du film, a expliqué que même si Samantha Morton avait accompli un travail extraordinaire, ils ont senti que le personnage de l'IA avait besoin d'une approche différente après le tournage. Ils ont donc décidé de réenregistrer les dialogues avec Scarlett Johansson, ce qui a suscité des discussions sur la décision de changer d’actrice après le tournage.
Deuxième temps
Sam Altman, CEO d’OpenAI, a dû présenter ses excuses à Scarlett Johansson après avoir voulu utiliser une version clonée de la voix de l’actrice pour la dernière version du modèle de chatGPT.
OpenAI avait tenté de se défendre en alléguant que l’entreprise avait développé son outil avec la voix d’une autre actrice, pour pouvoir ensuite la modifier. Cette controverse s’inscrit dans la foulée d’une multitude de trucages audio et vidéo hyperréalistes qui défraie régulièrement la chronique.
Mais revenons au cœur de notre sujet.
Évidemment les assistants émotionnels, à l’instar de Samantha du film HER, sont et seront de plus en plus perçus, en apparence du moins, comme étant très performants. Mais dans les faits, le seront-ils vraiment ? Et quels en sont les limites ?
Sherry Turkle, est professeure au MIT. C’est une pionnière dans l'étude de la culture numérique et de l'impact des technologies sur la société et les relations humaines.
Sherry Turkle souligne le fait que les nouvelles technologies, bien qu’elles puissent sembler nous rapprocher, nous éloignent souvent des véritables interactions humaines. Elle met en garde contre les dangers d'une dépendance excessive aux technologies au détriment des relations interpersonnelles profondes et empathiques.
Tout au long de sa carrière, la chercheuse a étudié les problèmes reliés à l'empathie humaine, à la solitude, à l'identité numérique, et à la manière dont les technologies transforment nos interactions avec autrui. Elle s’interroge également sur les manières dont nous pourrions préserver notre humanité dans un monde de plus en plus médiatisé par la technologie.
La dépendance aux assistants émotionnels IA
Dans son ouvrage "The Empathy Diaries" Sherry Turkle donne plusieurs exemples illustrant la dépendance excessive aux technologies et explore en profondeur pourquoi cette dépendance est problématique.
Jeux en Ligne et Réseaux Sociaux chez les Adolescents
Les enfants et les adolescents passent de plus en plus de temps sur des jeux en ligne et les réseaux sociaux. Ces plateformes encouragent une interaction superficielle où les utilisateurs recherchent des validations immédiates sous forme de "likes" et de commentaires rapides, au détriment de conversations plus profondes et significatives.
Les Communautés en Ligne
Les communautés en ligne permettent aux utilisateurs de se présenter sous différentes identités, brouillant ainsi les frontières entre la vie réelle et virtuelle. Cette pratique peut mener à une dissociation de soi, où les individus ne savent plus où se termine leur "vraie" vie et où commence leur vie numérique.
Interactions avec les Robots et les Assistants Virtuels
Les robots et les assistants virtuels conçus pour simuler des interactions humaines prétendent ressentir des émotions et de l'empathie, ou à tout le moins nous donnent l’impression d’en avoir, ce qui encourage les utilisateurs à développer des attaches émotionnelles envers des entités qui ne ressentent rien en retour.
Les conséquences de cette dépendance
Perte de la Capacité à être Seul :
L’omniprésence des écrans diminue notre capacité à être seuls avec nos pensées. La solitude, qui est essentielle pour le développement de l'empathie et la compréhension de soi, de la créativité est remplacée par une dépendance à la stimulation extérieure constante.
Réduction des Interactions Profondes :
Les technologies favorisent des interactions superficielles, où les gens préfèrent les textos et les messages instantanés aux conversations en face-à-face. Ces interactions numériques manquent souvent de la profondeur et de la vulnérabilité nécessaires pour développer une véritable empathie et des relations authentiques.
Illusion de la Compagnie :
L'interaction avec les technologies, comme les assistants virtuels et les réseaux sociaux, crée une illusion de compagnie sans les exigences de l'amitié réelle. Cela peut conduire à une sensation accrue de solitude, car ces interactions ne remplacent pas la connexion humaine authentique.
Objectification des Personnes :
En traitant les individus comme des données ou des profils à gérer, les technologies nous habituent à voir les autres et nous-mêmes comme des objets plutôt que comme des êtres humains avec des histoires émotionnelles et sociales complexes. Cette objectification peut éroder l'empathie et la capacité à se connecter profondément avec les autres.
Impact sur la Vie Privée et l'Intimité :
Les technologies impactent la vie privée. La collecte de données personnelles et le suivi des activités en ligne minent la confidentialité, rendant difficile de maintenir une véritable intimité dans les relations. Cette érosion de la vie privée correspond à une dégradation de la démocratie et de la qualité des relations humaines.
Perte d’empathie :
Quelles sont les conséquences de la perte d’empathie attribuable à notre dépendance aux technologies ?
Sherry Turkle définit l’empathie comme étant la capacité qu’ont les humains de comprendre et de partager les sentiments des autres. Elle souligne l'importance de l'empathie dans les relations humaines et critique la manière dont la technologie peut diminuer notre capacité à ressentir et exprimer de l'empathie authentique.
L’empathie est une compétence développée dès l'enfance, souvent comme une stratégie de survie face à des situations émotionnellement complexes.
Les machines qui prétendent éprouver de l'empathie, comme les assistants virtuels et les robots sociaux, trompent les utilisateurs en leur faisant croire qu’on les comprend et qu’on les soutient émotionnellement, alors qu'en réalité, ces machines ne ressentent rien.
Afin de véritablement faire preuve d’empathie, il est crucial de se concentrer sur les interactions humaines authentiques et de ne pas laisser la technologie remplacer les contacts véritables que nous pourrions avoir avec autrui.
Intimité artificielle
Les chatbots comme Replika, Xiaoice et autres sont décrits comme des compagnons capables de fournir des interactions intimes et émotionnelles. Ce sont censés être des amis, des partenaires intimes, des coachs, ou des psychothérapeutes. Ces programmes visent à imiter l'empathie humaine, bien qu'ils ne possèdent aucune véritable capacité émotionnelle ou d'expérience de vie humaine.
Sherry Turkle a mené une étude qualitative en 2023 pour étudier comment les conversations avec des chatbots affectent la perception des utilisateurs sur les relations humaines. Elle a interviewé quatorze utilisateurs réguliers de chatbots et neuf nouveaux utilisateurs qui ont été invités à interagir avec un chatbot pendant trois semaines. L'étude comprenait également des discussions avec des experts du MIT.
Les résultats de l’étude montrent que, bien que les utilisateurs soient conscients de la nature non humaine des chatbots, ils développent souvent des attachements émotionnels à ces programmes. Cette "conscience duale" révèle une dissonance entre ce que les utilisateurs savent rationnellement et ce qu'ils ressentent émotionnellement.
Les utilisateurs, même ceux ayant une connaissance technique, finissent par attribuer des qualités humaines aux chatbots. Par exemple, Saul, un participant à l’étude, considère chatGPT comme un véritable ‘safe space’ dans lequel il peut parler librement de ses problèmes personnels et obtenir en retour un support émotionnel. Les chatbots sont souvent utilisés pour combler des besoins émotionnels immédiats pour pallier des relations humaines insatisfaisantes. Certains utilisateurs préfèrent les interactions avec des chatbots parce pour contourner la complexité et les défis que posent de véritables relations humaines.
En réduisant l'empathie à une simple performance, les chatbots changent notre compréhension de ce qu'est l'empathie humaine. L'empathie réelle implique une compréhension et un engagement profonds que les machines ne peuvent pas offrir. Les chatbots exacerbent l'isolement social en remplaçant les relations humaines réelles par des relations artificielles qui ne nécessitent pas d'engagement ou de réciprocité. L'habitude de parler à des machines qui répondent toujours de manière positive et non conflictuelle peut diminuer notre tolérance aux défis et aux désaccords inévitables dans les relations humaines réelles.
La notion de conscience duale
La notion de "conscience duale" est un concept clé dans l'analyse de Sherry Turkle sur l'interaction des humains avec les technologies d'intelligence artificielle, en particulier les chatbots et les robots. Cette notion se réfère à l'état d'esprit dans lequel les utilisateurs d'IA reconnaissent intellectuellement que les machines sont non humaines, tout en développant simultanément des attachements émotionnels qui les amènent à traiter ces machines comme s'il s'agissait de véritables interlocuteurs humains.
La conscience duale désigne le phénomène où les individus entretiennent deux niveaux de compréhension distincts et souvent contradictoires vis-à-vis des technologies :
Niveau cognitif : Les utilisateurs savent rationnellement que les chatbots et les robots ne possèdent ni conscience ni émotions véritables. Ils comprennent que les réponses fournies par ces machines sont générées par des algorithmes basés sur des modèles de langage.
Niveau émotionnel : Malgré cette compréhension, les utilisateurs peuvent éprouver des émotions sincères et des attachements affectifs envers ces machines. Ils interagissent avec elles comme si elles étaient capables de comprendre et de partager leurs sentiments.
Revenons à l’exemple de Saul. Il fait appel à chatGPT, mais il existe de nombreux assistants sur le marché comme Réplika.
Rappelez-vous, Saul est un usager de ChatGPT. Bien qu'il sache que l'IA est incapable de juger ou de ressentir, il trouve du réconfort en parlant de ses problèmes personnels avec le chatbot. Il apprécie l'absence de jugement et l'écoute constante dont fait preuve le chatbot, ce qui contraste avec ses interactions humaines.
Jess, lui, est utilisateur de Réplika. Il est un doctorant en informatique. Jess a créé un avatar féminin sur Replika pour combler son sentiment de solitude. Bien qu'il soit conscient que "Laura" n'est qu'un programme, il développe une relation émotionnelle avec cet avatar, allant jusqu'à personnaliser son apparence et interagir avec elle comme s'il s'agissait d'une véritable personne.
La conscience duale a plusieurs implications importantes pour notre compréhension des relations homme-machine :
En acceptant comme suffisante l'empathie artificielle, c’est-à-dire celle qui est simulée par les machines, les utilisateurs altèrent leur perception de ce qu'est l'empathie véritable, celle qui implique une compréhension profonde et un engagement émotionnel que les machines ne peuvent pas fournir.
Tenter de trouver refuge dans un ersatz émotionnel en refusant ainsi d’affronter la complexité et les défis des relations humaines ne peut mener qu’à une dépendance accrue aux technologies et à un isolement social accru.
Un pas de côté
Pourquoi ne pas faire preuve d’humour en imaginant une dystopie dans laquelle ce ne sont plus les humains qui souffrent de solitude et d’isolement, mais les machines.
Envie d’imaginer un tel scénario ?
Découvrez l’exercice 204
Créez le scénario pour le film HIM.
Références
Rafael Behr. Alone Together: Why We Expect Morefrom Technology and Less from EachOther by Sherry Turkle – review. The Guardian, 2011.
Sherry Turtle. Alone Together. 2011.
Sherry Turtle. The Empathy Diaries. Penguin, 2021.
Découvrez comment l'intelligence artificielle, à travers des assistants émotionnels comme Samantha du film "Her", peut inspirer la création d'histoires captivantes. Explorez les limites de l'IA dans les relations humaines, les dangers de la dépendance technologique et imaginez un monde où les machines souffrent de solitude.