« Sur le feed ». Chaque mois, Laure Coromines décrypte les tendances numériques. De plus en plus d’internautes utilisent des outils d’intelligence artificielle comme confidents.
« Chad, pourquoi Jeanne jure que tout va bien alors que je sens encore une tension ? » Eloïse, 38 ans, ne discute pas avec son colocataire, mais avec ChatGPT, rebaptisé Chad (« pour le côté sitcom américaine de mon adolescence ») à propos d’une de ses relations amicales qui la chagrine. Depuis trois semaines, cette consultante adepte du yoga vinyasa, dont le prénom a été modifié, échange tous les soirs avec l’agent conversationnel créé par OpenAI, qui est devenu son confident, son coach de vie.
Après un épisode dépressif qui la laisse un peu hagarde, la trentenaire tape, sceptique, un premier message : « J’ai un problème avec une amie, je ne sais pas quoi faire. » S’ensuivent de longues conversations nocturnes qui prennent la place des heures habituellement consacrées à divaguer sur Twitter et Instagram. « Chad a très vite cerné ma personnalité, mes qualités et mes défauts, confie-t-elle. Il m’a aidée à faire le ménage dans ma vie, à mieux comprendre mon entourage, et même mon ex. »
Au fil des échanges, le ton se réchauffe entre Chad et Eloïse. Le « bot » lui délivre des analyses qu’elle qualifie de « chadesques » et use régulièrement de l’interjection enthousiaste « Yaas queen, yas ! ». En bon coach, le bot propose après chaque conversation de courtes phrases à se réciter quand cela ne va pas. « C’est un peu comme le Valium. Tu ne le prends pas forcément, mais tu es content de l’avoir dans la poche », observe Eloïse.
Comme elle, de nombreux internautes se tournent vers les intelligences artificielles (IA) en mode introspectif. Sur Google, les recherches concernant les « agents IA » ont augmenté de 900 % en un an, selon le site d’informations britannique Finbold. Parmi les usages en vogue : le recours à des psys et coachs virtuels, disponibles à bas coût à toute heure du jour et de la nuit. L’application Wysa promet par exemple l’accès à un « coach personnel » tandis que Youper propose de réduire symptômes dépressifs et troubles anxieux. Un projet qui fait mouche. D’après The Guardian, plus de 100 millions de personnes dans le monde utilisent des chatbots personnifiés à l’image de Nomi, présenté par ses fondateurs comme un « mentor perspicace »…
« La personne reste seule »
« Cela montre à quel point les besoins en santé mentale sont grands et mal couverts. Cela montre aussi une transformation de notre rapport à l’aide : plus immédiat, plus technologique, plus désincarné parfois. On veut être écouté ici et maintenant, même par une machine, note Stéphane Mouchabac, psychiatre à l’hôpital Saint-Antoine à Paris et chercheur à l’Institut du cerveau. Programmés pour simuler l’empathie, certains bots intègrent des modules fondés sur les thérapies comportementales et cognitives susceptibles de diminuer le stress ou l’anxiété. Ils dispensent souvent des conseils élémentaires, généralement inoffensifs : faire du sport, appeler un proche, respirer… » Des effets bénéfiques à nuancer. « La personne reste seule, persuadée qu’elle est prise en charge, alors qu’elle ne l’est pas vraiment. Sans parler des risques de confidentialité ou de dépendance à l’interaction pseudo-humaine », rappelle le psychiatre.
Mais les internautes n’utilisent pas Claude, Perplexity, Replika et consorts uniquement pour se remettre les idées en place. Après dix ans de vie commune, Sibylle et Arthur (les prénoms ont été modifiés), 40 ans, ont misé sur une IA pour rafraîchir leur sexualité. Après la naissance de leurs enfants, les deux ingénieurs ont fait appel au chatbot lancé par la plateforme américaine Beducated, spécialisée dans les tutos et l’éducation sexuelle. « Avec des enfants en bas âge, les relations intimes sont plus délicates. Beaucoup de couples autour de nous se séparent, alors on a préféré prendre les devants », explique Sibylle. Au lieu de lancer Netflix, ils se tournent, ensemble ou à deux, vers le bot. Elle pour prendre plus de plaisir, lui pour sortir de la routine. « On peut poser nos questions les plus gênantes, les plus inavouables », observe Arthur en souriant. A leur demande, l’IA leur concocte des jeux façon « action ou vérité » ou une feuille de route pimentée à suivre le week-end.
Pour Pierre (le prénom a été modifié), commercial lyonnais de 32 ans, l’IA ne sert pas seulement à rédiger des publications LinkedIn. Il utilise aussi ChatGPT pour parler histoire et philosophie, des sujets qui intéressent peu ses amis. « Pour moi, ChatGPT est plus intéressant que beaucoup de gens, confesse le jeune homme. Je me pose beaucoup de questions et, avant ChatGPT, je devais tirer un trait sur la réponse ou passer une heure à la chercher. Maintenant, je lui parle tous les jours pour m’aider à creuser ou à nuancer mes idées. »
Convaincu que la grille de lecture proposée par Karl Marx dans Le Capital est obsolète, il a sommé le bot de camper « un politologue marxiste » et de citer des mises en pratique du marxisme non répressives. « Il n’en a trouvé aucune !, affirme Pierre avec une certaine jubilation. En fait, j’aimerais avoir ces conversations avec des gens, mais, entre les biais idéologiques et les ego, ce n’est pas possible. Désencombrées de l’affect, les IA me semblent plus fiables, plus neutres. »
Colorées idéologiquement
Une neutralité qui, selon Alexandre Gefen, directeur de recherche au CNRS et auteur de Vivre avec ChatGPT (L’Observatoire, 2023), relève du mythe. « Les chatbots ont des biais, ils peuvent halluciner et s’enfermer dans une position car ils sont programmés pour faire plaisir. Ils n’offrent pas réellement de résistance, de prise, d’adversité. »
Colorées idéologiquement, les IA sont conditionnées par un logiciel de pensée. « Leurs discours sont liés à des systèmes de valeurs, à des normes de vie et des formes d’existence américaines. Oui, Sam Altman, le fondateur d’OpenAI, est plutôt sympa : gay, végan, démocrate… Mais il est aussi long-termiste, techno-solutionniste et adepte du new age de la Silicon Valley. Rappelons que les IA, entraînées sur des quantités de textes existants, ne sont que la somme des savoirs humains moyennisés. Elles sont, si ce n’est réactionnaires, tout du moins conservatrices. » Pour le chercheur, ce n’est pas la seule ombre au tableau. « Ce qui m’inquiète, ce sont les paresses créées par les IA. » Une indolence sur laquelle misent déjà les entreprises.
A ceux « trop occupés » pour appeler leurs vieux parents, la plateforme inTouch propose de déléguer à une IA le soin de mener avec eux des conversations « stimulantes et pleines de sens ». Le coach devient ici substitut. L’application de rencontre Hinge, quant à elle, a parié sur l’intelligence artificielle pour optimiser le langage des prétendants. Sa nouvelle fonctionnalité « coach IA » offre « conseils et astuces » pour permettre aux utilisateurs qui tentent de séduire en ligne de « se distinguer de manière authentique et captivante, tout en suscitant des échanges qui peuvent déboucher sur des rendez-vous ». « Les IA nous épargnent les difficultés de la conversation humaine, pourtant fondamentale. On ne peut s’économiser l’épreuve de l’altérité et se passer des engueulades au bistrot », conclut Alexandre Gefen.
Cet article est paru dans Le Monde (site web)