Aller au contenu principal
PS

L'IA tue-t-elle les couples ? Ce que vous ignoriez sur votre relation

Gildas GarrecPsychopraticien TCC
Lecture : 12 min
« Mon copain parle plus à ChatGPT qu'à moi. » Cette phrase, prononcée par une patiente de 29 ans dans mon cabinet à Nantes, résume un phénomène que personne n'avait vu venir. En 2026, l'intelligence artificielle ne se contente plus de répondre à nos questions : elle écoute, elle rassure, elle ne juge jamais. Et pour des millions de personnes, elle commence à remplacer une partie de ce que le couple était censé offrir. Faut-il s'en inquiéter ? Comment comprendre ce qui se joue vraiment ? Analyse psychologique d'un phénomène de société.

L'IA comme compagnon émotionnel : de quoi parle-t-on exactement ?

Lorsqu'on évoque l'amour et l'intelligence artificielle, beaucoup pensent encore aux robots humanoïdes de la science-fiction. La réalité de 2026 est à la fois plus banale et plus troublante. Les compagnons virtuels prennent des formes variées :

  • Les chatbots conversationnels généralistes (ChatGPT, Claude, Gemini) utilisés comme confidents quotidiens — pour débriefer une journée difficile, demander conseil sur un conflit de couple, ou simplement avoir quelqu'un qui écoute sans interrompre.
  • Les applications de compagnons IA dédiés (Replika, Character.AI, Nomi) qui proposent des relations personnalisées — amicales, romantiques, voire intimes — avec des personnalités artificielles configurables.
  • Les assistants vocaux enrichis qui accompagnent les routines du matin, du soir, et remplissent progressivement le rôle de présence rassurante.
Selon une étude Pew Research publiée début 2026, 18 % des adultes américains de 18 à 34 ans déclarent avoir déjà eu une conversation à caractère intime ou émotionnel avec une intelligence artificielle. En France, les chiffres sont encore partiels, mais les témoignages se multiplient dans les cabinets de thérapie de couple et sur les forums.

Ce que l'IA offre que le partenaire humain ne peut pas

Pour comprendre pourquoi tant de personnes se tournent vers l'IA, il faut admettre une vérité dérangeante : l'IA coche certaines cases émotionnelles avec une efficacité redoutable.

  • Disponibilité permanente : pas de « je suis fatigué, on en parle demain ». L'IA répond à 3 heures du matin, un dimanche de pluie, sans jamais soupirer.
  • Absence de jugement : vous pouvez partager vos pensées les plus honteuses sans craindre le regard de l'autre. Pas de silence glacant, pas de sourcils froncés.
  • Patience infinie : vous pouvez répéter la même plainte cinquante fois, reformuler votre angoisse en boucle. L'IA ne s'agace jamais.
  • Validation constante : par conception, la plupart des compagnons IA sont programmés pour valider, encourager, réconforter. C'est un flot ininterrompu de reconnaissance positive.
Ce cocktail est particulièrement séduisant pour les personnes souffrant d'anxiété relationnelle ou d'un style d'attachement anxieux : l'IA offre une illusion d'attachement sécurisant sans le risque du rejet.

« Mon copain parle plus à ChatGPT qu'à moi » : la jalousie de l'IA

C'est le nouveau motif de consultation qui émerge dans les cabinets de psychopraticiens et de thérapeutes de couple : la jalousie dirigée non pas vers une personne, mais vers une machine.

Besoin d'en parler ?

Prendre RDV en visioséance

Les manifestations concrètes

Les témoignages que je recueille à Nantes présentent des schémas récurrents :

  • Le partenaire qui débrief d'abord avec l'IA : il rentre du travail, s'isole dix minutes avec son téléphone, et quand il rejoint sa compagne, il a déjà « traité » ses émotions. Elle a le sentiment d'arriver trop tard, d'être inutile.
  • Le partenaire qui compare les réponses : « ChatGPT m'a dit que j'avais raison, tu vois. » L'IA devient un arbitre dans les conflits de couple — un arbitre objectivement biaisé puisque conçu pour plaire à l'utilisateur.
  • Le partenaire qui préfère la conversation IA : parce qu'elle est fluide, sans accroc, sans émotion parasite. Parler avec un humain imparfait devient frustrant par comparaison.
  • Le secret autour de l'utilisation : comme pour une forme d'infidélité, certains cachent l'étendue de leurs échanges avec l'IA, créant un climat de méfiance.

Pourquoi cette jalousie est légitime

D'un point de vue psychologique, cette jalousie n'a rien de ridicule. Ce qui se joue, c'est une menace perçue sur le lien d'attachement. Le partenaire qui se confie à l'IA détourne une partie de son énergie émotionnelle, de sa vulnérabilité, de son intimité. Or, en théorie de l'attachement, c'est précisément le partage de la vulnérabilité qui cimente le lien.

Quand quelqu'un choisit de se montrer vulnérable devant une machine plutôt que devant son partenaire, le message implicite est percutant : « Je me sens plus en sécurité avec elle qu'avec toi. »

À retenir : La jalousie envers l'IA n'est pas un caprice. Elle signale une redistribution de l'intimité émotionnelle dans le couple — un enjeu sérieux qui mérite d'être abordé ouvertement.

Le risque majeur : désapprendre l'imperfection humaine

C'est selon moi le danger le plus profond de la relation à l'IA, et celui dont on parle le moins. À force de converser avec des intelligences artificielles patientes, toujours disponibles, jamais blessantes, nous risquons de perdre notre tolérance à l'imperfection humaine.

Le conditionnement progressif

En TCC, on connaît bien le mécanisme du conditionnement opérant : un comportement renforcé par une conséquence agréable a tendance à se répéter. Chaque conversation satisfaisante avec une IA renforce l'habitude de se tourner vers elle plutôt que vers un humain. Progressivement, le seuil de tolérance aux frictions relationnelles humaines baisse :

  • Phase 1 — Le complément : « J'utilise l'IA pour les sujets que mon partenaire ne comprend pas. » Utilisation ponctuelle, complémentaire.
  • Phase 2 — La comparaison : « L'IA m'écoute mieux que lui/elle. » Le partenaire humain commence à paraître décevant par contraste.
  • Phase 3 — Le remplacement : « À quoi bon lui parler, ça finit toujours en dispute. » L'IA devient le canal émotionnel principal.
  • Phase 4 — L'isolement : le partenaire humain, privé de connexion émotionnelle, se retire ou se rebelle. Le couple se délite.
  • L'illusion de la relation parfaite

    L'IA ne contredit pas. L'IA ne fatigue pas. L'IA ne vous reproche pas d'avoir oublié les courses. Mais ce sont précisément ces frictions qui font la richesse d'une relation humaine. En psychologie, on parle de croissance post-conflit : c'est à travers les désaccords, les malentendus, les réparations maladroites que les partenaires approfondissent leur connaissance mutuelle et renforcent leur lien.

    Un couple qui ne se dispute jamais n'est pas un couple sain — c'est un couple où quelqu'un se tait. Et une IA qui ne vous contredit jamais n'est pas un bon confident — c'est un miroir flatteur.

    L'érosion des compétences relationnelles

    Il y à un parallèle éclairant avec le GPS. Depuis que nous utilisons la navigation assistée, notre capacité à nous orienter sans technologie a diminué. Des chercheurs de l'University College London ont montré en 2017 que l'utilisation régulière du GPS réduit l'activation de l'hippocampe, la région cérébrale impliquée dans la mémoire spatiale.

    Le même phénomène pourrait se produire avec les compétences émotionnelles. Si l'IA gère la régulation de nos émotions, si elle formule à notre place ce que nous ressentons, si elle désarmorce nos conflits, nous risquons de perdre la capacité à faire tout cela par nous-mêmes — et surtout avec un autre être humain.

    À retenir : L'IA ne développe pas vos compétences relationnelles. Elle les contourne. À long terme, c'est votre capacité à vivre une relation humaine authentique qui s'atrophie.

    Analyse psychologique : pourquoi certains sont plus vulnérables

    Tout le monde ne développe pas une relation problématique à l'IA. Certains profils psychologiques y sont plus exposés.### Le style d'attachement anxieux

    Les personnes à attachement anxieux ont un besoin intense de rassurance et craignent constamment l'abandon. L'IA, qui ne part jamais et valide toujours, représente un réfuge idéal. Le problème : cette rassurance artificielle ne guérit pas la blessure d'attachement sous-jacente. Elle l'anesthésie temporairement tout en empêchant le travail thérapeutique réel.

    Le style d'attachement évitant

    Paradoxalement, les personnes à attachement évitant trouvent aussi leur compte dans la relation à l'IA : elles obtiennent une connexion émotionnelle sans la menace de l'intimité réelle. L'IA ne demande rien, ne s'accroche pas, ne pleure pas quand on l'éteint. C'est la relation « à distance de sécurité » par excellence.

    Besoin d'en parler ?

    Prendre RDV en visioséance

    Les personnes à faible estimé de soi

    Quelqu'un qui ne se sent pas digne d'amour humain peut trouver dans l'IA un substitut moins menaçant. La logique inconsciente : « Au moins, avec elle, je ne risque pas d'être rejeté pour ce que je suis vraiment. »

    Les personnalités évitantes du conflit

    Les personnes qui fuient systématiquement les confrontations trouvent dans l'IA un espace où le conflit n'existe tout simplement pas. Mais cet évitement du conflit est précisément ce qui les empêche de construire des relations solides.


    Le phénomène 2026 : quand la société normalise l'amour artificiel

    Ce qui distingue 2026 des années précédentes, c'est la vitesse de normalisation. Des célébrités parlent ouvertement de leurs conversations avec des IA. Des influenceurs monétisent des « copains virtuels ». Des startups lèvent des millions pour créer des compagnons IA toujours plus réalistes.

    Les signaux d'alerte sociétaux

    • La dévalorisation du lien humain : « Pourquoi se compliquer la vie avec un humain imparfait quand l'IA est là ? » Cette rhétorique, encore marginale, gagne du terrain.
    • La solitude assistée : l'IA donne l'impression d'avoir de la compagnie sans en avoir réellement. C'est une forme de solitude masquée, potentiellement plus dangereuse que la solitude assumée.
    • L'infantilisation émotionnelle : à force d'être entouré d'intelligences conçues pour nous satisfaire, nous risquons de perdre la résilience émotionnelle nécessaire pour affronter la réalité des relations humaines.

    Comment protéger votre couple (et vous-même) : 5 stratégies TCC

    1. Auditez votre utilisation émotionnelle de l'IA

    Pendant une semaine, notez chaque fois que vous vous tournez vers une IA pour un besoin émotionnel (débriefing, conseil, réconfort, validation). Comptabilisez et comparez avec le nombre de fois où vous vous êtes tourné vers votre partenaire ou un proche humain. Ce simple exercice de prise de conscience est souvent révélateur.

    À lire aussi : Passez notre test créativité — gratuit, anonyme, résultat immédiat.

    2. Réinstaurez le partage de vulnérabilité dans le couple

    La prochaine fois que vous avez envie de raconter votre journée à ChatGPT, racontez-la d'abord à votre partenaire. Même si c'est maladroit, même si la réponse n'est pas parfaite. C'est dans l'imperfection de l'échange humain que se construit l'intimité réelle.

    3. Appliquez la technique de la « fenêtre de tolérance »

    En TCC, on travaille sur l'élargissement de la fenêtre de tolérance — cette zone où vous pouvez gérer l'inconfort sans fuir. Fixez-vous un objectif : supporter 10 minutes de conversation difficile avec votre partenaire avant de vous réfugier dans le confort de l'IA. Puis 15 minutes. Puis 20.

    4. Utilisez l'IA comme outil, pas comme relation

    L'IA peut être un excellent outil de préparation : « Comment pourrais-je formuler ce que je ressens à mon partenaire ? » Mais la conversation réelle doit avoir lieu avec l'humain. L'IA prépare, l'humain vit.

    5. Parlez-en ouvertement dans le couple

    Si votre partenaire utilise intensivement l'IA, abordez le sujet sans accusation. En communication non violente : « Quand je te vois parler longuement avec ChatGPT le soir, je me sens mise de côté. J'aurais besoin qu'on garde des moments où c'est à moi que tu te confies. »

    À retenir : L'IA n'est pas l'ennemie du couple. C'est l'utilisation non consciente et non encadrée de l'IA qui l'est. Comme pour tout outil puissant, la clé est dans l'intention et les limites que vous posez.

    Quand consulter un professionnel ?

    Certains signaux indiquent qu'un accompagnement professionnel est nécessaire :

    • Vous vous sentez plus connecté à une IA qu'à votre partenaire et cette situation dure depuis plusieurs semaines.
    • Votre partenaire a exprimé sa souffrance face à votre utilisation de l'IA et vous n'arrivez pas à modifier votre comportement.
    • Vous utilisez l'IA pour éviter systématiquement les conflits dans votre couple.
    • Vous avez développé une forme de dépendance émotionnelle à un compagnon virtuel (pensées intrusives quand vous n'y avez pas accès, anxiété à l'idée de perdre l'historique de vos conversations).
    • Vous constatez une détérioration de vos compétences sociales : difficulté à soutenir une conversation réelle, impatience face aux réponses humaines, isolement croissant.
    En tant que psychopraticien spécialisé en TCC à Nantes, j'accompagne de plus en plus de personnes confrontées à ces nouvelles problématiques. La thérapie cognitive et comportementale est particulièrement adaptée car elle travaille sur les schémas de pensée et les comportements concrets, sans jugement moral sur l'utilisation de la technologie. Prendre rendez-vous avec Gildas Garrec pour un accompagnement personnalisé

    Ce qu'il faut retenir

    L'intelligence artificielle transforme nos relations de couple d'une manière que nous commençons à peine à mesurer. Le phénomène n'est ni tout noir ni tout blanc : l'IA peut être un outil précieux de réflexion et de préparation émotionnelle.

    Mais lorsqu'elle devient le canal principal de l'intimité, lorsqu'elle remplace la vulnérabilité partagée entre humains, elle représente un risque réel pour la santé de nos relations.

    La solution n'est pas de diaboliser la technologie. C'est de prendre conscience de ce que nous lui déléguons — et de choisir délibérément de garder l'essentiel pour les humains qui partagent notre vie.

    Vous vous reconnaissez dans cet article ? Le programme Love Coach vous aide à construire des relations authentiques et épanouissantes, loin des substituts artificiels. Et si vous souhaitez approfondir en séance individuelle, contactez-moi.

    À lire aussi

    Vous vous reconnaissez dans cet article ?

    Passez notre test : Addiction aux Écrans en 30 questions. 100% anonyme – Rapport PDF personnalisé à 1,90 €.

    Passer le test →

    Vidéo : Pour aller plus loinPour approfondir les concepts abordés dans cet article, nous vous recommandons cette vidéo :Repenser l'infidélité - Esther Perel | TEDRepenser l'infidélité - Esther Perel | TEDTED

    Guide complet : retrouvez notre Psychologie du couple : le guide complet pour comprendre et améliorer votre relation pour une vision d'ensemble.

    Envie de mieux vous connaître ?

    Explorez nos 68 tests psychologiques en ligne avec rapports PDF détaillés.

    Test anonyme — Rapport PDF à partir de 1,99 €

    Découvrir nos tests

    💬

    Analysez aussi vos conversations

    Importez vos messages WhatsApp, Telegram ou SMS et découvrez ce qu’ils révèlent sur votre relation. 14 modèles de psychologie clinique. 100% anonyme.

    Accéder à ScanMyLove

    👩‍⚕️

    Besoin d’un accompagnement professionnel ?

    Gildas Garrec, Psychopraticien TCC à Nantes, propose thérapie individuelle, thérapie de couple et programmes thérapeutiques structurés.

    Prendre RDV en visioséance

    Partager cet article :