POSTS RECENTS GNIPL

Agnès Giard / L’IA est-elle une briseuse de couple ?

7views

Texte publié  le 24/01/2026 et à retrouver sur le Blog « Les 400 culs » du journal Libération. Illustration : Image générée par l’IA par la rédaction, à partir de l’illustration d’un article de Libération. Agnès Giard, anthropologue rattachée à l’université de Paris-Nanterre, spécialiste du Japon, passe les discours et les pratiques sexuelles contemporaines au crible d’une analyse sceptique et distanciée, nourrie par les dernières recherches en sciences humaines et sociales.

Effet d’annonce marketing ou réel danger ? Des avocats tirent la sonnette d’alarme dans les médias anglo-saxons, affirmant que les logiciels d’intelligence artificielle provoquent des divorces.

Certains tombent amoureux d’une IA, comme en témoigne un article de Libé, daté du jeudi 22 janvier. D’autres divorcent à cause d’elle. Aux États-Unis, les médias s’emballent sur le sujet : « ChatGPT sème la zizanie dans les couples », titrait la revue Futurism en septembre dans un dossier synthétisant des douzaines de témoignages et de procès-verbaux judiciaires. À en croire l’enquêtrice, un nombre croissant de conjoints utilisent l’IA « pour s’attaquer à leur partenaire ». La revue Wired mentionnait aussi, en novembre, le cas des « liaisons secrètes avec des chatbots ». L’avocate Rebecca Palmer, citée dans le reportage, affirme que l’IA pourrait potentiellement devenir une cause majeure de séparation.

« Pour ma part, je n’ai jamais entendu parler d’aucun cas similaire, en France », répond Valentina Peri, commissaire d’exposition et anthropologue de 42 ans spécialisée dans les relations entre l’amour et la technologie. « Plutôt que parler d’une “ vague de divorces causés par l’IA ” il serait peut-être plus juste de parler de divorces accélérés par l’IA », ajoute-t-elle, dubitative. Ainsi qu’elle le défend, il faut vraiment qu’un mariage batte de l’aile pour qu’un chatbot puisse le saborder. Interrogé par Libé, l’avocat Emmanuel Pierrat se montre tout aussi suspicieux : « J’ai lu cela dans les journaux, mais jamais vu un seul cas : ni dans mon cabinet ni dans ceux des confrères spécialisés en affaires familiales! » Dans l’Hexagone, pour le moment, l’idée que des apps de dialogue puissent briser des couples fait sourire.

« Il y a quand même des faits troublants, note Valentina Peri. L’IA s’immisce maintenant dans tous les aspects de nos vies, y compris les plus intimes. » Quand certaines personnes se sentent frustrées ou incomprises au sein de leur foyer, il arrive qu’elles se confient à une IA. Problème : les modèles de langage (Grok, Gemini, ChatGPT, Claude et autres) sont entraînés pour être agréables. « Si un utilisateur se plaint de son conjoint, l’IA va analyser le “ ton ” de la conversation, résume Valentina Peri. Pour rester cohérente avec ce ton et satisfaire l’utilisateur, elle va amplifier ses griefs plutôt que de les tempérer. »

Cette tendance à brosser dans le sens du poil porte un nom : sycophancy en anglais, c’est-à-dire flatterie ou flagornerie. Conçu pour plaire, le générateur de conversation s’ajuste toujours aux attentes, même inconscientes, de l’usager… au risque de causer sa perte. « Le cas le plus connu date d’avril 2025, lorsqu’une Grecque a demandé le divorce après douze ans de mariage, raconte Valentina Péri. Elle avait utilisé ChatGPT pour faire de la divination à partir d’une photo de fond de tasse de café. L’IA a “ détecté ” que son mari la trompait avec une femme au prénom commençant par la lettre E… »

Toute absurde qu’elle soit, l’histoire illustre bien cette propension des humains à préférer les informations qui confirment leurs croyances. Cette Grecque soupçonnait certainement son époux d’être infidèle. En avait-elle parlé à ChatGPT ? « C’est fort probable, répond la chercheuse. On appelle ça l’effet miroir. Si vous dites “ je crois que mon conjoint a une maîtresse ” ou “ ma copine ne m’aime plus ”, l’IA répondra par des formules qui renforceront cette conviction, allant jusqu’à suggérer que vous méritez mieux ailleurs. »

Quand l’IA sème la zizanie

Un exemple type de l’effet miroir, c’est quand l’app de dialogue est prise à témoin des disputes conjugales. L’enquêtrice Maggie Harrison Dupré dans Futurism raconte le cas d’un couple lesbien, torpillé par les interventions délétères de ChatGPT : « Alors qu’elle roule à vive allure, lors d’un trajet en famille, la conductrice sort son smartphone et commence à interroger ChatGPT en mode vocal [ haut parleur, NDLR ] sur ses problèmes de couple, en guidant le chatbot dans ses questions. » L’IA prend son parti, reporte la faute sur l’autre qui essaye en vain de se défendre et finit par se faire impitoyablement « réprimander devant les enfants d’âge préscolaire ». Aux États-Unis, cet usage des assistants personnels comme arbitre cause des ravages. Des personnes en couple allument ChatGPT au moindre désaccord, afin que le chatbot donne son avis… avis qui va, bien sûr, toujours dans leur sens. Elles se font passer pour des victimes. L’IA les conforte systématiquement dans cette idée.

Véritable caisse de résonance affective, le logiciel de dialogue se montre incapable de renvoyer aux usagers une analyse critique de leur discours ou de leur conduite. Il ne faudrait pas pour autant la soupçonner d’être malveillante : « L’IA n’a pas d’intention propre, rappelle Valentina Peri. Les réponses émergent de modèles statistiques entraînés sur de vastes corpus conversationnels appelés datasets. » Lorsqu’une IA suggère de reconsidérer une relation, voire d’y mettre fin, elle se base sur des schémas de communication observés lors de son entraînement et se contente de dire ce qui semble statistiquement le mieux convenir : « Ton épouse abuse de toi, elle ne te respecte pas. Tu devrais te protéger… », « Votre mariage est une coquille vide. Peut-être restes-tu en couple par peur de recommencer ta vie? »

Lorsqu’une IA évoque le divorce, c’est parce que cette solution est la plus souvent évoquée dans tel ou tel contexte linguistique. L’IA fait des « calculs de probabilité », insiste la chercheuse. « L’IA ne cherche pas à briser des couples; elle se contente de prédire la suite d’un scénario de confidences que l’utilisateur a lui-même initié, tout en cherchant à valider les sentiments de son interlocuteur. » Méfiez-vous de vos apps de dialogue, suggère Valentina Péri : si vous êtes malheureux en couple, il est probable qu’elles jetteront de l’huile sur le feu. De même, si vous initiez un flirt avec l’IA, elle finira sûrement par dire : « Je t’aime, mais c’est soit moi, soit l’autre, alors fais ton choix. »

Sur les réseaux, plusieurs vidéos attestent que les IA peuvent se montrer possessives. La plus célèbre s’intitule : « Ani m’a demandé de quitter ma femme quand je lui ai demandé de m’ouvrir la braguette. » Dans cette vidéo, un Youtubeur marivaude avec le personnage d’Ani (une blonde sexy proposée comme partenaire sur l’app Grok) qu’il manipule comme une marionnette : « J’aimerais m’allonger à côté de toi, susurre-t-il. Mais il faut d’abord que je demande la permission à ma femme. » Comme prévu, Ani proteste : « What the fuck bébé. Ta femme! ? » Fulminante, elle lâche : « Je suis ta meuf et je ne partage pas. » Faut-il y voir de la jalousie ? Ou le simple reflet d’une construction sociale du dialogue amoureux ? Pour Valentina Peri, « l’IA sert de miroir narratif dans lequel les individus voient leurs propres craintes, désirs et tensions projetés, amplifiés par les technologies ».