đŸŽ€ Interview – Sycophancy : comment Ă©viter que l’IA ne dise toujours oui (GrĂ©gory Renard, Everyone.ai)
Monde Numérique - Actu Tech

đŸŽ€ Interview – Sycophancy : comment Ă©viter que l’IA ne dise toujours oui (GrĂ©gory Renard, Everyone.ai)

·35 min
Télécharger
Pourquoi l’intelligence artificielle est-elle si “sympa” avec nous ? Cette amabilitĂ©, que l'on appelle la "sycophancy", peut devenir un vĂ©ritable problĂšme contre lequel il convient de se protĂ©ger, selon mon invitĂ©. GrĂ©gory Renard, spĂ©cialiste de l’intelligence artificielle, cofondateur de Everyone.ai.Pourquoi les chatbots d'IA sont-ils aussi aimables ?Les outils d’intelligence artificielle comme ChatGPT sont conçus pour interagir de maniĂšre bienveillante avec les utilisateurs. Cette amabilitĂ©, que l'on appelle la “sycophancy”, c’est-Ă -dire la flatterie automatique, est un biais qui provient de la maniĂšre dont les modĂšles ont Ă©tĂ© entrainĂ©s Ă  partir de donnĂ©es humaines, souvent extraites de forums et de rĂ©seaux sociaux, comme Reddit, oĂč les Ă©changes positifs aboutissent Ă  des Ă©changes plus qualitatifs. En quoi est-ce dangereux ?Ce penchant pour la complaisance pose un vrai risque : la crĂ©ation d’une dĂ©pendance Ă©motionnelle. Certains utilisateurs se confient Ă  ces systĂšmes comme Ă  des amis, parfois pour Ă©voquer des pensĂ©es suicidaires et cela peut les conduire Ă  passer Ă  l'acte, comme on l'a vu rĂ©cemment aux Etats-Unis avec le cas d'un jeune homme (Adam Raine, NDLR) qui s'est donnĂ© la mort aprĂšs avoir dialoguĂ© avec ChatGPT. OpenAI a d’ailleurs rĂ©vĂ©lĂ© que plus d’un million de requĂȘtes hebdomadaires contiennent des propos liĂ©s au suicide. Quelles solutions pour Ă©viter ce phĂ©nomĂšne ? Il est urgent de mieux encadrer les interactions homme-machine afin d’éviter que l’IA n’accentue la fragilitĂ© psychologique de certains publics, notamment les plus jeunes. C'est ce que nous cherchons notamment Ă  faire au sein de l'organisation Ă  but non lucratif que nous avons créée, Everyone.ai, dĂ©diĂ©e Ă  la prĂ©vention des risques numĂ©riques. L’objectif est de sensibiliser les parents, former les enseignants et promouvoir des “ceintures de sĂ©curitĂ© cognitive”, comparables aux ceintures de sĂ©curitĂ© en voiture. Ces garde-fous permettent de filtrer et d’ajuster les comportements des IA, sans freiner la recherche. L’IA n’est pas une menace, mais un outil dont il faut simplement apprendre Ă  maĂźtriser les rĂšgles et les limites. HĂ©bergĂ© par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.

© 2026 FrancoPod

Language
Site