
Raphaël Godard apparaît en photo de profil, bras sculptés, et se présente comme « coach sportif » : sa bio promet du concret — « Fort de plusieurs années d’expérience dans le domaine du fitness et du bien‑être, il va vous accompagner vers l’atteinte de vos objectifs personnels. » À lire ses articles, notamment « le meilleur exercice de squat pour maigrir » ou « exercices à éviter pendant la grossesse », rien ne trahit l’artifice, et pourtant la vérité est plus simple et plus troublante.
En réalité, ces profils sont des façades : Raphaël Godard et Nina Rousselot n'ont jamais existé. Les biographies, les photos et les conseils qui accompagnent leurs textes ont été fabriqués, et l’illusion fonctionne suffisamment bien pour convaincre un lecteur pressé ou peu méfiant.
Les contenus en question sont publiés sur Prisma Media, et plus précisément sur sa marque dédiée au rééquilibrage alimentaire, Croq. Sur ces pages, les textes, les portraits et même les recommandations nutritionnelles sont générés par des outils d’intelligence artificielle, puis diffusés comme si un auteur réel les avait signés.
Le groupe a été racheté en 2021 par Vincent Bolloré, et depuis, l’usage de l’IA dans certaines rédactions s’est nettement accéléré en 2024. Cette évolution s’est accompagnée d’un basculement éditorial : les articles sont calibrés pour capter des requêtes et nourrir des algorithmes, plus que pour accompagner des lecteurs dans leurs démarches.
Le résultat est familier : des articles millimétrés, conçus pour répondre à des questions pratiques et grimper dans les classements de recherche, mais qui manquent souvent de profondeur et de contextualisation. Ainsi, ce qui ressemble à un guide fiable se révèle parfois n’être qu’un script optimisé pour le référencement.
La question dépasse la simple technique. Lorsque des visages crédibles et des noms rassurants se substituent à des journalistes ou à de vrais experts, le lien de confiance se fissure, et c’est là que le risque devient concret : des conseils — même anodins en apparence — influencent des comportements, parfois des décisions de santé.
Substituer l’intelligence artificielle sans transparence revient à tromper le public. En effet, masquer l’usage d’outils automatisés derrière des biographies fictives transforme un gain d’efficacité en problème d’éthique, et oblige désormais le lecteur à deviner qui a réellement écrit l’article.
Il reste vrai que les outils automatisés peuvent apporter des gains utiles aux rédactions ; néanmoins, les dissimuler sous des profils inventés change la nature même de l’information. De ce point de vue, la transparence autour de l’usage de l’IA n’est pas un détail formel mais une condition de la relation de confiance entre médias et public.
Pour le lecteur, la découverte est brutale : on croyait trouver un coach, on tombe sur un algorithme. Cette prise de conscience invite à plus de vigilance, et pousse aussi les médias à repenser leurs pratiques pour que l’efficacité technologique ne se fasse pas au prix de la vérité.