
Ils sont devenus la bête noire des professeurs, correcteurs et éditeurs : des textes qui sentent l’intelligence artificielle — ou du moins, qu’on croit l’avoir dénichée. Résultat : détecteurs spécialisés fleurissent, mais leur efficacité laisse à désirer.
Ari Kouts, consultant en innovation et spécialiste de l’IA, prévient sans détour : « La plupart de ces outils ne fonctionnent pas. »
Ari Kouts affirme que la plupart des outils de détection « ne fonctionnent pas ».
La romancière Rie Kudan a expliqué qu'environ 5 % de son roman primé avait été généré par ChatGPT.
Pourquoi tant d’erreurs ? Parce que les grands modèles de langage apprennent sur des textes humains. Dans leurs tests, certains détecteurs ont même pris des passages de la Bible pour des productions d’IA — preuve que la ressemblance est parfois totale. Pour un enseignant, recommande Kouts, mieux vaut commencer par la méthode la plus simple et la plus fiable : comparer le travail rendu au style et aux performances antérieures de l’étudiant plutôt que de s’en remettre aveuglément à un logiciel.
Si l’on veut repérer un texte produit par une IA sans machine, il existe pourtant des indices récurrents. Le plus visible est typographique : le tiret cadratin, très prisé des modèles entraînés sur l’anglais, apparaît souvent là où un Français aurait préféré la virgule ou la parenthèse. Beaucoup ont d’ailleurs cessé de l’utiliser, de peur d’être pris pour des robots. Autre signal : une omniprésence de majuscules — des titres entièrement en capitales ou des mises en majuscules après deux-points — et des emprunts à l’anglo-saxon, comme l’absence d’espace avant un point d’exclamation ou d’interrogation.
Les indices vont au-delà de la ponctuation. Les IA aiment les rythmes ternaires — trois adjectifs à la suite, trois exemples, trois petites phrases juxtaposées — et les structures hyper-équilibrées : une architecture qui va du point A au point B avec des sous-sections nettes et des paragraphes d’égale taille. Les transitions sont lisses et standardisées : « cependant », « par ailleurs », « en outre », « comme nous l’avons vu ». Le rendu peut sembler efficient, mais aussi un peu mécanique, avec des mots forts plaqués là pour donner de l’épaisseur — « crucial », « complexe », « plongée ».
Tout cela n’autorise pas pour autant la diabolisation de l’IA. Kouts rappelle l’affaire japonaise : Rie Kudan, lauréate du prix Akutagawa, a admis avoir intégré des phrases créées par ChatGPT, puis retravaillées. La question à se poser n’est pas seulement technique : elle est culturelle. Si un public aime un roman partiellement co-écrit par une IA, en quoi cela poserait-il problème ?
La réponse implique notre rapport à la créativité et aux formes dominantes de production littéraire. Au final, la meilleure défense contre la triche automatisée reste humaine : vigilance stylistique, connaissance du parcours de l’auteur et sens critique pour distinguer la fluidité fabriquée de la voix authentique. Les outils peuvent aider, mais ils ne remplacent pas l’œil expérimenté.