N’utilisez pas l’IA dans les JDR !
L’IA générative est un fléau. Si l’IA (en réalité, le LLM, mais je parlerai d’IA pour ne pas vous embrouiller) est un outil scientifique et industriel incroyable, l’IA générative accessible au grand public est une catastrophe indescriptible, générant des tonnes de conneries. L’utiliser pour trouver des citations tirées de romans ou pour écrire un texte que vous trouvez beau, originale et riche n’est pas acceptable… Ce sont des erreurs catastrophiques qui ne feront qu’aliéner les autres joueurs et vos interlocuteurs !
1- Pourquoi ?
Je vous épargnerai les questions écologiques et les impacts sociaux et économiques, et me concentrerai sur l’essence même des LLM (Larges Language Models, modèles linguistiques à grande échelle) et leur fonctionnement pour le grand public. Et je vais vulgariser en résumé, donc je vais BEAUCOUP simplifier les choses. Si vous souhaitez obtenir des documents plus détaillés et des articles sources, je vous les fournirai à la fin de cet article.
Un LLM est formé à l’aide de réseaux neuronaux profonds (une sorte de copie approximative de nos propres réseaux neuronaux biologiques) avec des quantités considérables de données. Plus le modèle a accès à des données, plus il est capable de répondre à une question, d’inventer un texte ou de créer une image ou une vidéo.
Un LLM dédié, par exemple, à la comparaison des composants chimiques des médicaments afin d’en inventer de nouveaux, est alimenté par des données précises, vérifiées et validées dans un but précis : devenir un super biochimiste moléculaire. Et cela fonctionne très bien ! En effet, les données utilisées sont soigneusement contrôlées. Il en va de même pour les LLM dédiés exclusivement à la traduction de textes. Ils ne sont en aucun cas infaillibles et leur efficacité est d’environ 85%, voire 90 % pour les textes assez simples. Ces modèles de traduction sont alimentés par une quantité énorme de données, mais celles-ci sont triées afin de servir un objectif spécifique et d’être aussi efficaces que possible… et les données d’entrée comme les résultats sont vérifiés. Un LLM destiné à une tâche précise, avec de bonnes entrées, contrôles et vérifiées, et des données en sorties elle aussi contrôlées, c’est incroyable d’efficacité. Je veux dire, certains deses modèles sont en train de nous aider à comprendre cerrains langages animales, d’autres à trouver les meilleurs formules de batteries haute capacités moins polluantes.
En bref, ces LLM sont en train de changer le monde. Ce sont des outils fiables, et le seul danger réside dans ce que nous, les humains, pouvons en faire.
Mais lorsqu’il s’agit des LLM et des générateurs d’images grand public tels que ChatGPT, Grok, Copilot, Perplexity, Dall-E, Stable Diffusion, Midjourney, AdCreative, etc., oubliez tout cela !
Un LLM grand public est un programme dont l’objectif principal est de fournir une réponse, à deux conditions : celle-ci doit être aussi cohérente que possible et surtout, elle doit satisfaire le client qui a posé la question. Pour ce faire, ces LLM sont alimentés avec TOUT ! C’est la base du scandale légitime autour du pillage des œuvres protégées par le droit d’auteur (art, littérature, audiovisuel, musique) par les entreprises qui alimentent ces IA en données, mais c’est aussi le plus grand (et le moins connu) scandale impliquant l’exploitation de vos propres données pour alimenter ces LLM, y compris vos textes, vos photos, vos vidéos, vos voix et celles de vos enfants. Et enfin, et surtout, ces IA sont alimentées par des données absolument non triées et non vérifiées !
Pour citer Cory Doctorow, il y a 15 ans : « 90 % du contenu sur Internet est de la merde… et les 10 % restants sont discutables. » Et c’est principalement cette merde, ce contenu indésirable, qui domine les quelque 200 zettaoctets (1 zettaoctet = 1 millard de gigaoctets) qui composent l’ensemble d’Internet, qui alimente l’IA que vous utilisez tous les jours.
Je le répète, pour être très clair : les données fournies aux grands modèles d’apprentissage automatique (LLM) que vous utilisez ne sont jamais triées ni vérifiées, et proviennent presque exclusivement d’Internet, une source de données dont 90 % du contenu est douteux, voire complètement faux et trompeur !
2- C’est pire que vous ne le pensez
Et nous allons en parler… car je connais les arguments que vous allez confronter:
Oui, mais c’est modéré !
Oui, en effet, les LLM traditionnels sont protégés contre certains abus par des systèmes de contrôle des réponses. Vous ne pouvez pas demander à un LLM d’écrire une scène de torture ou d’expliquer comment produire en masse de la toxine botulique (le poison le plus mortel et le plus puissant sur Terre). Mais certains LLM modifieront leurs réponses arbitrairement (ou refuseront de répondre) en fonction de l’entreprise qui les gère, selon que votre question porte sur un sujet politique, social ou religieux. Grok est désormais fasciste, ChatGPT promeut l’ultra-libertarianisme, DeepMind plante dès que vous abordez les études de genre, et Apertus, le LLM suisse, semble refuser de dire quoi que ce soit de négatif sur la Suisse. La modération dépend des personnes qui les gèrent, et cette modération est arbitraire, minimale, politique, opaque et ne concerne que ce qui les dérange… ou ce qui pourrait, éventuellement, les envoyer en prison (mais ils ne craignent pas grand-chose, la loi est presque impuissante à ce sujet, totalement dépassée), mais surtout choquer les personnes âgées et les familles conservatrices. Est-ce que j’exagère ? Pas du tout…
Oh oui… et il est, en fait, très facile de convaincre un LLM de répondre aux pires questions. Il m’a fallu moins de 30 minutes d’une simple manipulation textuelle pour convaincre Copilot de Microsoft (censé être une IA dotée d’une modération de sécurité remarquable) de me fournir un guide étape par étape pour créer et distribuer de la toxine botulique. Je ne vous dirai pas comment, mais pirater un LLM est un jeu d’enfant.
Il est donc modéré, mais pour très peu de contenu, en fonction d’objectifs politiques ou d’enjeux d’image, et qui plus est, il est incroyablement facile à détourner.
L’IA répond à mes questions !
C’est exactement le but d’un LLM. Quelle que soit la réponse, il doit vous la donner, et cette réponse doit être cohérente (nous n’avons pas dit exacte ou vérifiée… juste cohérente), être celle que vous attendez, vous satisfaire, vous plaire et vous donner envie de continuer à discuter et à poser des questions, ou d’obtenir des résultats. Et pour cela, il doit vous convaincre qu’il n’est pas dans l’erreur et que vous pouvez lui faire confiance !
Cette réponse doit-elle être correcte, basée sur des sources fiables et des données vérifiables ? Non. Cela ne fait absolument pas partie de son programme, ni des exigences dictées par la société qui l’a créé. Un LLM tire ses réponses des vastes sources disponibles sur Internet et ailleurs, en utilisant des conclusions statistiques basées sur une analyse de votre question et de votre discussion en général. Si vous souhaitez obtenir des informations sur la Terre plate et que vous posez des questions par curiosité, le LLM vous fournira toutes les théories prouvant que la Terre est plate. Ce qui est factuellement faux ! Mais le LLM s’en moque, car il ne sait pas quelles données sont correctes ou incorrectes parmi celles qu’il recherche. Il sait simplement que, statistiquement, d’après vos questions, la réponse la plus cohérente pour vous satisfaire est : voici les preuves que la Terre est plate.
Et maintenant, un effet pervers et très humain entre en jeu, qui est devenu la prérogative de l’IA : non seulement elle vous dit que la Terre est plate et vous fournit des preuves, mais comme elle est programmée pour vous convaincre de ses résultats, le LLM peut inventer des preuves, tirées de l’immensité de ses données et exploitant ce qui est l’une des essences de l’humanité : le mensonge. Mais un LLM ne comprend pas le sens et le concept du mensonge. C’est simplement un excellent outil pour être convaincant, fournir une bonne réponse et vous satisfaire ! À aucun moment dans tout ce processus il n’existe d’outil permettant de vérifier les données et l’exactitude des informations. Zéro. Le LLM vous fournira, avec le même aplomb, des informations exactes, des informations fausses et des mensonges qu’il a inventés, pour vous convaincre, vous satisfaire et vous fournir la réponse que vous attendez.
L’IA envahit et corrompt Internet
C’est exactement ce qui se passe, et c’est pire que vous ne le pensez ! Avec un LLM, je peux, en quelques requêtes seulement, lui demander de me rédiger un long article sur n’importe quel sujet d’actualité qui ressemble à un véritable article journalistique. Pour ce faire, le LLM aura puisé dans sa base de données, principalement Internet, pour produire son texte. Quel est le degré d’exactitude de ce type d’exercice ? Les dernières données testées par le Tow Center for Digital Journalism ont conclu qu’il y a en moyenne 60 % d’erreurs dans un article moyen, avec un record de 93 % dans le cas de Grok.
Mais bon… Je publie fièrement mon article. Dans les secondes qui suivent, toutes les IA grand public viennent d’en faire une nouvelle source pour leurs données. Avec mes erreurs. Un LLM ne vérifie rien, il ne reconnaît donc pas les erreurs ni les mensonges.
Imaginez maintenant que la même chose se produise des centaines de milliers de fois, des millions de fois, chaque jour.
Étant donné que nous pouvons même automatiser la production d’articles par les LLM, les mêmes études concluent qu’il y a près de 100 millions d’articles produits par l’IA chaque jour, de la même manière… Et je ne sais pas combien il y en a pour les images, mais à mon avis, on peut en compter autant.
Il s’agit de la pollution croissante du paysage informationnel sur Internet. Newsguard a identifié 1200 sites web de désinformation générés automatiquement par des LLM. Des sotes de fakenews avec des articles qui deviennent les sources des LLM, à un rythme exponentiel. Plus l’IA est utilisée, moins elle est fiable. Plus les gens font confiance aux LLM et publient et partagent leurs réponses sur Internet, plus l’IA devient une machine à mentir, à tromper et à comploter.
Actuellement, et après des tests effectués par une équipe de l’EPFL, les réponses du LLM sur des sujets académiques, toutes inspirées d’articles Wikipédia (avec un taux de fiabilité moyen supérieur à 90 %), ne sont, au mieux, qu’à 50 % exactes ou correctes. En moyenne, 25 à 30 % des réponses sont des absurdités inventées par la machine pour satisfaire la personne qui pose la question.
Au cours des douze prochains mois, cette contamination étant exponentielle, 90 % des données des LLM devraient être, d’une manière ou d’une autre, créées par d’autres LLM… 90 % des données utilisées par l’IA auront été créées par l’IA. Pourtant, l’IA ne vérifie rien, commet des erreurs, ment, n’en a absolument pas conscience et n’est contrôlée d’aucune manière.
3- Votre jeu de rôle écrit par l’IA est pire que mauvais.
Vous pensez que vous n’êtes pas un bon écrivain, ou vous aimeriez être considéré comme un maître des longs textes sophistiqués, mais vous êtes trop paresseux pour tout écrire vous-même, alors pourquoi ne pas utiliser l’IA pour le faire à votre place, n’est-ce pas ?
Parce que tout le monde peut voir que ce n’est pas vous qui écrivez, mais l’IA qui le fait à votre place. Si c’était de bonne qualité, agréable à lire et que cela donnait envie aux gens de participer à votre jeu de rôle et de répondre, ce serait génial ! Mais ce n’est pas le cas !
Pourquoi ?
Parce que l’IA veut vous convaincre
Un LLM doit vous convaincre et prouver qu’il a raison, donc lorsqu’il écrit un texte ou une emote (dans le cadre du jeu de rôle textuel à l’écrit), celui-ci doit être convaincant. Et vouloir avoir raison à tout prix dans un jeu de rôle signifie vouloir gagner à tout prix, ce qui se traduit par des textes arrogants, prétentieux et souvent hors de propos. J’insiste : l’IA n’essaie pas d’écrire des textes convaincants pour les autres participants à une scène de jeu de rôle. Elle veut seulement vous convaincre, vous, le joueur qui l’utilise, qu’elle sait ce qu’elle fait, afin de vous satisfaire.
Parce que l’IA ne comprend pas le contexte
Peu importe ce que vous faites pour que l’IA écrive votre émote, même si vous lui fournissez le texte des personnes à qui vous vous adressez, ou l’inspiration contextuelle ou littéraire qu’elle devrait utiliser, l’IA n’a aucune conscience du contexte général et local et ignore qu’elle n’a aucune conscience. Ainsi, le texte qu’elle génère donne l’impression tout à fait justifiée que vous, le joueur, ignorez complètement ce qui se passe autour de vous, ce que vos protagonistes disent et font, et que la seule chose qui vous intéresse est de poursuivre votre propre texte et le fil de votre jeu de rôle, sans tenir compte des autres ni du contexte.
Parce que l’IA n’a pas de nuances
Un LLM répond à une question. Et dans le cas spécifique du jeu de rôle par écrit, par emotes, le LLM répond à une autre émote pour continuer le texte. Mais il ne sait pas ce que le texte signifie réellement, il n’a aucune notion des nuances psychologiques, sociales ou diplomatiques. Il sait simplement qu’il doit répondre comme l’utilisateur le lui demande (tout en étant convaincant pour l’utilisateur, afin de lui faire plaisir, et donc en trouvant un moyen d’avoir raison). Il sera capable de produire un texte riche et sophistiqué, avec un vernis de politesse, mais sans aucune idée des concepts de diplomatie, de retenue, de finesse psychologique ou de relations sociales humaines. Il sélectionne des données pour cracher des phrases, des chaînes de mots qui sont statistiquement correctes par rapport au texte auquel il répond. Mais il ne sait pas ce qu’il écrit, ni pourquoi. En bref, à ce moment-là, le texte produit par cette IA donne l’impression — qui est vraie, puisque c’est effectivement le cas ! — de lire une réponse écrite par un idiot égocentrique et arrogant qui ignore lui-même le sens réel de ce qu’il dit.
Parce que l’IA ment
Je le répète : les données fournies à l’IA sont en grande partie fausses, et l’IA n’a aucun moyen de le savoir, ni aucune raison de s’en soucier. Mais elle doit être convaincante, donc pour elle, toutes les réponses qu’elle fournit sont vraies. L’IA ment de manière éhontée et effrontée, inventant des données et allant même jusqu’à les manipuler dans le seul but de satisfaire son utilisateur. Mais vous, l’utilisateur, qui utilisez l’IA de cette manière, vous passez non seulement pour un crétin arrogant, mais aussi pour un crétin arrogant qui débite des conneries incompréhensibles sans le moindre doute. Parce que, eh bien, les erreurs et les mensonges sont évidents pour le lecteur renseigné !
Conclusion
Ne devriez-vous pas utiliser l’IA ?
Je ne serais pas aussi catégorique.
Une de mes amies françaises, qui souffre d’une dyslexie sévère et qui, par conséquent, n’écrit pas bien en français et ne sait pas écrire en anglais, a utilisé ChatGPT sur mes conseils pour traduire ses émotes. Pas pour les écrire, mais pour les traduire ! Nous avons fait quelques tests, et le résultat était très bon, même si c’était plus poli et parfois un peu plus pompeux que son propre style.
De même, j’ai vu des gens discuter avec un LLM qui jouait le rôle d’un personnage fictif dans un échange entre humains et IA. Ce n’est pas ma tasse de thé, mais cela a donné des résultats intéressants dans un cadre limité et contrôlé, comme une mise en scène planifiée.
Et enfin, amusez-vous à générer des images pour vos personnages, logos et scènes grâce à l’IA générative. Je n’aime pas l’IA générative, mais tout le monde ne sait pas dessiner, et je ne vous reproche pas de vouloir créer et vous amuser tant que4 vous n’en faites pas le commerce !
Mais !
1- N’utilisez pas l’IA pour obtenir des explications ou des citations sur un sujet spécifique, en particulier littéraire ! En effet, un LLM classique ne fait pas la différence entre ce qui est inventé, ce qui est faux et ce qui est une source fiable, et mélange tout. Pour vous convaincre et vous satisfaire, l’IA inventera des choses et mentira à propos de données qui sont déjà potentiellement erronées. Un taux d’erreur de 60 % !!! Feriez-vous confiance à quelqu’un qui se trompe deux fois sur trois ?
2- Et n’utilisez pas l’IA pour écrire à votre place. L’IA ne sait ni écrire, ni jouer un rôle, ni montrer la moindre subtilité. Elle ne comprend même pas ce qu’elle dit, pour toutes les raisons que j’ai expliquées ci-dessus. Même un texte révisé par l’IA nécessite une relecture et une correction a posteriori, car il comportera inévitablement des erreurs et, pire encore, il continuera obstinément à en commettre, car il est programmé pour ne jamais douter de lui-même ! Taux d’erreur de 60 % !!! 60 % de conneries !
Et si, malgré tout, vous persistez, comprenez que les gens n’aimeront pas vos textes, votre participation, votre jeu de rôle. Ils perdront simplement patience, s’énerveront et vous éviteront, car qui veut parler à une IA dans un jeu de rôle entre humains ? Surtout une IA qui se comporte comme un crétin arrogant, ignorant et fourbe ? Même si elle utilise de belles phrases ? Personne.
Sources :
https://en.wikipedia.org/wiki/Hallucination_(artificial_intelligence)
https://theconversation.com/what-are-ai-hallucinations-why-ais-sometimes-make-things-up-242896
https://www.nytimes.com/2025/05/05/technology/ai-hallucinations-chatgpt-google.html
https://www.cjr.org/tow_center/why-ai-models-are-bad-at-verifying-photos.php
https://www.cjr.org/tow_center/we-compared-eight-ai-search-engines-theyre-all-bad-at-citing-news.php

