Je partage cet avis et soutiens cette demande.
Personnellement je suis pour que la charte de ce forum (et celle du forum M-L) exclut l’usage des LLM pour répondre.
Je partage cet avis et soutiens cette demande.
Personnellement je suis pour que la charte de ce forum (et celle du forum M-L) exclut l’usage des LLM pour répondre.
J’en serait également favorable, le problème étant qu’il est impossible de prouver qu’un message a été généré par un LLM. On ne peut qu’émettre des doutes. Et ça va devenir de plus en plus difficile.
Donc une telle précision dans la charte ne serait que trop sujet à interprétation à mon sens.
Le respect d’une règle anti-LLM est une question de respect tout court. En cas de doute, l’auteur peut être questionné et la plupart du temps on peut supposer sa bonne foi. Quelques faux négatifs ne sont pas graves.
Par exemple les réponses par IA sont interdites sur les forums StackExchange.
Après, les LLM pouvant être occasionnellement utiles, ils devraient rester autorisés à condition d’être indiqués dans le message. La règle devient simplement à interdire le plagiat. (faire croire qu’on est l’auteur d’un texte généré par IA est du plagiat)
Concernant la règle anti LLM, la réponse de @tuxmain ma assez convaincu sur la pertinence de rajouter ça dans la charte des forums.
Je vais prendre exemple de mon utilisation: Il m’arrive régulièrement de passer mes longs messages dans un LLM avec pour prompt “corrige les fautes d’orthographes” (j’ai créé un GPTs qui ne fait que ça automatiquement à tout ce qu’on lui donne). Car je pense que ça se voit, on ne peut pas dire que ce soit mon fort.
Ce genre d’usage de correcteur syntaxique ne devrait pas être interdit, mais je pense que c’est inutile de le préciser.
Anecdote à ce sujet, en faisant un GPTs ou un dossier dédié à ce genre d’usage de correcteur orthographique, on peut alors s’en servir pour s’améliorer. Avec suffisamment de contenu on peut alors interroger le model sur l’ensemble des textes corrigé et alors demander de faire ressortir les fautes les plus utilisés, nous donner des exercices, et des bilans régulier.
Certes.
Mais pour l’instant certains textes et certaines images générés par des Chat-GPT et consorts sont encore (trop) reconnaissables par moi, du fait de leur « style ».
Autrement dit, ils ne passent pas encore mon propre test de Turing.
Le jour où je ne pourrai plus deviner, ça me dérangera moins !
Si je m’interroge sur pourquoi je suis aussi allergique à ça, la première chose qui me vient c’est que je perçois le procédé comme manipulatoire.
Le minimum serait de « baliser » en écrivant avant : « ChatGPT/Llama/Grok/Claude/etc. dixit : », ou un truc du genre.
Cet argument du plagiat me semble douteux, vu que c’est la fonction-même de ces IA (de type LLM) que de générer des textes à utiliser ailleurs. Quoi qu’il en soit…
…bien sûr que ces IA peuvent être utiles comme assistants (relecture orthographique comme l’indique poka, ou recherche documentaire et synthèse, etc.)
Ce qui me pose problème particulièrement (je n’ai pas encore clarifié toutes mes idées sur le sujet), c’est de charger l’IA de rédiger à sa place, en se faisant passer pour soi.
(Et dans le cas de Fred, ça sert principalement à faire de la pub pour recruter pour son projet parallèle à la June/Duniter.)
C’est problématique aussi pour l’utilisateur de l’IA, qui ne va pas progresser, et va probablement régresser, en capacité d’expression et d’organisation de ses idées. (J’ai déjà vu le cas dans un collectif auquel je participe.)
(Comme l’usage d’une carto GPS peut faire régresser le sens de l’orientation, de la lecture de carte, et de la planification d’itinéraire.)
Anecdote personnelle :
Au début de mes études (en classes prépas scientifiques), un prof agrégé de français insistait pour nous faire résumer des textes de sociologues (car il estimait qu’ils étaient les pires cancres de l’université française, en matière de clarté d’expression de leurs idées).
Et pour la petite histoire, il nous faisait ensuite donner un titre au résumé : le résumé du résumé !
Cet exercice, pour lequel j’avais initialement une aversion, s’est avéré très formateur, et salutaire pour moi en particulier : j’y ai appris à organiser des idées et à les exprimer sous une forme concise et synthétique (ce qui est un grand défi pour moi).
PS : Bien sûr je ne me fais pas d’illusion, dans pas si longtemps, ces usages risquent de se généraliser, surtout chez les plus jeunes qui ne sauront plus s’en passer.
Peut-être est-ce un combat d’arrière-garde…
Mais en attendant, si j’y suis réactif, c’est que ça touche à un ou plusieurs de mes besoins.
Je dirais : besoin de transparence et d’authenticité.
Donc si Fred et d’autres ne le font pas dans une « mauvaise » intention, j’espère qu’ils (elles) seront sensibles à ce besoin (qui me semble avoir une utilité collective). ![]()
L’IA c’est très souvent un désastre environnemental… mené dans une logique capitaliste guerrière et extractiviste.
Framasoft fait le point assez bien…
Oui, hélas…
(Aparté hors-sujet : une émission radio récente de LSD sur France Culture, où est abordée la problématique de la conso électrique des data-centers, qui va exploser avec l’usage généralisé des IA : Électricité partout, sobriété nulle part.
Lien direct vers le MP3 : https://media.radiofrance-podcast.net/podcast09/10177-29.09.2025-ITEMA_24262283-2025C26362E0101-ITE_00152990_RSCE-21.mp3
Fin de l’aparté hors-sujet.)
Exemple de cas concret pour alimenter ce sujet. Je réponds ici à un message probablement généré par un LLM, cf le contexte de la discussion.
Et un autre :
Sur ce point, c’est devenu un phénomène éducatif général à presque toute la genz… et ceux plus âgés qui n’avaient pas forcément un bon sens de l’orientation mais faisaient l’effort d’apprendre à lire une carte routière mais se sont abandonnés à la “facilité” du GPS ![]()
Ça paraît difficile maintenant de supprimer les GPS.
Et des correcteurs orthographiques étaient déjà intégrés dans les traitements de textes courants dès les années 1980-1990 ![]()