Atelier IA - La Correction automatique

Alexia Schneider et Clara Grometto

2025-10-09

Plan de l’atelier

Théorie :

  1. Rappels sur les fondements de l’IA
  2. Mise en perspective
  3. Définition et présentation historico-technique des systèmes de GEC
  4. Enjeux/conséquence
  5. Présentation de certains outils
  6. Conclusion/ce qu’il faut retenir

Introduction

Présentation et objectif des ateliers

Format : 4 séances de 2 heures, sans inscription, participation libre (à justifier pour le certificat des Humanités Numériques)

Théorie et pratique.

Objectifs de la série d’atelier :

  • Comprendre les fondamentaux de l’IA et son histoire
  • Obtenir des notions critiques sur le fonctionnement profond des outils
  • Tester et s’approprier des outils d’IA
  • Maîtriser le vocabulaire de la discipline

Objectifs de cet atelier :

  • Cerner un cas d’usage courant des IA génératives : la correction ortho-typographique.
  • Contextualiser la correction (automatique)
  • S’interroger sur l’impact de ces nouvelles pratiques dans le travail de recherche.
  • Définir des critères pour effectuer un choix éclairé vis-à-vis des outils disponibles.

Certificat canadien en Humanités Numériques

Certificat canadien en HN

Certificat canadien en HN Certificat canadien en HN

Information sur le certificat

IA et révision

En quoi les outils d’aide à la rédaction basés sur l’IA transforme-t-ils le rapport des chercheur·euses à leur texte, au processus d’écriture et aux ?

Nous aborderons :

  • l’histoire et la pratique de la correction,
  • le basculement technique (du savoir-faire de l’ortho-typo à la reformulation automatisée),
  • les enjeux épistémologiques (déprise du texte),
  • et les enjeux sociolinguistiques.

Les fondamentaux : rappels de l’introduction

Qu’est ce que l’IA ?

Des programmes informatiques que nous estimons à la hauteur de l’intelligence humaine ? Le développement des technologies fait évoluer cette définition de l’intelligence non seulement artificielle mais aussi humaine.

‘IA’ depuis 5 ans, a remplacé le ‘numérique’ des années 2010, et le ‘cyberespace’ des années 1990 et 2000.(Vitali-Rosati 2025).

Définition pratique pour ces ateliers: “un programme informatique qui effectue une prédiction.”

Rappels de l’introduction

  • Les programmes d’IA réfèrent à des processus algorithmiques variés et pas seulement à des chatbots type ChatGPT.
  • L’IA n’est pas une nouvelle discipline (terme de 1956 lors de la Dartmouth Summer Research Project on Artificial Intelligence par Marvin Minsky et John McCarthy).
  • L’article Computing Machinery and Intelligence de Turing (1950) a orienté la discipline vers un modèle ‘chatbot’.
  • Les ‘saisons de l’IA’ suivent des phases d’approbation publique et de désintérêt pour le terme et les technologies associées.
  • Ce qu’on fait entrer dans la catégorie d’“intelligent” a changé : le calcul savant est-il moins intelligent que le bavardage ?

Rappels historiques sur l’IA

  • Deux grandes approches en IA : une approche déductive (IA symbolique, système expert) vs. approche inductive (IA connexionniste, modèle de langue basé sur des plongements de mots ou embeddings = vecteurs).
  • Un système expert peut être aussi complexe et énergivore qu’un LLM.
  • Un LLM (large language model) est la modélisation sous forme de vecteurs de chaque élément d’un grand corpus (token ~mot) par rapport à cet ensemble.

Démo visuelle

Les LLMs en contexte

  • Pour les LLMs, la ‘compréhension’ du monde n’est basée sur aucun référent ou aucune règle définie : les réponses sont probabilistes, elles sont donc plausibles et convaincantes parce qu’elles donnent plus de chance à des tournures de phrases courantes dans leur jeu d’entraînement.
  • Les hallucinations ne sont pas des anomalies, ce sont des erreurs que l’on qualifie a posteriori comme telle.
  • Après l’apprentissage de son corpus d’entrainement, une étape de reinforcement learning donne une saveur ou personnalité à un modèle.
  • Les LLMs reflètent les intérêts économiques des concepteurices des applications qui les intègrent : nature ‘sycophantique’ avérée.
  • On peut influencer le calcul de probabilité d’un modèle (température, top-k, seed) et donc sa personnalité (déterministe vs. créatif).
  • On peut aussi ‘orienter’ le comportement d’un modèle avec un system prompt sans modifier les embeddings ou l’algorithme de prédiction.
  • Chatbots = interfaces en langue naturelle : l’exploitation des capacités inductives d’un LLMs ne nécessite pas de passer par une telle interface. Ex : classification avec de l’apprentissage machine (machine learning).

Mise en perspective

C’est quoi la correction / révision ?

Historique technique des outils

Essayons de définir…

D’après le TLFi → CORRECTEUR, TRICE, subst. et adj.

Homme, femme qui s’arroge ou à qui est dévolu le rôle de corriger des défauts, de rectifier des erreurs sans pour autant infliger de punition corporelle.

TYPOGR. Ouvrier spécialisé qui, dans une imprimerie, est chargé de lire et de corriger les épreuves. Les correcteurs ont deux maladies, les majuscules et les virgules, deux détails qui défigurent ou coupent le vers (HUGO, Corresp., 1859, p. 298).

Rem. 1. a) D’après la fonction, on distingue du correcteur qui révise les épreuves d’un journal le correcteur de labeur qui révise celles d’un ouvrage. b) D’après la hiérarchie on distingue les correcteurs en première (première épreuve), les correcteurs en second (ou en bon à tirer), les correcteurs en tierce (après la mise sous presse). 2. “Le correcteur femme existe aussi; mais cette espèce, du reste très rare”, travaille non pas dans l’atelier typographique, mais “au bureau du patron ou du prote” (d’apr. BOUTMY, Typogr. paris., 1874, p. 29). Sainte-Beuve dans la salle à manger, en famille, avec son secrétaire Troubat, sa correctrice d’épreuves, sa maîtresse (GONCOURT, Journal, 1867, p. 365).

TECHNOL. [Désigne un dispositif]

B. [L’instrument (matériel) de la correction dans diverses techniques]

C. [Le résultat lui-même]

On peut relever un certain nombre de tensions

  • Entre l’homme et l’outil
  • Entre l’outil et le résultat

J’en rajoute une autre : entre deux espace-temps différents :

  • les protocoles éditoriaux établis au sein d’institutions
  • les pratiques de brouillonnages individuelles

1. La révision comme protocole éditorial

Définition donnée par le Correcteur typographe de Brossard de 1924 :

La rectification, sur le plomb, des erreurs commises par le compositeur, ainsi que l’exécution des changements apportés par l’auteur à la composition du texte primitif sont connus sous la dénomination de correction. De, manière générale, ce mot s’emploie pour désigner toute modification, quelle, qu’elle soit : ajoutés, suppressions, transpositions, changements de texte, rectifications orthographiques, rappels de règles typographiques, etc. (du texte Brossard 1924-1934)

  • Un savoir-faire qui nous vient du monde de l’imprimé
  • Passer de la copie à l’ouvrage
  • application des règles typographiques + reproduction fidèle et entière du manuscrit
  • un processus séquentiel (lecture → annotation → recomposition)
  • un processus itératif (premières, secondes épreuves, tierces)
  • un processus collectif (auteur.ice → correcteur.ice → auteur.ice → compositeur.ice)

Les auteurs ne se font point faute d’ailleurs de se prévaloir en ces circonstances de la liberté que leur accordent les usages, et l’on peut dire qu’en pratique le nombre des épreuves en placards ou en pages à fournir est illimité : suivant ses besoins, et sur sa demande, l’auteur peut recevoir successivement une première d’auteur, une deuxième, une troisième, et même plus si, d’après les corrections ou les modifications qu’il apporte au texte, il l’estime nécessaire : il est seul juge en cette matière, et généralement il ne remet le bon à mettre en pages ou, le cas échéant, le bon à tirer, que s’il répute le texte « amené à son état à peu près définitif ». (du texte Brossard 1924-1934)

Le correcteur est le chef d’orchestre de la fabrique du livre

Signes de correction ortho-typo

Les acteurs travaillent l’un après l’autre, faute après faute

La composition est un processus terriblement laborieux

La casse et la galée

Science ou artisanat ?

Une science ?

Recommandation de Ramat (2008) :

Nombre de lecture en correction

  • une lecture très rapprochée pour découvrir les fautes d’orthographe et de typographie.
  • relire le texte sans s’occuper des fautes déjà mentionnées, s’attacher au fond et non plus à la forme.
  • Vérification des pages et des notes
  • Figures et tableaux
  • Vérification des énumérations
  • Dates
  • Veiller à l’homogénéité de l’écriture inclusive
  • S’assurer que le système international d’unité est bien utilisé
  • Uniformité des abbréviations et des noms propres
  • Les capitales, les faces, la casse
  • Emploi normé de la ponctuation
  • Révision bibliographique
  • La composition et la mise en page (qu’on laisse de côté aujourd’hui)

Un travail qui relève de l’artisanat ? voire un art ?

L’inobservation des règles typographiques est, après la coquille, l’une des causes les plus fréquentes de correction : ce fait tient à l’ignorance dans laquelle trop d’ouvriers se trouvent des principes les plus élémentaires de leur art, au dédain même qu’ils affectent à leur égard, à la volonté et au désir de certains auteurs de s’affranchir des prescriptions d’un métier dont ils ne connaissent que des « bribes », à la multiplicité et aussi à un défaut de précision et de, fixité de ces prescriptions : celles-ci semblent en effet varier presque à l’infini, avec chaque région, avec chaque ville, avec chaque maison, avec chaque correcteur et, hélas! presque avec chaque labeur ; chacun ou chacune, a une marche particulière, ou un ensemble de règles typographiques qui leur est propre : dédale sans fin où se perdent même les meilleures volontés et où s’égarent les esprits les plus avertis. (du texte Brossard 1924-1934)

2. La correction au cœur de l’écriture

On peut aussi entendre révision au sens psycholinguistique => désigne une étape dans le processus scripturaire, étape liée à celle de la planification et de la textualisation.

  • la linguistique génétique ou philologie préfère le mot « variante »
  • la didactique dira « correction »
  • « retouche », « remords »
  • individuelle et multiple

La continuité révision / écriture s’incarne dans les outils.

Les outils ne se contentent plus de pointer, on est dans le paradigme de la génération de texte.

L’écriture et le numérique

Rapidité

(Derrida 2005, 24)

It’s a different kind of timing, a different rythm. First of all you correct faster and in a more or less indefinite way. Previously, after a certain number of versions (corrections, reasures, cutting and pasting, Tippex), everything came to a halt – that was enough. Not that you thought the text was perfect, but, after a certain period of metamorphosis, the process was interrupted. With the computer, everything is rapid and so easy; you get to thinking that you can go on revising forever. An interminable revision, an infinite analysis is already on the horizon […]. During this same time you no longer retain the slightest visible or objective trace of corrections made the day before.

There was a temporal resistance, a thickness in the duration of erasure.

Correcteurs orthographiques et grammaticaux

  • Facilité et rapidité de la correction ou révision
  • Développement des outils de correction // développement des traitements de texte
  • Logique de productivité

Les outils incarnent une vision du monde centrée sur la productivité et la rapidité

Histoire de la GEC

La correction d’erreur grammaticales automatique Grammar Error correction

Tâche de Traitement Automatique des Langues (TAL ou Natural Language Processing, NLP) voisine de la traduction automatique (TA ou machine translation, MT).

  1. Système expert :
  • Traduction directe “mot à mot”
  • Par transfert : correspondance syntaxique
  • Traduction interlangue : arbre syntaxique, paire de langue. Ex : Apertium (Corbı́-Bellot et al. 2005)

-> Mais limités par des grammaires complexes et des questions de pragmatique et d’idiomaticité.

  1. Systèmes inductifs ou approches data-driven : D’abord des classifieurs pour prédire le mots le plus probable dans une classe (préposition), puis statistical machine translation (SMT) dans les années 2010.

Alignement d’un corpus parallèle (fonctionne sur une paire de langue) : cooccurrences et tables de phrases. Exemple : Moses

Puis particulièrement Neural machine translation (NMT) depuis 2014 seq2seq puis Transformers (Vaswani et al. 2017)

La NMT : encodage d’un corpus dans les deux langues dans un espace vectoriel continu. Entraînement d’un modèle spécialisé pour la traduction sur des paires de phrases. Puis encodage de la phrase source et décodage dans la langue cible. Exemple : Google Traduction 2016, DeepL 2017.

Source : Wang et al. (2020); Bryant et al. (2023)

Traduction automatique et LLMs

Un grand modèle de langue positionne chaque mot dans un espace vectoriel lors de sa phase d’apprentissage initiale à partir d’un grand volume de données en langue naturelle.

Afin de donner une réponse le LLM (GPT, Mistral, Qwen, Llama etc.) situe la requête utilisateur dans son espace vectoriel et sélectionne les tokens les plus probables à partir du contexte donné (la requête utilisateur ou prompt et les tokens qu’il a déjà généré).

Les LLMs sont donc généralistes, ils ne sont pas plus destinés à la traduction qu’à la correction d’erreurs grammaticales, à l’écriture créative ou à l’écriture de code.

LLM vs NMT pour la Traduction automatique

NMT : traduction plus littérale, modèle spécialisé.

LLM : traduction plus idiomatique, tendance à la confabulation.

« Furthermore, our frequency analysis of PoS tags reveals that LLMs align more closely with HT in their usage, especially in terms of adverbs, and auxiliary verbs, while NMT models tend to overproduce specific tags in shorter sentences. This suggests that LLMs, although not perfect, are making strides in mimicking human translation patterns. » (Sizov et al. 2024)

La fin de la NMT?

« What’s more, IBM announced the deprecation of Watson Language Translator, its NMT service, encouraging users to migrate to — guess what? — WatsonX LLMs. This move establishes IBM as one of the first tech giants to sunset its NMT efforts and focus on LLMs for automated translation purposes. » (Ciesielski 2024)

Le futur de la traduction automatique

We anticipate that, soon, LLMs will become a viable enterprise solution for translation. This will likely come when we move towards task-specific LLMs trained specifically for translation. These models will be smaller and more practical to deploy and maintain than today’s massive foundational models. (Ciesielski 2024)

Les LLMs pour traduire/corriger, et pour évaluer la traduction/correction ?

Question d’évaluation

La traduction automatique : score BLEU (comparaison de la phrase traduite avec un référentiel de phrases bien traduites, score de proximité), WER (calcul du nombre de mot mal ou non traduit), METEOR etc.

En Grammar Error Correction (GEC) l’évaluation repose sur une comparaison entre la phrase source (avec erreurs) et la phrase corrigée par rapport à une phrase de référence (la ground truth ou le gold standard donnée par un humain). Cette approche demande un corpus annoté en reference.

Métriques traditionnelles de GEC

Ces mesures reposent sur l’alignement entre une hypothèse et une référence figée.

  • Edit-Based Metrics :
    • M² (MaxMatch) : On aligne les phrases corrigées par le système avec celles de référence, puis on extrait les “edits” (opérations de correction : insertion, suppression, remplacement). On calcule précision, rappel, F0.5(donc précision pondérée deux fois plus que rappel).
    • ERRANT (Error Annotation Toolkit): alignement de l’hypothèse avec la phrase source et la phrase cible et classification du type d’erreur (morphologie, orthographe, syntaxe).
  • Sentence-Based metrics:
    • GLEU (grammar-aware BLEU) : comparaison de n-grammes.

Mesure de la correction sans référence

Les métriques basées sur un corpus de référence limitent la correction a une forme seulement.

Mesure sans référence (Napoles, Sakaguchi, and Tetreault 2016): comparaison directe de la phrase source (avec erreurs) et de la phrase proposée en correction directement.

Évaluer la correction effectuée par le LLM avec un LLM c’est possible :

  • Proximité/distance : Comparaison des vecteurs de la phrase source et celles de la phrase corrigée.
  • Perplexité/log-probabilité : plus une phrase est fluide plus elle est probable (donc correcte).
  • Spécialisation d’un LLM pour l’évaluation : Machine learning sur un corpus annoté avec des scores attribué ex: SOME (Yoshimura et al. 2020)
  • LLM as judges : Large Language Models Are State-of-the-Art Evaluator for Grammatical Error Correction (Kobayashi, Mita, and Komachi 2024)

Les limites des LLMs pour la GEC

  • Les LLMs sont probabilistes : question de reproductibilité et d’interprétabilité “effet boîte noire”.
  • Fluidité et grande probabilité = grammaticalité ?
  • Favorise les langues bien dotées. Ex Bengali (Maity, Deroy, and Sarkar 2024)

Limites de l’utilisation de LLM pour évaluer d’autres LLMs : - Biais favorable du LLM pour ses propres productions (Wataoka, Takahashi, and Ri 2025) - Comment valider l’évaluateur ? L’évaluation comme la révision est un processus itératif (notion de criteria drift développé en HCI Shankar et al. (2024))

Changement de paradigme

Avant les LLMs, les outils de ‘corrections’ sont spécialisés pour la correction ortho-typographique. Maintenant les outils de correction proposent aussi :

  • Reformulation.
  • Génération de texte.
  • Masquer l’utilisation d’une IA.

Quels enjeux ?

Quelle valeur on accorde au travail de relecture et correction ?

Si écrire c’est avant tout réécrire : que signifie déléguer la (re)formulation à un LLM ?

Un gain de temps ?

Une déprise du texte ?

Homogénéisation de la langue

Mouvement de standardisation de la langue reposant sur une sur-norme « légitimée et maintenue par tout un édifice de croyances sur la nature de la langue et sur ce qui est correct ou incorrect, croyances qui sont dictées inévitablement par les valeurs sociales et esthétiques de la société concernée. » (Lodge 1993)

Effondrement du modèle après entrainement sur ses propres sorties

Perte de diversité après entraînement sur des données synthétiques
  • Un idéal de clarté qui finit par s’auto-parodier (le fameux style chatgpt)

We show that while the core content of texts is retained when LLMs polish and rewrite texts, not only do they homogenize writing styles, but they also alter stylistic elements in a way that selectively amplifies certain dominant characteristics or biases while suppressing others - emphasizing conformity over individuality. By varying LLMs, prompts, classifiers, and contexts, we show that these trends are robust and consistent. (Sourati et al. 2025)

Des compétences poussées en ingénierie de prompts sont nécessaires pour contourner les effets liés aux approches par défaut. Cependant, même avec l’expertise requise, les LLMs ont tendance à générer des réponses inexactes ou inventées, à revenir à leurs réglages par défaut, rendant les reformulations successives presque inévitables, parfois jusqu’à provoquer un effondrement du modèle. Par conséquent, cette « attraction par défaut » devient un paramètre dont il faut systématiquement tenir compte. (Paschalidis 2025)

Si une formulation est fortement présente dans le corpus d’entraînement est-ce que c’est nécessairement la meilleure ? L’approche par défaut vaut-elle pour tous les contextes ?

La rédaction académique : déprise du texte, déprise du sens ?

  • Tension entre rapidité et standards exigeants
  • Pouvoir rédiger dans un style “natif” même dans une langue étrangère

Existe-t-il un seuil, une limite, au-delà de laquelle le recours aux LLMs constitue une perte de maîtrise du texte ?

Dire la même chose avec des mots différents change-t-il le sens ?

L’alignement des valeurs et le système de valeurs

« The problem of achieving agreement between our true preferences and the objective we put into the machine is called the value alignment problem: the values or objectives put into Value alignment problem the machine must be aligned with those of the human. » (Russell and Norvig 2022, 23)

L’intelligence humaine commence là où celle de la machine s’arrête. Si on découvre de nouvelles capacités à la machine alors on enlève cette capicité de la définition de l’intelligence humaine. « More than fifteen years ago Hilary Putnam identified the old problem we face to this day: ‘The question that won’t go away is how much what we call intelligence presupposes the rest of human nature’ (1988: LET) » (McCarty 2005, 41)

Autrement dit, si on laisse à la machine cette tâche c’est qu’on tend à l’estimer comme peu valorisante dans notre système de valeur actuel.

Si éviter les fautes d’orthographes devient de plus en plus facile, est-ce qu’on devient plus indulgents sur l’orthographe?

Des ‘petites’ corrections finales ?

Currently, academic publishers only allow the use of ChatGPT and similar tools to improve the readability and language of research articles. However, the ethical boundaries and acceptable usage of AI in academic writing are still undefined, and neither humans nor AI detection tools can reliably identify text generated by AI. (Homolak 2023)

It is being increasingly observed that content generated by ChatGPT is going undeclared and undetected, resulting in its appearance in articles published in scholarly journals. […] The general policy among publishers states that AI tools must not be used to create, alter or manipulate original research data and results (Elsevier., 2023; Roche, 2024).(Strzelecki 2025)

Articles contenant des réponses de prompts

Articles contenant des réponses explicites de ChatGPT

Est-ce que négliger la correction revient à négliger la lecture et l’écriture ?

Effet nivelant et influence de la machine

Les moins bons traducteurs sont aidés par la TA mais les meilleurs traducteurs sont désavantagés par la TA. Effet limitant car tendance à se laisser influencer : réduction des intuitions de traduction et de la créativité traductionnelle. (Schumacher 2023)

Une influence pas négligeable : même quand un.e participant.e n’a plus les recommandations de la machine, iel reproduit les erreurs des recommandations (Vicente and Matute 2023) : délégation cognitive ou cognitive offloading

Est-ce que vous avez l’impression, quand vous utilisez un LLM, que sa production est meilleure que la vôtre ? Est-ce que vous avez l’impression que même dans les cas où vous ne vous en servez pas/plus vous continuez à utiliser son vocabulaire ?

Quelle est l’autorité de la machine ?

Quelques outils

Outils généralistes

LLMs non spécialisé : ChatGPT, Mistral, Llama, Claude etc., modèles téléchargés localement (ollama).

Tenir compte des biais du modèle et de son interaction avec lui.

L’effet ‘AI-powered’

La correction automatique existe avant ChatGPT et les LLM offraient des techniques poussées de GEC mais il fallait encore que de nouveaux usages s’ancrent et qu’il y ait un intérêt économique à maintenir l’utilisateur sur la même plateforme d’où l’intégration de LLM dans l’outil.

Outils spécialisés

Les outils historiques (francophones)

Antidote

Sources sur les technologies d’Antidotes :

Reformulation et IA (décembre 2023)

ChatGPT peut-il remplacer Antidote ?(https://www.antidote.info/fr/blogue/astuces-et-conseils/chatgpt-peutil-remplacer-antidote)

Une combinaison d’outils spécialisés et utilisant des techniques diverses.

ProLexis (pas de vidéos youtube depuis 3 ans, ProLexis7) Outil professionel, analyseur syntaxique, interface à l’ancienne, powerpoint à l’ancienne.

Les nouveaux outils

EditPad : AI detector, humanize AI text, Plagiarim checker, paraphrasing tool, story generator, text summarizer, AI essay writer etc. Probablement juste ChatGPT hooked à une interface avec un system-prompt. Apparamment mauvais according to Bordalejo et al. (2025)

screenshot editpad

Corriger = masquer que le texte ne vient pas d’une machine, ou chercher à le détecter?

Writefull: Title generator, Abstract generator, paraphraser, academizer.

Effet de mode = disparition et apparition de solutions miracles (down le 22 septembre, up le 30 septembre mais bug)

Grammarly donne une note à partir des critères de formalité, 4 niveaux : correctness (corrige erreurs grammaticales), clarity (reformulation) engagement (option payante), delivery (payant), plagiarism detection (payant). Option ‘generative AI’ avec des prompts pre-écrits qui restreignent l’usage. Et un browser plugin qui permet de s’en servir avec tous les sites google (docs, gmail, youtube comments).

improve est une option liée à “Generative AI” juste ‘améliorer’.

quillbot

“Is QuillBot considered AI writing? 2 years ago Updated Everyone’s talking about AI writing these days, and debate over its use — and misuse — rages. QuillBot has helped you grow and improve as a writer, but you may wonder if using it is considered AI writing. Good question. The short answer is “no.” QuillBot’s tools have specific uses, such as correcting grammar or paraphrasing sentences. It’s up to you to use the feedback and suggestions to create content that is solely your own. ChatGPT and similar AI writers, on the other hand, can generate essay-length text from a few prompts. That writing can then be presented with no changes. Since QuillBot is not considered AI writing, most plagiarism checkers will not flag its use.

That said, we make no guarantees if someone uses QuillBot on text generated by a tool like ChatGPT. Why not play it safe and craft the content yourself? (With QuillBot’s help, of course!)

Intégration dans tous les autres outils

Prise de note :

Notion : génération de texte.

Evernote: RAG

Rédaction de mail etc.

Conclusion

À retenir

  • La correction est un processus itératif qui implique une phase d’écriture, de lecture, d’annotation et de réécriture : l’IA a transformé ce paradigme à toutes les étapes.
  • Les premiers correcteurs automatiques se sont concentrés sur la correction ortho-typographiques, avec les systèmes de GEC complexes depuis les années 2000 ces outils traitent de reformulation
  • La Grammar Error Correction est une tâche voisine de la Traduction automatique : les technologies sous jacentes sont partagées
  • L’évaluation de la GEC et de la TA fait écho aux processus d’évaluation propre à la correction par un humain.
  • Avec l’ancrage de nouvelles “pratiques discrètes” (Muller and Clavert 2021) de l’IA , on assiste à une nouvelle phase : la correction comme écriture mais aussi comme masquage de l’utilisation d’IA générative.
  • Les promesses de gain de temps et de productivité cachent des enjeux économiques forts : on ne peut que rester méfiants face aux biais de ces outils tout en prennant conscience de ses propres influences.

Prochaines séances

  • Les systèmes d’exploitation le 6 novembre avec Louis-Olivier
  • La Synthèse des sources et la recherche d’information le 15 janvier 2026.

Bibliographie

Bordalejo, Barbara, Davide Pafumi, Frank Onuh, A. K. M. Iftekhar Khalid, Morgan Slayde Pearce, and Daniel Paul O’Donnell. 2025. Scarlet Cloak and the Forest Adventure: A Preliminary Study of the Impact of AI on Commonly Used Writing Tools.” International Journal of Educational Technology in Higher Education 22 (1). https://doi.org/10.1186/s41239-025-00505-5.
Bryant, Christopher, Zheng Yuan, Muhammad Reza Qorib, Hannan Cao, Hwee Tou Ng, and Ted Briscoe. 2023. “Grammatical Error Correction: A Survey of the State of the Art.” Computational Linguistics, September, 643–701. https://doi.org/10.1162/coli_a_00478.
Ciesielski, Jourik. 2024. “Neural Machine Translation Versus Large Language Models.”
Corbı́-Bellot, Antonio M., Mikel L. Forcada, Sergio Ortiz-Rojas, Juan Antonio Pérez-Ortiz, Gema Ramı́rez-Sánchez, Felipe Sánchez-Martı́nez, Iñaki Alegria, Aingeru Mayor, and Kepa Sarasola. 2005. “An Open-Source Shallow-Transfer Machine Translation Engine for the Romance Languages of Spain.” In Proceedings of the Tenth Conference of the European Association for Machine Translation, 79–86. Budapest, Hungary.
Derrida, Jacques. 2005. Paper Machine. Stanford University Press.
du texte Brossard, L. E. 1924-1934. Correcteur typographe. Les règles typographiques / L. -E. Brossard.
Guo, Yanzhu, Guokan Shang, Michalis Vazirgiannis, and Chloé Clavel. 2024. “The Curious Decline of Linguistic Diversity: Training Language Models on Synthetic Text.” arXiv. https://doi.org/10.48550/arXiv.2311.09807.
Homolak, Jan. 2023. “Exploring the Adoption of ChatGPT in Academic Publishing: Insights and Lessons for Scientific Writing.” Croatian Medical Journal 64 (3): 205–7. https://doi.org/10.3325/cmj.2023.64.205.
Kobayashi, Masamune, Masato Mita, and Mamoru Komachi. 2024. “Large Language Models Are State-of-the-Art Evaluator for Grammatical Error Correction.” arXiv. https://doi.org/10.48550/arXiv.2403.17540.
Lodge, R. Anthony. 1993. French, from Dialect to Standard. London ; New York : Routledge.
Maity, Subhankar, Aniket Deroy, and Sudeshna Sarkar. 2024. “How Ready Are Generative Pre-trained Large Language Models for Explaining Bengali Grammatical Errors?” arXiv. https://doi.org/10.48550/arXiv.2406.00039.
McCarty, Willard. 2005. Humanities Computing. Paperback edition. Basingstoke, Hampshire: Palgrave Macmillan.
Muller, Caroline, and Frédéric Clavert. 2021. “De La Poussière à La Lumière Bleue: Émotions, récits, Gestes de l’archive à l’ère Numérique.” Signata, no. 12 (May). https://doi.org/10.4000/signata.3136.
Napoles, Courtney, Keisuke Sakaguchi, and Joel Tetreault. 2016. “There’s No Comparison: Reference-less Evaluation Metrics in Grammatical Error Correction.” In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, 2109–15. Austin, Texas: Association for Computational Linguistics. https://doi.org/10.18653/v1/D16-1228.
Paschalidis, Aristotelis Ioannis. 2025. Vers un langage sans relief ? L’impact de l’IA sur nos mots.” {UNESCO}.
Ramat, Aurel. 2008. Ramat de la typographie. Montréal: Aurel Ramat, éditeur *.
Russell, Stuart J., and Peter Norvig. 2022. Artificial Intelligence: A Modern Approach. Fourth edition, global edition. Prentice Hall Series in Artificial Intelligence. Boston: Pearson.
Schumacher, Perrine. 2023. La post-édition de traduction automatique en contexte d’apprentissage.” PhD thesis, Liège: Universite de Liege.
Shankar, Shreya, J. D. Zamfirescu-Pereira, Bjoern Hartmann, Aditya Parameswaran, and Ian Arawjo. 2024. “Who Validates the Validators? Aligning LLM-Assisted Evaluation of LLM Outputs with Human Preferences.” UIST ’24. New York, NY, USA: Association for Computing Machinery. https://doi.org/10.1145/3654777.3676450.
Shumailov, Ilia, Zakhar Shumaylov, Yiren Zhao, Nicolas Papernot, Ross Anderson, and Yarin Gal. 2024. AI Models Collapse When Trained on Recursively Generated Data.” Nature 631 (8022): 755–59. https://doi.org/10.1038/s41586-024-07566-y.
Sizov, Fedor, Cristina España-Bonet, Josef Van Genabith, Roy Xie, and Koel Dutta Chowdhury. 2024. “Analysing Translation Artifacts: A Comparative Study of LLMs, NMTs, and Human Translations.” In Proceedings of the Ninth Conference on Machine Translation, 1183–99. Miami, Florida, USA: Association for Computational Linguistics. https://doi.org/10.18653/v1/2024.wmt-1.116.
Sourati, Zhivar, Farzan Karimi-Malekabadi, Meltem Ozcan, Colin McDaniel, Alireza Ziabari, Jackson Trager, Ala Tak, Meng Chen, Fred Morstatter, and Morteza Dehghani. 2025. “The Shrinking Landscape of Linguistic Diversity in the Age of Large Language Models.” https://arxiv.org/abs/2502.11266.
Strzelecki, Artur. 2025. As of My Last Knowledge Update’: How Is Content Generated by ChatGPT Infiltrating Scientific Papers Published in Premier Journals?” Learned Publishing 38 (1): e1650. https://doi.org/10.1002/leap.1650.
Turing, A. M. 1950. “Computing Machinery and Intelligence.” Mind LIX (236): 433–60. https://doi.org/10.1093/mind/LIX.236.433.
Vaswani, Ashish, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. 2017. “Attention Is All You Need.” arXiv. https://doi.org/10.48550/arXiv.1706.03762.
Vicente, Lucía, and Helena Matute. 2023. “Humans Inherit Artificial Intelligence Biases.” Scientific Reports 13 (1): 15737. https://doi.org/10.1038/s41598-023-42384-8.
Vitali-Rosati, Marcello. 2025. “Manifeste Pour Des Études Critiques de l’Intelligence Artificielle.” Culture Numérique. Pour Une Philosophie Du Numérique.
Wang, Yu, Yuelin Wang, Jie Liu, and Zhuo Liu. 2020. “A Comprehensive Survey of Grammar Error Correction.” arXiv. https://doi.org/10.48550/arXiv.2005.06600.
Wataoka, Koki, Tsubasa Takahashi, and Ryokan Ri. 2025. “Self-Preference Bias in LLM-as-a-Judge.” arXiv. https://doi.org/10.48550/arXiv.2410.21819.
Yoshimura, Ryoma, Masahiro Kaneko, Tomoyuki Kajiwara, and Mamoru Komachi. 2020. SOME: Reference-less Sub-Metrics Optimized for Manual Evaluations of Grammatical Error Correction.” In Proceedings of the 28th International Conference on Computational Linguistics, edited by Donia Scott, Nuria Bel, and Chengqing Zong, 6516–22. Barcelona, Spain (Online): International Committee on Computational Linguistics. https://doi.org/10.18653/v1/2020.coling-main.573.

Merci à vous !