2026-01-15
Format : 4 séances de 2heures, sans inscription, participation libre (à justifier pour le certificat des Humanités Numériques)
Objectifs de la série d’atelier :


Des programmes informatiques que nous estimons à la hauteur de l’intelligence humaine ? Le développement des technologies fait évoluer cette définition de l’intelligence non seulement artificielle mais aussi humaine.
‘IA’ depuis 5 ans, a remplacé le ‘numérique’ des années 2010, et le ‘cyberespace’ des années 1990 et 2000.(Vitali-Rosati 2025).
Définition pratique pour ces ateliers: “un programme informatique qui effectue une prédiction.”



IA, dite générative ou d’automatisation de la prédiction de token, effectue aujourd’hui des tâches complexes à deux niveaux:
interprétation d’une instruction donnée en langue naturelle (avec son lot d’ambiguïté).
intégration de LLM dans des process ou pipelines qui impliquent des interactions en chaînes:
Un agent est une série d’appels à un LLM : l’agent est ce qui permet d’enchaîner input et output jusqu’à complétion d’une tâche. Le résultat de ces interactions peut ne pas être une réponse en langue naturelle ex: activation d’une fonction.
Autrement dit, un agent est une “IA” qui se répond à elle-même.
On parlera de système agentique quand plusieurs agents interagissent.
Démonstration d’un agent : assistant à l’exploration et la création de note sur un tableau interactif de Arawjo (2026)
Description des IA agentiques par Docker (Irwin and Xu 2025)
Depuis GPT-3.5 et sa sortie publique en décembre 2022, l’application ChatGPT ne se contente pas d’envoyer seul le prompt de l’utilisateur pour interroger le LLM: dans le prompt global, on trouve un ensemble d’instructions préliminaires (le system prompt) et d’informations complémentaires comme l’historique des échanges (chat history).
Depuis décembre 2024, le Model Context Protocol (MCP) permet l’intégration modulaire de l’interface de chat à d’autres fonctionalités.

Exemple : la fonction search => RAG
Limites du LLM:
-> perte de fiabilité
Le RAG : architecture de système d’IA qui repose sur une base de connaissance externe dans le but d’améliorer les réponses d’une IA générative sans demander d’entrainement supplémentaire (fine tuning).(Lewis et al. 2021) (Facebook, University College London, New York University)
Superbe diagramme d’un RAG
Requête d’une base de données1 avec des méthodes de Recherche d’Information (TF-iDF ou similarité cosinus) + intégration des morceaux extraits au prompt. Le LLM effectue une synthèse. Ex: NotebookLM
We collaborated extensively with the news industry and carefully listened to feedback from our global publisher partners, including Associated Press, Axel Springer, Condé Nast, Dotdash Meredith, Financial Times, GEDI, Hearst, Le Monde, News Corp, Prisa (El País), Reuters, The Atlantic, Time, and Vox Media. Any website or publisher can choose to appear(opens in a new window) in ChatGPT search. If you’d like to share feedback, please email us at publishers-feedback@openai.com. — OpenAI (2024)
-> Atlas, un navigateur avec chatGPT comme “moteur de recherche” par défaut. Dash (2025) parle d’un navigateur ‘anti-web’:
By keeping the ChatGPT sidebar open while you browse, and giving it permission to look over your shoulder, OpenAI can suddenly access all kinds of things on the internet that they could never get to on their own.
Partenariat avec l’AFP depuis janvier 2025 (AFP 2025). Opacité quant à la méthode de recherche d’information sur internet1.
Qu’est-ce qu’on entend par IA dans ce cas ?
5 à 6 niveaux d’intervention possible !
Désambiguisation, keywords, classification de topics, abstract. (OpenAlex, Isidore? -> ML pour attribution de sujets reliés).
Méthodes sans IA : thésaurus, ontologies.
Query expansion avec un LLM: “Écrit 10 variants de la requête suivantes”
-> Impact sur la manière de requêter: 1. par mot-clé, 2. ‘en langue naturelle’.
Classement des articles présentés selon un critère de pertinence par rapport à la requête.
ML classique (entraînement d’un modèle au classement)
Comparaison de vecteurs (requête/titre de l’article): score = proximité. ex: Primo search assistant1
Évaluation par un LLM type ‘gen AI’ : prompt de classement ou catégorisation de pertinence. Fournissent les explications: Ex: Asta
Asta présente la justification de la catégorie de pertinence
Google Scholar Labs donne une explication de la présence de l’article dans la liste de résultat
Synthèse des articles extraits pour répondre à une question en langue naturelle => RAG.
RAG simple: Elicit, SciSpace (source: Semantic Scolar, Open Alex), fonction TLDR de Semantic Scholar.
Deep research : Agentic AI, spécialisation de plusieurs agents, retourne un rapport complet en quelques minutes. Fonctionalités spécialisés Ex: Consensus fonctionalité “Study Snapchot”.
Undermind.ai
The AI-generated things get propagated into other real things, so students see them cited in real things and assume they’re real, and get confused as to why they lose points for using fake sources when other real sources use them (Klee 2025)
Synthèse des outils d’IA (Tay 2025)
Pour suivre ces questions, suivre Aaron Tay : https://aarontay.substack.com/
Le matériel informatique : trésor ou ordure ? 29 janvier, même heure même lieu
Rester à la fine pointe de la technologie, ça coûte cher. Mais est-ce même utile ? Est-ce que ça se fait de seulement remplacer la batterie de son ordinateur, ou un disque pour rendre sa machine plus rapide ? C’est souvent plus facile qu’on le pense ! Avec cette démo, on vous aide à garder votre machine plus longtemps, et votre argent dans vos poches !
Documentation des nouvelles pratiques liées à l’utilisation de l’IA : préconisations pour les SHS 12 mars, même heure même lieu
