Voir, lire, vérifier : l'esprit critique face à l'IA - INTER

Biais cognitifs, deepfakes et hallucinations : les outils pour garder la tête froide face à l'IA.

Formation créée le 05/04/2025. Dernière mise à jour le 28/04/2026.
Version du programme : 1

Type de formation

Distanciel

Durée de formation

7 heures (1 jour)

Accessibilité

Oui
Net de TVA
S'inscrire
Net de TVA
S'inscrire
Net de TVA
S'inscrire

Voir, lire, vérifier : l'esprit critique face à l'IA - INTER

Biais cognitifs, deepfakes et hallucinations : les outils pour garder la tête froide face à l'IA.


L'IA génère des images bluffantes, des vidéos troublantes, des textes fluides et des sources qui ont l'air parfaitement crédibles. Sauf qu'elles n'existent pas toujours. Le problème : notre cerveau n'est pas câblé pour s'en méfier. Fluence, assurance, volume... l'IA active précisément les biais qui court-circuitent notre esprit critique. 👉 Cette formation intensive de 7h vous propose d'apprendre à voir ce que l'IA cache, à lire ce qu'elle déforme, et à vérifier ce qu'elle affirme. Au programme : 🧠 1h30 de cadrage : comprendre ce que l'IA produit réellement, pourquoi elle paraît si crédible, et quels biais cognitifs elle exploite sans le savoir (automation bias, effet de halo, surconfiance). 🔍 2h d'ateliers pratiques : détecter des images générées par IA, identifier des vidéos deepfake, repérer les patterns d'écriture IA dans un texte. Entraînement en conditions réelles. 🧪 1h de vérification des sources : hallucinations, références inventées, liens morts... Apprendre à vérifier ce que l'IA affirme et à lire un texte long de façon critique. 🎯 1h30 de challenge individuel : chaque participant travaille sur un contenu généré ou assisté par IA à analyser, vérifier, et débunker. 🎤 1h de restitutions collectives : présentation de la démarche, du verdict, des preuves. 💡 À l'issue de cette formation, vous repartirez avec : - Des méthodes concrètes pour détecter les contenus IA (images, vidéos, textes) - Des réflexes de vérification face aux affirmations de l'IA - Une posture critique outillée, pas seulement méfiante Cette formation s'adresse à toute personne qui utilise, lit ou relaie des contenus à l'ère de l'IA générative et qui préfère comprendre plutôt que subir.

Objectifs de la formation

  • Distinguer un contenu généré par IA (image, vidéo, texte) d'un contenu authentique, en s'appuyant sur des indices visuels, stylistiques et des outils d'analyse adaptés.
  • Évaluer la fiabilité des affirmations produites par un système d'IA en contrôlant les sources citées, les références bibliographiques et les liens proposés.
  • Analyser un texte long assisté par IA afin d'en identifier les affirmations vérifiables, les zones de flou et les approximations.

Profil des bénéficiaires

Pour qui
  • Professionnels qui utilisent l'IA dans leur travail (rédacteurs, chargés de communication, formateurs, enseignants) et qui produisent ou relaient des contenus assistés par IA sans forcément en questionner la fiabilité.
  • Personnes en charge de l'information dans leur organisation (community managers, journalistes, responsables communication) exposées aux deepfakes et aux contenus générés.
  • Tout public curieux du numérique.
Prérequis
  • Savoir utiliser un navigateur web et faire des recherches sur internet
  • Être familier avec les outils bureautiques de base

Contenu de la formation

L'IA comme nouvelle source d'information : ce qui change
  • Ce que l'IA produit réellement (textes, images, vidéos, sources)
  • Pourquoi l'IA paraît crédible : fluidité, assurance, volume
  • Les biais cognitifs spécifiques à l'IA : automation bias, surconfiance, effet de halo de la technologie
  • Et nos biais de lecture
  • Exemples concrets de contenus IA ayant circulé comme authentiques
Détecter les contenus générés par IA
  • Images Les indices visuels caractéristiques (mains, textures, arrière-plans) Entraînement pratique
  • Vidéos Les marqueurs de deepfake et de génération vidéo Entraînement pratique
  • Textes Les patterns d'écriture IA Exercice de détection sur corpus mixte (textes humains / textes IA)
Vérifier ce que l'IA affirme
  • Hallucinations : références bibliographiques inventées, liens morts, citations fabriquées
  • Méthode de vérification des sources proposées par l'IA
  • Lecture critique d'un texte long : identifier les affirmations vérifiables, les zones de flou, les approximations
  • Exercices sur des exemples réels produits par IA
Challenge individuel :
  • Attribution d'un contenu généré ou assisté par IA (texte, image, ou combinaison)
  • Travail en autonomie avec tutorat ponctuel
  • Livrables : Un fact-check rédigé de max 1250 caractères avec liens sourcés Un support de présentation synthétique (ppt/pdf/google slides)
  • Chaque participant dispose de 5 min pour présenter : - le contenu soumis à vérification - la démarche utilisée - le verdict argumenté Q/R et feedbacks individuels
Débriefing & approfondissements
  • Retours sur les productions
  • Réflexions collectives : quelle posture adopter face à un contenu IA ?

Équipe pédagogique

Sydologues et équipe Le Bahut

Suivi de l'exécution et évaluation des résultats

  • Rédaction d'un fact-check par chaque apprenant
  • Dans le cadre de notre process qualité, évaluation systématique des éléments acquis en fin de formation.

Ressources techniques et pédagogiques

  • Support Gamma, tutoriels vidéo, quiz, exemples de factchecks...

Qualité et satisfaction

Suivi qualité sur Digiforma Taux de satisfaction des apprenants

Capacité d'accueil

Entre 6 et 15 apprenants

Délai d'accès

4 semaines

Accessibilité

Le site du Bahut est un ERP accessible aux personnes en situation de handicap. Nous valorisons l’inclusion et l’accessibilité dans nos programmes de formation. Le Bahut offre un accompagnement dédié par un référent handicap.