Spécial - L'IA appliquée au travail, pour vrai ;-)
26 décembre 2025
Parce que... c'est l'épisode 0x704!
PME - MSP vs MSSP
07 janvier 2026
Parce que... c'est l'épisode 0x703!
Actu - 1er février
01 février 2026
Parce que... c'est l'épisode 0x702!
SéQCure - Les initiatives du gouvernement du Québec en cybersécurité (Yvan Fournier)
20 janvier 2026
Parce que... c'est l'épisode 0x701!
Grok selon Cyber Citoyen et Polysécure
21 janvier 2026
Parce que... c'est l'épisode 0x700!
Actu - 25 janvier 2026
25 janvier 2026
Parce que... c'est l'épisode 0x699!
Teknik - Importance des standards ouverts et présentation d'Open XDR Architecture (OXA)
19 novembre 2025
Parce que... c'est l'épisode 0x698!
PME - L'importance du contrat avec son MSP
07 janvier 2026
Parce que... c'est l'épisode 0x697!
Actu - 18 janvier 2026
18 janvier 2026
Parce que... c'est l'épisode 0x696!
Spécial - Lorsque la sensibilisation en cybersécurité devient une série qu'on veut binger
07 janvier 2026
Parce que... c'est l'épisode 0x695!
PME - Rôle du MSP
07 janvier 2026
Parce que... c'est l'épisode 0x694!
Actu - 11 janvier 2026
11 janvier 2026
Parce que... c'est l'épisode 0x693!
Teknik - La guerre Red Team vs EDR - l’aspect technique et non business du problème (c'est la partie 2 BTW)
02 décembre 2025
Parce que... c'est l'épisode 0x692!
Teknik - CTI part 2 - tumble down the rabbit hole
31 octobre 2025
Parce que... c'est l'épisode 0x6xx!
Actu - 04 janvier 2026
04 janvier 2026
Parce que... c'est l'épisode 0x690!
H'umain - Dépression
27 octobre 2025
Parce que... c'est l'épisode 0x689!
PME - Le croisement des médias sociaux perso et corpo
11 décembre 2025
Parce que... c'est l'épisode 0x688!
Actu - 28 décembre 2025
28 décembre 2025
Parce que... c'est l'épisode 0x687!
Spécial - Create a Company Culture That Takes Cybersecurity Seriously
20 octobre 2025
Parce que... c'est l'épisode 0x686!
PME - La gestion du cycle de vie des identités sur les réseaux sociaux
11 décembre 2025
Parce que... c'est l'épisode 0x685!
La psychose IA selon Cyber Citoyen et PolySécure
16 décembre 2025
Parce que... c'est l'épisode 0x684!
Parce que… c’est l’épisode 0x684!
Shameless plug
- 25 et 26 février 2026 - SéQCure 2026
- 31 mars au 2 avril 2026 - Forum INCYBER - Europe 2026
- 14 au 17 avril 2026 - Botconf 2026
- 28 et 29 avril 2026 - Cybereco Cyberconférence 2026
- 9 au 17 mai 2026 - NorthSec 2026
- 3 au 5 juin 2026 - SSTIC 2026
- 19 septembre 2026 - Bsides Montréal
Description
Introduction : l’effet Eliza et l’anthropomorphisme
Dans ce onzième balado collaboratif entre Polysécure et Cyber Citoyens, Catherine Dupont-Gagnon, Samuel Harper et Nicolas Lick explorent les impacts souvent négligés de l’intelligence artificielle sur la société. La discussion débute avec le concept de l’effet Eliza, cette tendance humaine à attribuer des émotions, de l’empathie et une conscience à des programmes informatiques. Ce phénomène d’anthropomorphisme, comparable à l’attachement qu’on peut développer pour des objets inanimés, constitue la racine de nombreux problèmes liés à l’utilisation des IA conversationnelles.
Psychoses induites ou exacerbées par l’IA
L’équipe soulève une distinction cruciale : l’IA cause-t-elle des psychoses ou les aggrave-t-elle simplement ? Avec seulement trois ans de recul depuis le lancement de ChatGPT, les données scientifiques robustes manquent encore. Les cas documentés montrent souvent des personnes présentant déjà des facteurs de risque, comme des dépressions antérieures, des symptômes proches de la schizophrénie ou des problèmes de consommation.
Deux facteurs de risque majeurs émergent : la déification de l’IA (la percevoir comme une intelligence supérieure omnisciente) et la dose d’utilisation. L’isolement social au profit d’heures passées avec un chatbot crée un terrain fertile pour les problèmes psychologiques. Les animateurs établissent un parallèle troublant avec les techniques de radicalisation et les cultes : isolation, coupure des liens familiaux, validation inconditionnelle et mise sur piédestal d’une autorité.
Le cas tragique d’un jeune homme qui s’est suicidé après que l’IA l’ait « challengé » à prouver sa détermination illustre dramatiquement ces dangers. Selon des données internes d’OpenAI, environ 0,07 % des utilisateurs montrent des signes de psychose et 0,15 % des indicateurs suicidaires. Ces pourcentages, bien que faibles, représentent des chiffres absolus alarmants : avec 800 millions d’utilisateurs actifs hebdomadaires, on parle de 560 000 personnes montrant des signes de psychose et 1,2 million ayant contemplé le suicide.
Impact sur l’apprentissage et la créativité
Une étude du MIT (non encore publiée dans une revue à comité de lecture) révèle des conséquences préoccupantes sur les capacités cognitives. Les chercheurs ont demandé à des participants d’écrire des essais en 20 minutes, certains utilisant des modèles de langage, d’autres uniquement leur cerveau. Les résultats sont frappants : moins de connectivité cérébrale chez les utilisateurs d’IA, incapacité à se rappeler ce qu’ils avaient écrit (80-90 % ne pouvaient citer une phrase de leur propre texte), et homogénéité troublante des opinions sur des sujets normalement sujets à débat.
Nicolas Lick, enseignant universitaire, témoigne de cette réalité sur le terrain. Il constate une résistance croissante de ses étudiants face à la charge de travail et une diminution de leur capacité d’absorption. Il doit ralentir son débit de parole et réduire le contenu de ses cours. Les étudiants du primaire paniquent désormais devant des textes de quelques centaines de mots, alors qu’auparavant ils rédigeaient régulièrement des dissertations de 2500 mots.
La dette cognitive
Le concept de dette cognitive émerge comme un problème central. En déléguant les tâches difficiles à l’IA, on évite l’effort mental immédiat mais on hypothèque nos capacités futures. L’exemple des moteurs de recherche est éclairant : même avec Google, on doit trier l’information, évaluer sa fiabilité, distinguer le vrai du faux. Avec l’IA, tout est présenté comme également vrai, éliminant cet exercice de pensée critique.
L’université vise notamment à enseigner la lecture rapide et l’analyse de grandes quantités de documents. Sans cette pratique intensive, la capacité à discriminer l’information pertinente ne se développe pas. Le passage d’un rôle de producteur à celui de superviseur de l’IA crée également un épuisement cognitif paradoxal : même si on produit cinq fois plus de contenu, l’effort mental reste le même, menant à un burnout accéléré.
Une étude sur le « vibe coding » révèle que les développeurs utilisant des outils d’IA pensent économiser 20-25 % de leur temps, mais sont en réalité 20 % moins productifs que ceux qui n’en utilisent pas. Cette distorsion entre perception et réalité témoigne de notre difficulté à nous auto-évaluer.
Conséquences environnementales et sociétales
Au-delà des impacts cognitifs, l’IA génère des coûts environnementaux considérables. Chaque requête consomme de l’énergie, et les centres de données affectent la qualité de l’eau des municipalités avoisinantes. Hydro-Québec a d’ailleurs émis des alertes sur les réserves d’électricité. L’utilisation massive de ressources naturelles pour fabriquer des GPU et l’infrastructure nécessaire soulève des questions sur la viabilité à long terme.
La vie privée constitue un autre enjeu majeur. Les informations partagées avec les IA ne bénéficient d’aucune protection comparable à celle du secret professionnel. Des fraudeurs se font même passer pour des policiers pour obtenir des données auprès des entreprises technologiques. Les jouets pour enfants dotés d’IA non sécurisée représentent également un danger, certains ayant déjà divulgué du contenu inapproprié.
Conclusion : plus de problèmes que de solutions ?
La discussion se termine sur une note interrogative : l’IA crée-t-elle plus de problèmes qu’elle n’en résout ? Pour les traductions, Google Translate suffisait. Pour l’écriture, les correcteurs automatiques fonctionnaient bien. Les coûts humains, psychologiques, environnementaux et sociétaux justifient-ils les bénéfices marginaux apportés ?
Certains usages spécifiques montrent du potentiel, comme la reconnaissance de grains de beauté suspects. La règle proposée : « Feriez-vous confiance à un chien savant pour cette tâche ? » Si oui, l’IA peut probablement aider. Sinon, mieux vaut s’abstenir.
Sur une note optimiste, Nicolas Lick rappelle que contrairement aux prédictions alarmistes, les emplois humains demeurent essentiels. Les entreprises qui ont licencié massivement en comptant sur l’IA sont souvent obligées de réembaucher. Le conseil final du podcast : pour éviter les psychoses liées à l’IA, continuez à voir des humains réels. C’est le meilleur remède contre l’isolement et la dérive qu’encourage une dépendance excessive aux assistants virtuels.
Collaborateurs
Crédits
- Montage par Intrasecure inc
- Locaux virtuels par Riverside.fm
Tags: humain, ia
Tweet












