Parce que… c’est l’épisode 0x684!

Shameless plug

Description

Introduction : l’effet Eliza et l’anthropomorphisme

Dans ce onzième balado collaboratif entre Polysécure et Cyber Citoyens, Catherine Dupont-Gagnon, Samuel Harper et Nicolas Lick explorent les impacts souvent négligés de l’intelligence artificielle sur la société. La discussion débute avec le concept de l’effet Eliza, cette tendance humaine à attribuer des émotions, de l’empathie et une conscience à des programmes informatiques. Ce phénomène d’anthropomorphisme, comparable à l’attachement qu’on peut développer pour des objets inanimés, constitue la racine de nombreux problèmes liés à l’utilisation des IA conversationnelles.

Psychoses induites ou exacerbées par l’IA

L’équipe soulève une distinction cruciale : l’IA cause-t-elle des psychoses ou les aggrave-t-elle simplement ? Avec seulement trois ans de recul depuis le lancement de ChatGPT, les données scientifiques robustes manquent encore. Les cas documentés montrent souvent des personnes présentant déjà des facteurs de risque, comme des dépressions antérieures, des symptômes proches de la schizophrénie ou des problèmes de consommation.

Deux facteurs de risque majeurs émergent : la déification de l’IA (la percevoir comme une intelligence supérieure omnisciente) et la dose d’utilisation. L’isolement social au profit d’heures passées avec un chatbot crée un terrain fertile pour les problèmes psychologiques. Les animateurs établissent un parallèle troublant avec les techniques de radicalisation et les cultes : isolation, coupure des liens familiaux, validation inconditionnelle et mise sur piédestal d’une autorité.

Le cas tragique d’un jeune homme qui s’est suicidé après que l’IA l’ait « challengé » à prouver sa détermination illustre dramatiquement ces dangers. Selon des données internes d’OpenAI, environ 0,07 % des utilisateurs montrent des signes de psychose et 0,15 % des indicateurs suicidaires. Ces pourcentages, bien que faibles, représentent des chiffres absolus alarmants : avec 800 millions d’utilisateurs actifs hebdomadaires, on parle de 560 000 personnes montrant des signes de psychose et 1,2 million ayant contemplé le suicide.

Impact sur l’apprentissage et la créativité

Une étude du MIT (non encore publiée dans une revue à comité de lecture) révèle des conséquences préoccupantes sur les capacités cognitives. Les chercheurs ont demandé à des participants d’écrire des essais en 20 minutes, certains utilisant des modèles de langage, d’autres uniquement leur cerveau. Les résultats sont frappants : moins de connectivité cérébrale chez les utilisateurs d’IA, incapacité à se rappeler ce qu’ils avaient écrit (80-90 % ne pouvaient citer une phrase de leur propre texte), et homogénéité troublante des opinions sur des sujets normalement sujets à débat.

Nicolas Lick, enseignant universitaire, témoigne de cette réalité sur le terrain. Il constate une résistance croissante de ses étudiants face à la charge de travail et une diminution de leur capacité d’absorption. Il doit ralentir son débit de parole et réduire le contenu de ses cours. Les étudiants du primaire paniquent désormais devant des textes de quelques centaines de mots, alors qu’auparavant ils rédigeaient régulièrement des dissertations de 2500 mots.

La dette cognitive

Le concept de dette cognitive émerge comme un problème central. En déléguant les tâches difficiles à l’IA, on évite l’effort mental immédiat mais on hypothèque nos capacités futures. L’exemple des moteurs de recherche est éclairant : même avec Google, on doit trier l’information, évaluer sa fiabilité, distinguer le vrai du faux. Avec l’IA, tout est présenté comme également vrai, éliminant cet exercice de pensée critique.

L’université vise notamment à enseigner la lecture rapide et l’analyse de grandes quantités de documents. Sans cette pratique intensive, la capacité à discriminer l’information pertinente ne se développe pas. Le passage d’un rôle de producteur à celui de superviseur de l’IA crée également un épuisement cognitif paradoxal : même si on produit cinq fois plus de contenu, l’effort mental reste le même, menant à un burnout accéléré.

Une étude sur le « vibe coding » révèle que les développeurs utilisant des outils d’IA pensent économiser 20-25 % de leur temps, mais sont en réalité 20 % moins productifs que ceux qui n’en utilisent pas. Cette distorsion entre perception et réalité témoigne de notre difficulté à nous auto-évaluer.

Conséquences environnementales et sociétales

Au-delà des impacts cognitifs, l’IA génère des coûts environnementaux considérables. Chaque requête consomme de l’énergie, et les centres de données affectent la qualité de l’eau des municipalités avoisinantes. Hydro-Québec a d’ailleurs émis des alertes sur les réserves d’électricité. L’utilisation massive de ressources naturelles pour fabriquer des GPU et l’infrastructure nécessaire soulève des questions sur la viabilité à long terme.

La vie privée constitue un autre enjeu majeur. Les informations partagées avec les IA ne bénéficient d’aucune protection comparable à celle du secret professionnel. Des fraudeurs se font même passer pour des policiers pour obtenir des données auprès des entreprises technologiques. Les jouets pour enfants dotés d’IA non sécurisée représentent également un danger, certains ayant déjà divulgué du contenu inapproprié.

Conclusion : plus de problèmes que de solutions ?

La discussion se termine sur une note interrogative : l’IA crée-t-elle plus de problèmes qu’elle n’en résout ? Pour les traductions, Google Translate suffisait. Pour l’écriture, les correcteurs automatiques fonctionnaient bien. Les coûts humains, psychologiques, environnementaux et sociétaux justifient-ils les bénéfices marginaux apportés ?

Certains usages spécifiques montrent du potentiel, comme la reconnaissance de grains de beauté suspects. La règle proposée : « Feriez-vous confiance à un chien savant pour cette tâche ? » Si oui, l’IA peut probablement aider. Sinon, mieux vaut s’abstenir.

Sur une note optimiste, Nicolas Lick rappelle que contrairement aux prédictions alarmistes, les emplois humains demeurent essentiels. Les entreprises qui ont licencié massivement en comptant sur l’IA sont souvent obligées de réembaucher. Le conseil final du podcast : pour éviter les psychoses liées à l’IA, continuez à voir des humains réels. C’est le meilleur remède contre l’isolement et la dérive qu’encourage une dépendance excessive aux assistants virtuels.

Collaborateurs

Crédits

Télécharger .m4a (66.3M) Télécharger .mp3 (54.4M)

Tags: humain, ia


Tweet