Spécial - IA, GenAI et la confusion généralisée
04 juillet 2025
Parce que... c'est l'épisode 0x614!
Parce que… c’est l’épisode 0x614!
Shameless plug
- 10 au 12 novembre 2025 - IAQ - Le Rendez-vous IA Québec
- 17 au 20 novembre 2025 - European Cyber Week
- 25 et 26 février 2026 - SéQCure 2065
Description
Ce podcast explore les réalités et malentendus entourant l’intelligence artificielle, avec Mickael Nadeau, expert du domaine depuis plusieurs années. La discussion révèle les confusions actuelles entre les différents types d’IA et l’importance cruciale de la transparence dans cette technologie.
L’expertise précoce face à la popularisation récente
Mickael Nadeau travaillait déjà dans l’intelligence artificielle appliquée à la cyberdéfense en 2021, bien avant l’explosion populaire de ChatGPT. Cette expérience lui donne une perspective unique sur l’évolution du secteur. Il observe aujourd’hui que “tout le monde est rendu des experts en IA”, alors que la réalité de la compréhension technologique est bien différente. Cette popularisation soudaine a créé une situation où les termes “IA”, “machine learning” et “intelligence artificielle générative” sont constamment confondus et utilisés de manière interchangeable.
La confusion terminologique généralisée
L’un des problèmes majeurs identifiés est la tendance à réduire l’IA à ChatGPT ou aux chatbots génériques. Pour beaucoup, l’IA s’arrête à ces outils conversationnels, alors qu’elle englobe en réalité de nombreux segments d’algorithmes différents, conçus pour répondre à des besoins spécifiques. Cette confusion se manifeste particulièrement dans les appels d’offres gouvernementaux, où Nadeau a récemment dû répondre à des questions “sidérantes” mélageant concepts d’IA générative, de stockage de données, de métadonnées et de propriété intellectuelle.
Ces questions semblent inspirées du RGPD européen, le Québec tentant de suivre cette approche réglementaire. Cependant, elles révèlent une incompréhension fondamentale des différences entre les types d’IA et leurs implications techniques. Les rédacteurs de ces documents mélangent l’entraînement des modèles, l’hébergement cloud, et les différents types d’algorithmes, créant un “amalgame” de préoccupations légitimes mais mal contextualisées.
L’IA traditionnelle versus l’IA générative
La distinction entre l’IA traditionnelle (machine learning classique) et l’IA générative (GenAI) est cruciale mais mal comprise. L’IA existe depuis des décennies dans nos appareils quotidiens : la prédiction de texte sur nos téléphones, les algorithmes de recommandation de Netflix, la correction automatique, ou encore les moteurs de recherche Google utilisent tous des formes d’intelligence artificielle. Ces applications sont ciblées, efficaces et consomment relativement peu d’énergie.
En revanche, les grands modèles de langage (LLM) comme ChatGPT sont des outils généralistes comparables à “faire du trail avec un char de ville”. Ils peuvent produire des résultats dans de nombreux domaines, mais au prix d’une consommation énergétique massive et avec des risques d’erreurs ou d’hallucinations. Cette différence fondamentale explique pourquoi Google et Apple n’ont pas initialement développé de chatbots grand public : ils utilisaient déjà l’IA de manière spécialisée et efficace.
L’évolution technologique et les capacités actuelles
Ce qui a véritablement changé récemment, ce ne sont pas les algorithmes eux-mêmes, mais la puissance de calcul disponible. Les concepts statistiques sous-jacents au machine learning existent depuis des décennies. Cependant, l’accès démocratisé aux serveurs puissants, aux cartes graphiques spécialisées et aux capacités cloud a permis de traiter des volumes de données impensables il y a encore cinq ans.
Cette évolution technologique a également permis l’émergence de nouveaux paradigmes, comme les MCP (Model Context Protocol), qui agissent comme des coprocesseurs spécialisés. Ces systèmes permettent de combiner plusieurs agents IA spécialisés plutôt que de s’appuyer sur un seul modèle généraliste. Cette approche modulaire, déjà utilisée par Apple et Google sur leurs téléphones, représente probablement l’avenir de l’IA pratique.
Les défis de qualité et de fiabilité
Un problème récurrent avec les outils d’IA générative concerne la qualité et la fiabilité des résultats. Nadeau partage des exemples frustrants de personnes envoyant des courriels clairement générés par IA, contenant des erreurs ou des “hallucinations” que l’expéditeur n’a même pas pris la peine de relire. Cette paresse révèle une confiance aveugle dangereuse envers ces outils.
Pour le développement de code, les modèles généralistes produisent souvent du code non maintenable, inventent des bibliothèques inexistantes, ou créent des solutions partiellement fonctionnelles. En revanche, les modèles spécialisés comme Claude Code, entraînés spécifiquement sur du code de qualité, produisent des résultats significativement meilleurs. Cette différence illustre l’importance de choisir l’outil approprié pour chaque tâche.
La question cruciale de la transparence
Le défi majeur identifié par Nadeau concerne la transparence des systèmes d’IA. Contrairement aux LLM qui fonctionnent comme des “boîtes noires”, les systèmes d’IA spécialisés peuvent être conçus pour expliquer leurs décisions. Dans leur solution de cyberdéfense, ils indiquent le degré de confiance du modèle dans chaque décision et expliquent le raisonnement sous-jacent.
Cette transparence devient un avantage concurrentiel majeur. Elle permet aux utilisateurs de comprendre pourquoi une décision a été prise, d’évaluer la fiabilité du résultat, et de prendre des décisions éclairées. Cette approche contraste avec la mentalité “trust me bro” de nombreuses solutions actuelles qui demandent une confiance aveugle dans leurs résultats “magiques”.
Les enjeux géopolitiques et de confidentialité
La discussion révèle également les préoccupations géopolitiques autour de l’IA. L’interdiction de TikTok aux États-Unis, les amendes contre ByteDance en Europe, et les questions sur l’envoi de données en Chine illustrent ces tensions. Cependant, les intervenants soulignent l’hypocrisie de ces préoccupations : les mêmes questions auraient dû être posées depuis longtemps concernant le cloud computing, les applications mobiles, et les services web en général.
OpenAI a été forcé de conserver indéfiniment les conversations ChatGPT par les tribunaux américains, mais Google conserve déjà toutes nos recherches. Cette situation révèle un “réveil tardif” face à des pratiques existantes depuis des années. L’IA générative a simplement rendu visible des problématiques de confidentialité préexistantes.
L’avenir : spécialisation et orchestration
L’avenir de l’IA semble s’orienter vers des écosystèmes d’agents spécialisés orchestrés intelligemment. Plutôt qu’un seul modèle généraliste tentant de tout faire, nous verrons probablement des “essaims” de petits agents, chacun expert dans un domaine particulier. Cette approche, déjà visible dans les dernières versions de ChatGPT et Gemini qui intègrent des modules de recherche web, promet des résultats plus fiables et plus efficaces.
Conclusion : éducation et transparence
Le podcast se termine sur l’importance de l’éducation et de la transparence. La confusion actuelle autour de l’IA résulte largement d’un manque de compréhension des différentes technologies et de leurs implications. Les consommateurs, régulateurs, et entreprises doivent développer une meilleure compréhension de ces outils pour les utiliser efficacement et en toute sécurité.
La transparence devient non seulement un impératif éthique mais aussi un avantage concurrentiel. Les entreprises capables d’expliquer clairement le fonctionnement de leurs systèmes d’IA, leurs limites, et leurs garanties de confidentialité auront un avantage significatif dans un marché de plus en plus méfiant face aux “boîtes noires” technologiques.
Cette évolution vers plus de transparence et de spécialisation pourrait finalement résoudre de nombreux problèmes actuels de l’IA, tout en réalisant son véritable potentiel dans des applications pratiques et fiables.
Collaborateurs
Crédits
- Montage par Intrasecure inc
- Locaux virtuels par Riverside.fm
Tags: ia, llm
Tweet