Spécial - Si demain, tout tombait
15 septembre 2025
Parce que... c'est l'épisode 0x658!
Teknik - La guerre Red Team vs EDR - l’aspect business et non technique du problème
29 octobre 2025
Parce que... c'est l'épisode 0x657!
Teknik - Double-Tap Campaign - Russia-nexus APT possibly related to APT28 conducts cyber espionage on Central Asia and Kazakhstan diplomatic relations
13 octobre 2025
Parce que... c'est l'épisode 0x656!
Actu - 2 novembre 2025
02 novembre 2025
Parce que... c'est l'épisode 0x655!
Teknik - Dans le feu des tranchés, opérer le SOC au Hackfest
23 octobre 2025
Parce que... c'est l'épisode 0x654!
PME - NotPetya, l'histoire des dommages collatéraux
17 septembre 2025
Parce que... c'est l'épisode 0x653!
Le monde selon Cyber Citoyen et Polysécure collab no9
22 octobre 2025
Parce que... c'est l'épisode 0x652!
Actu - 26 octobre 2025
26 octobre 2025
Parce que... c'est l'épisode 0x651!
Teknik - The Overlooked Playground - An Attacker’s Journey Through GCP
13 septembre 2025
Parce que... c'est l'épisode 0x650!
PME - Balayage de vulnérabilités vs test d'intrusion avec des ninjas
17 septembre 2025
Parce que... c'est l'épisode 0x649!
Spécial - Entretiens avec Miguel De Bruycker du Centre pour la Cybersécurité Belgique
14 octobre 2025
Parce que... c'est l'épisode 0x648!
Actu - 19 ocotbre 2025
19 octobre 2025
Parce que... c'est l'épisode 0x647!
Spécial - Structurer l'expatriation
07 juillet 2025
Parce que... c'est l'épisode 0x646!
Teknik - Browser Detection and Response
10 juillet 2025
Parce que... c'est l'épisode 0x645!
PME - Les certifications
17 septembre 2025
Parce que... c'est l'épisode 0x644!
Actu - 12 octobre 2025
12 ocotbre 2025
Parce que... c'est l'épisode 0x643!
Teknik - Tendance pour terminer 2025
01 octobre 2025
Parce que... c'est l'épisode 0x642!
PME - La sécurité, trop cher?
17 septembre 2025
Parce que... c'est l'épisode 0x641!
Teknik - BloodHound et OpenGraph
13 septmbre 2025
Parce que... c'est l'épisode 0x640!
Actu - 5 octobre 2025
05 octobre 2025
Parce que... c'est l'épisode 0x639!
Spécial - Responsabilité IA
22 mai 2025
Parce que... c'est l'épisode 0x638!
PME - Petit quiz PME ou que ce que vous avez toujours voulu savoir
26 juillet 2025
Parce que... c'est l'épisode 0x637!
Le monde selon Cyber Citoyen et Polysécure édition GoSec (collab no8)
11 septembre 2025
Parce que... c'est l'épisode 0x636!
Actu - 28 septembre 2025
28 septembre 2025
Parce que... c'est l'épisode 0x635!
Spécial - Reconversion en cybersécurité
22 juillet 2025
Parce que... c'est l'épisode 0x634!
PME - Protection des renseignements personelles
26 juillet 2025
Parce que... c'est l'épisode 0x633!
Actu - 21 septembre 2025
21 septembre 2025
Parce que... c'est l'épisode 0x632!
Spécial - Les boeufs sont lents mais la terre est patiente (Panel au BSides Montréal 2025)
13 septembre 2025
Parce que... c'est l'épisode 0x631!
Spécial - Hommage à Michel Cusin
13 septembre 2025
Parce que... c'est l'épisode 0x630!
Actu - 14 septembre 2025
14 septembre 2025
Parce que... c'est l'épisode 0x629!
PME - Questions sur l'IA
26 juillet 2025
Parce que... c'est l'épisode 0x628!
Teknik - Sécurité physique
18 juin 2025
Parce que... c'est l'épisode 0x627!
Actu - 7 septembre
07 septembre 2025
Parce que... c'est l'épisode 0x626!
PME - Programme FORCE (cybersécurité) de l'UQTR destiné aux PME
03 septembre 2025
Parce que... c'est l'épisode 0x625!
Teknik - Résilience OT
12 juin 2025
Parce que... c'est l'épisode 0x624!
Actu - 1er septembre 2025
01 septembre 2025
Parce que... c'est l'épisode 0x623!
Teknik - CTI
12 juin 2025
Parce que... c'est l'épisode 0x622!
Spécial - Être freelance à l'international
26 mai 2025
Parce que... c'est l'épisode 0x621!
Spécial - L'enflure des titres sur LinkedIn
02 mai 2025
Parce que... c'est l'épisode 0x620!
Conspiration Cyber Citoyen au 13 août 2025
13 août 2025
Parce que... c'est l'épisode 0x619!
Spécial - NIS2
18 juin 2025
Parce que... c'est l'épisode 0x618!
Spécial - Nice to meet you! That will be 20 million please
16 mai 2025
Parce que... c'est l'épisode 0x617!
Spécial - Gérer le bruit dans la détection d'événements de cybersécurité à la grandeur du Canada
16 mai 2025
Parce que... c'est l'épisode 0x616!
Spécial - Red teaming et évolution de la cybersécurité
16 mai 2025
Parce que... c'est l'épisode 0x615!
Spécial - IA, GenAI et la confusion généralisée
04 juillet 2025
Parce que... c'est l'épisode 0x614!
Spécial - RETEX sur une première expérience en pentest physique
11 mai 2025
Parce que... c'est l'épisode 0x613!
Juridik - Effet sur la protection des renseignements personnels de C-2 et C-8
14 juillet 2025
Parce que... c'est l'épisode 0x612!
Actualités Cyber Citoyen au 17 juillet 2025
17 juillet 2025
Parce que... c'est l'épisode 0x611!
Teknik - Signaux (xDR) dans l'univers des OT
10 avril 2025
Parce que... c'est l'épisode 0x610!
Spécial - L’internet mondial est-il en train de mourir ?
21 avril 2025
Parce que... c'est l'épisode 0x609!
Spécial - L'outillage dans le cadre d'analyse de risque
18 avril 2025
Parce que... c'est l'épisode 0x608!
Spécial - leHACK 2025
28 juin 2025
Parce que... c'est l'épisode 0x607!
Spécial - Un brin de nostalgie durant le Northsec
15 mai 2025
Parce que... c'est l'épisode 0x606!
Spécial - Outrunning the Red Queen - Analysis of Ransomware Scripts
09 avril 2025
Parce que... c'est l'épisode 0x605!
Teknik - Al Trust - Apprentissage automatique - Détection des modèles empoisonnés après entrainement
09 avril 2025
Parce que... c'est l'épisode 0x604!
Parce que… c’est l’épisode 0x604!
Shameless plug
- 12 au 17 octobre 2025 - Objective by the sea v8
- 10 au 12 novembre 2025 - IAQ - Le Rendez-vous IA Québec
- 17 au 20 novembre 2025 - European Cyber Week
- 25 et 26 février 2026 - SéQCure 2026
Description
Introduction et présentation de l’expert
Dans cet épisode spécial de “Police Sécure Cyber Éco”, Emmanuel Christian Nternanya, expert en cybersécurité d’origine congolaise, présente ses recherches révolutionnaires sur la détection de l’empoisonnement de modèles d’intelligence artificielle. Certifié CISSP avec plus d’une décennie d’expérience dans l’industrie informatique depuis 2012 et cinq années spécialisées en cybersécurité, Emmanuel apporte une expertise technique approfondie à un sujet critique pour l’avenir de l’IA.
Le problème de l’empoisonnement des modèles d’IA
L’empoisonnement de modèles d’IA représente une menace sophistiquée et souvent invisible. Contrairement à l’expérience utilisateur simplifiée que nous connaissons avec ChatGPT ou d’autres interfaces conversationnelles, la réalité technique est bien plus complexe. Chaque modèle d’IA possède un “cerveau” qui doit être entraîné avec des données pour acquérir ses capacités de prédiction et de classification.
Le principe fondamental est simple mais préoccupant : si un modèle est entraîné avec des données corrompues indiquant que 1+1=3, il reproduira fidèlement cette erreur. Les modèles d’IA ne font que reproduire ce qu’ils ont appris, sans capacité de discernement critique. Cette vulnérabilité ouvre la porte à des attaques sophistiquées où des adversaires peuvent corrompre intentionnellement les données d’entraînement.
La recherche d’Emmanuel démontre qu’il suffit parfois de contaminer seulement 1% des données d’entraînement pour réussir à modifier significativement le comportement d’un modèle. Cette découverte est particulièrement alarmante car elle révèle qu’une intervention minimale peut avoir des conséquences majeures, tout en restant pratiquement indétectable par les méthodes conventionnelles.
La solution innovante : le “docteur” en IA
Face à cette menace, l’équipe d’Emmanuel a développé une approche révolutionnaire : créer un “docteur” spécialisé dans le diagnostic des modèles d’IA. Ce système de détection peut identifier si un modèle a été empoisonné en analysant uniquement ses poids internes, sans avoir accès aux données d’entraînement originales.
La méthodologie de recherche s’appuie sur une approche rigoureuse et extensive. L’équipe a créé 1000 ensembles de données d’entraînement soigneusement vérifiés et non contaminés, puis a entraîné 1000 modèles correspondants. Parmi ces modèles, les 950 présentant les meilleures performances ont été sélectionnés pour l’analyse approfondie.
Le processus d’analyse se concentre sur l’architecture des réseaux de neurones convolutifs, particulièrement sur les trois couches denses et la couche de classification finale utilisant une fonction sigmoïde. Chaque couche contient des neurones qui apprennent et retiennent l’information sous forme de poids, des valeurs numériques représentant la connaissance acquise par le modèle.
La transformation des poids en images diagnostiques
L’innovation majeure réside dans la transformation des poids du modèle en images analysables. Emmanuel explique que les poids d’un modèle varient généralement entre -1 et 1, des valeurs difficiles à interpréter directement. L’équipe a développé un algorithme propriétaire capable de convertir ces poids en valeurs d’intensité d’image (de 1 à 255), créant ainsi des représentations visuelles des états internes du modèle.
Cette approche s’inspire de l’imagerie médicale : tout comme un cerveau humain peut être analysé par radiographie, le “cerveau” d’un modèle d’IA peut être “radiographié” en convertissant ses poids en images. Cette analogie n’est pas qu’une métaphore ; elle constitue la base technique de leur méthode de diagnostic.
Le système utilise deux docteurs spécialisés, chacun entraîné sur des images de dimensions différentes extraites de couches distinctes du modèle analysé. Le premier docteur analyse des images de 100x100 pixels, tandis que le second traite des images de 200x200 pixels. Cette approche multicouche permet une analyse plus complète et nuancée des modèles suspects.
L’apprentissage d’ensemble et les performances
La combinaison des deux docteurs spécialisés à travers l’apprentissage d’ensemble (ensemble learning) produit un diagnostic final plus précis que chaque docteur individuellement. Cette synergie permet d’atteindre des taux de réussite impressionnants de 98% à 99% dans la détection des modèles empoisonnés.
La validation de ces performances s’effectue sur des modèles que les docteurs n’ont jamais vus pendant leur entraînement. L’équipe utilise des bases de données publiques reconnues comme MNIST Fashion et des données de plaques d’immatriculation disponibles publiquement. Cette approche garantit l’objectivité des résultats et la capacité de généralisation du système.
Les défis de la détection à faible contamination
Cependant, la détection devient plus complexe lorsque le niveau de contamination diminue. À 1% de contamination, le taux de réussite chute à 77%, révélant les limites actuelles de la technologie. Cette limitation est critique car les adversaires sophistiqués privilégieront naturellement des niveaux de contamination faibles pour éviter la détection.
Emmanuel explique que l’amélioration de ces performances nécessite l’optimisation des hyperparamètres et l’exploration de nouvelles techniques d’apprentissage automatique. Néanmoins, il souligne un aspect rassurant : l’analyse du rapport signal/bruit révèle que les modèles empoisonnés à très faible niveau présentent souvent un bruit supérieur de 4% aux modèles sains, les rendant potentiellement inutilisables en pratique.
Applications critiques et enjeux sociétaux
L’importance de cette recherche transcende les aspects purement techniques. Emmanuel souligne les applications critiques où l’empoisonnement de modèles pourrait avoir des conséquences dramatiques : détection de cancer, diagnostic médical, reconnaissance de plaques d’immatriculation pour les systèmes de sécurité routière.
Il illustre ces risques par un exemple concret : un modèle empoisonné de reconnaissance de plaques pourrait identifier incorrectement le véhicule d’un délinquant en fuite, envoyant la convocation à une personne innocente. Ces erreurs ne sont pas de simples dysfonctionnements techniques, mais des failles de sécurité aux conséquences sociales et judiciaires importantes.
L’écosystème d’IA et ses vulnérabilités
Un aspect particulièrement préoccupant concerne l’écosystème actuel de l’IA. De nombreuses applications utilisent des APIs payantes comme celle de ChatGPT sans vérification de l’intégrité des modèles sous-jacents. Les développeurs intègrent ces services par confiance, sans moyens de vérifier si les modèles ont été compromis.
Cette situation crée une chaîne de vulnérabilités où la contamination d’un modèle central peut affecter des milliers d’applications dérivées. L’objectif d’Emmanuel est de fournir des outils forensiques permettant de vérifier l’intégrité des modèles avant leur mise en production, même sans accès complet au modèle original.
Perspectives et développements futurs
La recherche continue d’évoluer vers une meilleure adaptation aux différentes architectures de modèles. L’équipe développe des algorithmes capables d’ajuster automatiquement l’analyse en fonction de l’architecture spécifique de chaque modèle testé, améliorant ainsi la précision et la polyvalence du diagnostic.
Les travaux s’étendent également vers l’analyse de modèles publics disponibles sur des plateformes comme Hugging Face, bien que cette phase n’ait pas encore été complètement mise en œuvre. Cette extension permettrait de cartographier la prévalence réelle de l’empoisonnement dans l’écosystème d’IA public.
Conclusion et mission de sensibilisation
Au-delà des aspects techniques, Emmanuel porte une mission de sensibilisation cruciale. Il cherche à éveiller les consciences sur l’existence réelle des modèles empoisonnés et leurs implications. Alors que l’adoption de l’IA s’accélère dans tous les secteurs, la compréhension de ces vulnérabilités devient essentielle pour un déploiement sécurisé.
Cette recherche représente une contribution significative à la sécurisation de l’écosystème d’intelligence artificielle, offrant des outils concrets pour détecter et prévenir les attaques par empoisonnement de modèles, tout en sensibilisant la communauté aux enjeux critiques de sécurité dans l’ère de l’IA généralisée.
Collaborateurs
Crédits
- Montage par Intrasecure inc
- Locaux réels par Cybereco
Tag: ia
Tweet












