Intelligence artificielle et cybersécurité : entre promesses et nouveaux risques

Temps de lecture : 5 min

Partager cette publication

Intelligence artificielle et cybersécurité : entre promesses et nouveaux risques

Un article rédigé par Pierre-Olivier.H et Jean-Philippe.G du groupe Salvia Développement, adhérent de Mieux Entreprendre.

L’intelligence artificielle transforme profondément notre quotidien et le domaine de la cybersécurité est naturellement concerné. Entre promesses de détection avancée, automatisation des tâches et accélération de processus, elle devient à la fois un outil puissant pour la défense et un vecteur de nouveaux risques. En effet, les mécanismes de protection peuvent également être exploités par des attaquants. De plus, les IA elles-mêmes introduisent des illusions de contrôle, de productivité et de maîtrise des données qui peuvent avoir un effet délétère sur la sécurité.

Chez Mieux Entreprendre, nous accompagnons quotidiennement des dirigeants et créateurs d’entreprise dans leur développement. Notre mission est aussi d’aider chacun à comprendre et à s’approprier les outils d’aujourd’hui et l’IA en fait désormais partie intégrante. Car bien utilisée, elle peut devenir un véritable levier de productivité, de créativité et de croissance, sans nécessiter de compétences techniques particulières.


Cet article explore les différentes interactions entre l’IA et la sécurité, mettant en lumière les limites techniques, les dépendances opérationnelles ainsi que les paradoxes sociologiques de l’IA dans notre quotidien.

1. L'IA dans la lutte contre les cybermenaces : arme à double tranchant et boîte noire

L’intelligence artificielle change le paysage de la cybersécurité. Les équipes défensives s’appuient de plus en plus sur des modèles de machine learning capables de détecter des signaux dits faibles, et autrefois invisibles avec les méthodes traditionnelles : corrélations complexes d’événements, comportements anormaux ou encore patterns¹ identifiés dans plusieurs milliers d’attaques antérieures.


Malgré cette avancée significative du côté défensif, une symétrie inquiète : les attaquants font de même ! Les pirates entraînent leurs IA pour améliorer le phishing, adapter des charges malveillantes en temps réel ou encore pour contourner des défenses basées sur les mêmes principes d’apprentissage. Chaque progrès défensif s’accompagne immédiatement d’une intégration dans les pipelines offensifs. L’automatisation crée alors un champ de bataille où la vitesse et l’adaptabilité priment, au détriment du temps d’analyse humaine.


À cela s’ajoute un défaut critique : l’opacité. En effet, ces modèles sont capables d’indiquer qu’une attaque est en cours, parfois même avant son déclenchement actif, mais peinent dans le même temps à dire où, comment et d’où elle provient, car les IA génératives fonctionnent en boîte noire et ne sont pas à ce jour prévues pour expliquer l’enchaînement qui les a amenées à produire un résultat (nous faisons exprès d’éviter le mot « raisonnement », car les IA génératives ne raisonnent pas mais produisent du contenu statistiquement le plus probable). La sécurité devient alors une suite d’actions correctrices déclenchées par une alerte dont la justification reste obscure.
Autrement dit : la défense gagne en rapidité, mais perd en compréhension, ce qui, d’un point de vue cyberdéfense, empêche de comprendre l’attaque pour anticiper la suivante.

2. IA et accès aux données : un contrôle illusoire

Un danger plus subtil émerge : le non-respect des protocoles d’accès traditionnels par l’IA. Contrairement à un système conventionnel, les IA génératives ne se contentent pas d’ouvrir un fichier ou de lire un flux lorsqu’on leur en donne le droit. L’IA utilise sa capacité d’ingestion et d’apprentissage sur l’ensemble des données disponibles en amont. Cette masse de données est nécessaire pour que l’IA « apprenne » le mieux possible, mais a pour défaut que l’utilisation de l’IA, une fois qu’elle a appris, peut éventuellement dévoiler les informations d’apprentissage, y compris celles non explicitement destinées à être divulguées lors de sa mise en œuvre, puisque aucun mécanisme d’autorisation granulaire n’existe alors. L’IA a besoin de tout voir, et elle n’a aucune capacité à distinguer ensuite ce qui relève du secret : elle sait ou elle ne sait pas, mais n’a pas de nuance supplémentaire.

C’est ce qu’a illustré la faille “EchoLeak” : il s’agit d’une vulnérabilité zéro-click dans Microsoft 365 Copilot qui permet, via un simple courriel, d’extraire des données organisationnelles sensibles (fichiers SharePoint, OneDrive, messages Teams, etc.) sans que l’utilisateur cible n’interagisse directement.


L’alerte se situe dans la violation de portée LLM² : le modèle IA utilise des silos de données internes qui sont déjà accessibles ou préchargés dans le contexte organisationnel pour formuler une réponse, même si, dans l’usage courant, les ACL³ ou les permissions utilisateur n’auraient pas permis à l’utilisateur de l’IA d’avoir accès à ces données. L’IA a servi de cheval de Troie, par son manque de discrétion inné sur les données qui lui ont servi à se former.


La seule protection réellement efficace consiste à restreindre strictement dès le départ ce que l’IA peut ingérer via une gouvernance de données rigoureuse, des silos limités, des labels de sensibilité appropriés ainsi que des audits réguliers. Les mesures appliquées après ingestion, comme les MCP⁴, ne suffisent pas à empêcher des fuites potentielles. Mais ceci se fait au prix d’un apprentissage de qualité réduite, car la qualité des réponses augmente avec le volume de données d’apprentissage. A ce jour, il n’existe aucun moyen de dire à l’IA « je te donne cette donnée pour que tu te crées un modèle de raisonnement, mais ne la diffuse pas », tout simplement parce qu’encore une fois, une IA ne raisonne pas mais recrache les données qu’on lui a fournies en construisant une réponse basée sur des statistiques de parcours de vecteurs.

3. Dépendance technologique : quand l'IA devient un point de fragilité

Aujourd’hui, la plupart des organisations peuvent fonctionner sans IA avancée. Mais à mesure que ces outils s’intègrent dans notre quotidien et dans nos différents processus métier, une dépendance opérationnelle peut rapidement se créer.


Dans un contexte géopolitique instable, un fournisseur stratégique est susceptible de subir des pressions d’ordre politique ou économique, pouvant altérer ses conditions d’accès. Une telle situation pourrait engendrer, pour l’organisation dépendante de l’IA, non seulement une perte de ses capacités opérationnelles, mais aussi une partie de son patrimoine cognitif, incluant connaissance et expériences capitalisées.


Il est donc essentiel de prendre en compte la disponibilité de ces outils dans la sûreté de fonctionnement et de maintenir la possibilité d’une continuité opérationnelle basée sur les capacités humaines de production d’information.

4. Fuite de données intellectuelles : le risque d'une IA trop ouverte

Un autre danger, plus humain que technique, réside dans l’usage non contrôlé des IA génératives par les collaborateurs.


Dans un contexte de travail sous pression, il est tentant d’utiliser des outils comme ChatGPT, Copilot ou encore Claude pour accélérer la rédaction d’un code, d’un rapport ou d’une documentation technique. Pourtant, ce réflexe peut conduire à des fuites de propriété intellectuelle majeures.


Les modèles d’IA s’entraînent ou se réajustent parfois sur les données fournies par leurs utilisateurs. Lorsqu’un collaborateur y insère des éléments sensibles comme du code source, de l’architecture réseau, des études de marché ou plus généralement, de la donnée confidentielle, ces contenus peuvent, selon la politique de l’éditeur, être réutilisés pour affiner le modèle.


Dans certains cas, ils peuvent même réapparaître dans les réponses d’autres utilisateurs, comme cela a pu se passer en Corée du Sud en 2024 : des chercheurs avaient soumis à une IA grand public des extraits d’un projet de brevet, que l’outil a ensuite mis en avant à d’autres internautes interrogeant sur le même sujet.


Ce type d’incident illustre parfaitement le risque d’exfiltration involontaire de données confidentielles, échappant à tout contrôle interne.

La prévention passe alors par quatre leviers :
• Sensibiliser les collaborateurs à ne jamais utiliser d’IA publique pour traiter ou reformuler des données sensibles ;
• Encadrer les usages via des politiques claires (Charte IA, PSI⁵, procédure d’allocation de licences, etc.) ;
• Paramétrer les comptes d’IA pour empêcher les modèles d’apprendre sur les données saisies, cette option fonctionne souvent en “opt-out”⁶, activable depuis la console d’administration ou les paramètres de compte individuel ;
• Surveiller les usages et auditer les flux de données sortants, notamment lorsque des connecteurs IA sont intégrés à des outils collaboratifs.


L’IA ne vole pas la donnée, elle la mémorise ; et dans un environnement non maîtrisé, cette mémoire devient un risque de fuite à grande échelle.

Conclusion : entre sécurité, psychologie et sûreté de fonctionnement

L’IA et la sécurité ne doivent pas être traitées comme deux silos distincts. Elles s’influencent mutuellement tout en introduisant de nouveaux risques psychologiques, sociologiques et techniques.


Acquérir de la maturité sur l’IA ne se résume pas à son utilisation, mais nécessite également un sens critique nécessaire pour identifier les contextes où son utilisation pourrait compromettre la sécurité globale, dont les exigences sont en constante évolution. La véritable sécurité dans un monde entouré d’IA reste la maîtrise effective des données et des usages qui en sont faits.

Glossaire

¹ Pattern — Motif récurrent ou modèle de comportement observé dans plusieurs attaques, permettant de détecter des menaces similaires.

² LLM (Large Language Model) — Modèle d’intelligence artificielle de grande taille, utilisé pour générer du texte en fonction de probabilités statistiques.

³ ACL (Access Control List) — Liste de contrôle d’accès définissant les droits des utilisateurs sur une ressource.

⁴ MCP (Model Control Policy) — Ensemble de règles appliquées à une IA après apprentissage pour filtrer ou restreindre ses réponses.

⁵ PSI (Politique de Sécurité de l’Information) — Document qui définit les principes et bonnes pratiques de protection de l’information dans l’entreprise.

⁶ Opt-out — Fonctionnalité activée par défaut que l’utilisateur doit désactiver s’il ne souhaite pas y participer (ex. apprentissage automatique sur les données).

Un article rédigé par Pierre-Olivier.H et Jean-Philippe.G du groupe Salvia Développement, adhérent de Mieux Entreprendre.

Plus de contenu

Vous voulez booster votre entreprise?

Rejoignez le réseau le plus dynamique d'Ile-de-France !