« Développer la confiance dans l’IA à travers une approche par les risques cyber », recommandations de l’ANSSI pour faire face aux risques cyber liés à l’IA.

A l’occasion du Sommet pour l’Action sur l’Intelligence artificielle (ou sommet IA) qui a eu lieu à Paris entre le 6 et le 11 février 2025, l’ANSSI publie une analyse commune haut niveau des risques cyber liés à l’IA. Cosigné par plus d’une vingtaine d’agences et d’autorités gouvernementales internationales, ce document met en avant l’importance d’une approche par les risques pour promouvoir l’utilisation de systèmes d’IA de confiance et sécuriser leur chaîne de valeur.

Il souligne aussi la nécessité de poursuivre les discussions sur les opportunités et les risques de l’IA, en particulier les menaces cyber, et d’adopter des mesures de cybersécurité dès la conception des systèmes d’IA. Le but de cette analyse est aussi de mettre en garde contre les vulnérabilités spécifiques à l’IA, notamment en matière de confidentialité et d’intégrité des données, appelant à une cyberdéfense renforcée utilisant des technologies d’IA de confiance.

Est également pointée du doigt l’utilisation malveillante de l’IA, qui pourrait faciliter des attaques à grande échelle.

Enfin, ce document propose des lignes directrices pour développer des systèmes d’IA de manière sécurisée.

 

Quels sont les principaux risques et scénarios d’attaque ?

Les attaques sur les systèmes d’IA peuvent survenir à tout moment, depuis la collecte des données brutes par le système d’IA et jusqu’à la phase d’inférence. L’ANSSI distingue 3 types d’attaques, à savoir :

  • L’empoisonnement, qui consiste à modifier le comportement et les données de sortie ou prompts de l’IA en « empoisonnant » les données utilisées pour l’entrainement et l’alimentation de cette IA ;
  • L’extraction, qui permet de récupérer des données confidentielles de l’IA suite à la phase d’apprentissage ; et
  • L’évasion, qui consiste en une altération du fonctionnement de l’IA engendrée par une altération des données d’entrée.

L’ANSSI met aussi l’accent sur le manque de transparence des systèmes d’IA, ce qui complique la mise en place de mesures de sécurité efficaces. Elle identifie cinq scénarios de risques principaux qui rendent l’identification et l’anticipation des risques et incidents potentiels liés à l’IA plus complexes :

1/ La « compromission de l’infrastructure d’hébergement et d’administration des systèmes d’IA » peut exposer ces systèmes à des attaques ciblées, compromettant ainsi la confidentialité, l’intégrité et la disponibilité d’un système d’IA.

2/ « la compromission de la chaîne d’approvisionnement », où une attaque sur une des parties vulnérables de la chaine d’approvisionnement pourrait compromettre l’ensemble du système.

3/ La « latéralisation via les interconnexions entre les systèmes d’IA et les autres systèmes » peut permettre à des attaquants de se déplacer latéralement et de compromettre plusieurs systèmes interconnectés.

4/ Les « lacunes humaines et organisationnelles », telles que le manque de formation ou de sensibilisation à la cybersécurité, peuvent entraîner des erreurs ou des négligences exploitables par les attaquants.

5/ Le « dysfonctionnement dans les réponses apportées par un système d’IA », où des attaques sur les bases de données d’entrainement auront pour conséquence des réponses erronées une fois arrivés au stade de la production.

 

Quelles sont les principales recommandations pour les utilisateurs, les fournisseurs et les développeurs des systèmes d’IA ?

L’ANSSI propose plusieurs recommandations pour les utilisateurs, fournisseurs et développeurs de systèmes d’IA afin de renforcer la sécurité et la fiabilité de ces technologies, notamment :

  • Calibrer le niveau d’autonomie des systèmes d’IA en fonction des risques et des besoins spécifiques du métier, en ayant recours à une intervention humaine si nécessaire.
  • Transparence dans la chaîne d’approvisionnement, notamment concernant les données d’approvisionnement et d’entraînement, pour limiter les risques liés à l’empoisonnement des données.
  • Réduire les interconnexions entre différents systèmes d’IA permet de minimiser les chemins d’attaque potentiels, accompagnée d’une supervision continue et d’une maintenance régulière.
  • Rester informé des nouvelles menaces et des évolutions liées à l’IA en mettant en place des systèmes de veilles technologiques et réglementaires.
  • Formation des équipes et sensibilisation interne aux enjeux et risques liés à l’IA pour garantir une utilisation sûre et appropriée des systèmes d’IA.

 

Des recommandations pour les décideurs ?

L’ANSSI conclut avec des recommandations pour les décideurs, en tenant compte des contextes régionaux et nationaux des différents cosignataires. Elle insiste notamment sur :

  • le soutien à la recherche de méthodes pour limiter les risques liés à l’IA, aux nouvelles technologies et aux données.
  • al promotion et le renforcement de la confiance dans les systèmes d’IA passent par une évaluation et une certification standardisée, ainsi que par l’établissement de lignes directrices et de guides de bonnes pratiques en cybersécurité pour sécuriser le déploiement et l’hébergement des systèmes d’IA.
  • Le besoin de favoriser le dialogue et la coordination entre les entités spécialisées en cybersécurité et celles liées à l’intelligence artificielle, même au-delà du Sommet IA.

Ces efforts visent à créer un environnement où les systèmes d’IA peuvent être développés et utilisés de manière sécurisée et fiable, tout en maximisant les opportunités offertes par ces technologies.

 

Que faut-il retenir ?

  • L’ANSSI et plus de 20 agences internationales soulignent l’importance d’une approche par les risques pour sécuriser les systèmes d’IA et leur chaîne de valeur, en mettant en garde contre les vulnérabilités spécifiques à l’IA.
  • Les attaques peuvent survenir à différentes étapes du cycle de vie de l’IA et se classent en trois catégories principales : empoisonnement des données, extraction de données confidentielles, et évasion par altération des données d’entrée.
  • L’ANSSI recommande de limiter les interconnexions entre systèmes, d’assurer une transparence dans la chaîne d’approvisionnement, et de maintenir une supervision continue et une veille technologique pour rester à jour sur les nouvelles menaces.
  • Quant aux décideurs, ils devraient avoir pour objectif de promouvoir la recherche sur les méthodes de limitation des risques, renforcer la confiance dans les systèmes d’IA via des évaluations et certifications standardisées, et favoriser le dialogue entre les entités spécialisées en cybersécurité et en intelligence artificielle.

Lien vers les recommandations de l’ANSSI : ICI 

 

Claudia Weber, Avocat fondateur du Cabinet ITLAW Avocats et Nadim Hoyeck, juriste stagiaire, ITLAW Avocats

Et vous ? Où en êtes-vous ?

Besoin d’aide pour la mise en place de votre projet d’IA au sein de votre organisation ?

Le Cabinet ITLAW Avocats, fort de son expertise depuis plus de 30 ans en matière de nouvelles technologies, d’innovation, de propriété intellectuelle, sécurité et de protection des données personnelles est à votre disposition pour répondre à vos questions et trouver les solutions adaptées à votre contexte et vos besoins.

ITLAW Avocats mobilise ses talents et son expertise en matière d’innovations technologique, sécurité, protection des    données personnelles, de projets informatiques complexesde contrats, et de propriété intellectuelle  ainsi que sa connaissance de l’écosystème IT et son expertise en matière de négociation pour vous accompagner dans la sécurisation de vos projets complexes.

 

Nous contacter