IA GENERATIVE : Comment concilier protection de vos données, sécurité et innovation ?
13 novembre 2025.
L’IA générative transforme déjà notre manière de travailler : rédaction de contenu, textes, création d’images, génération de codes informatiques ou d’analyses prédictives… Même si les entreprises cherchent encore leur ROI, les gains de productivité semblent présents. Derrière cette révolution se cache un risque majeur : l’exposition du patrimoine immatériel et informationnel de l’entreprise. Une donnée ou une information mal utilisée, un prompt imprudent ou un livrable non retravaillé par l’humain, peuvent fragiliser l’activité et la réputation d’une organisation. En revanche, bien encadrée juridiquement, l’IA devient un véritable levier de compétitivité.
Risques de divulgation d’informations
Les principaux risques inhérents à l’usage de l’IA résident dans la divulgation d’informations, quelle que soit leur nature (confidentielle ou non, sensible ou non…), le non-respect de la propriété intellectuelle et des réglementations telles que le RGPD… En 2025, plusieurs incidents ont révélé la publication accidentelle d’échanges confidentiels avec des IA. Selon Harmonic Security1, plus de 4 % des 10 millions de prompts et près de 22 % des 20 000 fichiers analysés contenaient des données sensibles d’entreprise.
Un patrimoine immatériel à protéger
Les informations, données et savoir-faire de l’entreprise constituent un actif stratégique. Leur perte ou leur exploitation par un tiers peut générer une perte de valeur, de confiance, des litiges et une atteinte à la réputation. La protection de ce patrimoine passe par 4 étapes : inventorier les informations critiques, les qualifier juridiquement (secret d’affaires, base de données, propriété intellectuelle…), identifier les réglementations applicables (AI Act, RGPD, Data Act), puis mettre en place des mesures de protection adaptées.
Des clauses à ajouter dans les contrats avec vos prestataires
L’utilisation d’IA requiert une vigilance contractuelle renforcée vis-à-vis des prestataires : respect des réglementations, confidentialité, propriété intellectuelle, sécurité, performance, garanties sur les résultats ou encore la réversibilité des données, qui constituent autant de clauses essentielles à négocier.
Un risque encore trop souvent sous-estimé concerne l’usage de l’IA générative dans les livrables clients. L’affaire Deloitte en Australie illustre bien ces dérives : Comme le rapporte Le Figaro2, le cabinet aurait utilisé GPT-4o pour rédiger un rapport remis au ministère de l’Emploi, truffé de références fictives et d’erreurs factuelles. Résultat : scandale public, remboursement exigé et atteinte sévère à la réputation. Désormais, les contrats doivent prévoir notamment : une obligation de transparence sur l’usage de l’IA (pour la production d’un livrable, pour le pilotage du projet ect…), une vérification humaine systématique avant toute livraison de livrable doit être garantie, une clause de confidentialité renforcée et spécifique ainsi qu’une clause de responsabilité en cas de contenu erroné généré par l’IA.
Le rôle clé de la direction juridique
La direction juridique joue un rôle clé pour encadrer l’usage de l’IA : rédiger des chartes d’usage des IA (interne et externe), former les collaborateurs et instaurer une gouvernance impliquant DPO, IT, compliance et métiers. Sans ce cadre, l’IA devient un facteur de risques importants dans l’exploitation des résultats générés qui peuvent notamment comprendre des biais, des hallucinations et des erreurs. Trois actions prioritaires s’imposent : Cartographier les usages et identifier les outils utilisés ; Rédiger une charte d’utilisation de l’IA ; Intégrer les clauses relatives à l’IA dans tous vos contrats.
Transformer l’IA en levier de confiance et de performance
Protéger son patrimoine informationnel, c’est préserver son activité, son développement et son avantage concurrentiel. L’IA peut devenir un outil de performance lorsqu’elle est utilisée pour des cas d’usage identifiés, dans un cadre structuré sur les plan juridiques et technologiques, avec des personnes formées.
En conclusion, cadrer l’usage de l’IA, en interne comme en externe, et négocier les clauses pertinentes avec vos prestataires afin de gérer la sécurité et l’usage de vos données, celui de l’IA et des résultats et s’assurer du respect des règlementations et la sécurité de votre SI, sont des impératifs incontournables pour concilier innovation, performances et sécurité juridique.
ITLAW Avocats accompagne ses clients dans cette démarche. Pour aller plus loin, contactez : claudia.weber@itlaw.fr
1 https://securitybrief.co.uk/story/sensitive-data-exposure-rises-with-employee-use-of-genai-tools
2 https://www.lefigaro.fr/societes/deloitte-contraint-de-rembourser-le-gouvernement-australien-pour-un-rapport-truffe-d-erreurs-realise-avec-l-ia-20251007
Claudia Weber, Avocat associé fondateur ITLAW Avocats.
Cet article est à retrouver dans la revue des Directions juridiques & conformité, par LegiTeam, n°108, Octobre – Novembre 2025.



