IA en entreprise – comment en faire un levier de performance grâce au juridique, à l’IT et à l’humain
25 novembre 2025.
Retour sur le webinar ITLAW Avocats & MonCIO – 7 novembre 2025
Marine Hardy, Avocate et directrice des pôles innovations et sécurité chez ITLAW Avocats, et Pierre-Albert Carlier, DSI de transition et CEO de MonCIO, partagent leur vision croisée, juridique et opérationnelle, sur l’IA, sujet qui transforme les organisations.
L’intelligence artificielle est devenue un outil incontournable dans l’entreprise. Présente dans les systèmes d’information, la relation client, la production ou la gestion des données, elle bouleverse à la fois les méthodes, les responsabilités et la gouvernance. Encore faut-il savoir l’utiliser avec discernement.
Comprendre la logique de l’IA pour mieux la maîtriser
L’IA n’est pas une entité autonome, mais la rencontre entre notamment trois leviers technologiques : la puissance de calcul, les algorithmes et les données. Leur combinaison rend possible l’apprentissage automatique, la génération de contenu ou l’analyse prédictive à grande échelle. Mais, rappelle Pierre-Albert Carlier, « une IA ne comprend rien : elle calcule, elle prédit, elle optimise, mais elle n’interprète pas ». Cette absence d’intention impose de garder l’humain au centre du contrôle.
Redéfinir les responsabilités dans les projets IA
Les projets d’IA se caractérisent par une forte transversalité : métiers, IT, prestataires, juristes et data scientists interviennent simultanément. Ce fonctionnement oblige à clarifier les responsabilités et à documenter les choix techniques et contractuels. « L’un des enjeux majeurs, c’est de savoir qui fait quoi. Les entreprises ne peuvent plus se contenter de clauses génériques, elles doivent organiser précisément la responsabilité de chacun dès la contractualisationception », souligne Marine Hardy. Sans cette répartition claire, les projets courent le risque de créer des zones grises, sources de défaillances techniques risques juridiques ou de litiges.
Des risques à anticiper, pas à subir
Les risques liés à l’IA sont multiples : sécurité, dépendance technologique, biais, erreurs de traitement ou atteintes à la confidentialité. Certains risques peuvent être réduits par des mesures techniques, d’autres par des clauses contractuelles adaptées ou par une meilleure organisation interne. « Ces projets font apparaître des trous dans la raquette, à savoir des zones où personne n’est clairement responsable. C’est là que se logent les risques budgétaires et juridiques », avertit Marine Hardy.
Les biais constituent un défi particulier. Ils reflètent les inégalités présentes dans les données d’apprentissage. Les IA médicales diagnostiquent parfois moins bien certaines populations, et les générateurs d’images véhiculent des stéréotypes de genre. « Ces biais ne sont pas des bugs, mais des reflets statistiques du monde. La seule façon de les corriger, c’est d’y opposer l’intelligence humaine », insiste Pierre-Albert Carlier.
Encadrer les usages internes et les relations fournisseurs
L’usage non encadré de l’IA dans les entreprises génère de nouveaux risques , comme la saisie de données sensibles dans des outils publics, l’intégration de solutions sans validation technique, ou la dépendance vis-à-vis de prestataires. Plutôt que d’interdire, il faut sensibiliser. « Interdire ne fonctionne pas. Il faut expliquer, encadrer, former. Une politique claire vaut mieux qu’un tabou. Même si l’entreprise dit ne pas utiliser d’IA, ses collaborateurs le font déjà », constate Pierre-Albert Carlier.
Les fournisseurs doivent eux aussi être questionnés : quelles IA utilisent-ils ? Comment garantissent-ils la confidentialité des données ? Ont-ils formé leurs équipes ? Cette transparence devient une condition essentielle des relations contractuelles. Elle interroge aussi la valeur du travail produit : « Si un prestataire développe grâce à l’IA en dix jours ce qu’il faisait autrefois en soixante, pourquoi le payer au même prix ? »
Un cadre juridique en évolution rapide
Le règlement européen sur l’intelligence artificielle (AI Act) pose une approche fondée sur le niveau de risque des usages de systèmes d’IA. Les systèmes à risque inacceptable – notation sociale, manipulation comportementale, exploitation de la vulnérabilitié – sont interdits. Les IA à haut risque, utilisées notamment dans la santé ou la sécurité, sont soumises à des obligations de conformité, tandis que les usages courants doivent répondre à des exigences de transparence.
Ce cadre marque une avancée majeure, mais ne lève pas toutes les ambiguïtés. Des tensions persistent avec le RGPD, notamment sur la traçabilité des apprentissages ou la responsabilité des traitements. « Le règlement IA est un premier socle, mais il ne suffira pas. Nous constatons déjà des frictions avec le RGPD et de futurs ajustements seront nécessaires », note Marine Hardy.
Le contrat, pilier de la maîtrise juridique
Dans ce contexte mouvant, le contrat reste le meilleur outil de sécurité. Il doit définir la propriété des données, la réversibilité, la responsabilité en cas d’erreur ou de biais, les modalités de mise à jour et les limites d’indemnisation. « L’IA remet en cause la frontière entre fournisseur et client, on co-produit de la valeur, mais aussi du risque », rappelle Marine Hardy. Adapter les clauses contractuelles permet d’anticiper les contentieux et de préserver la performance du projet.
Vers une gouvernance intégrée et pragmatique
La mise en place d’une gouvernance adaptée est essentielle : audit des usages, chartes internes actualisées, politiques différenciées selon les profils, formations, documentation et suivi des projets. Ce travail ne relève pas de la conformité pure, mais d’une stratégie de pilotage. Il permet de créer une culture commune de maîtrise de l’IA et d’éviter les dérive.
De la conformité à la performance
« L’IA n’est pas une menace. C’est un outil d’optimisation, d’aide à la décision et de gain de temps. Mais comme tout outil puissant, elle exige une structure », résume Pierre-Albert Carlier.
Faire de l’IA un levier durable suppose d’articuler trois dimensions : le juridique, pour poser le cadre ; l’IT, pour garantir la robustesse technique ; et l’humain, pour conserver la capacité de discernement. « Concilier performance, conformité et éthique suppose une approche transversale, capable de relier le droit, la technologie et la culture d’entreprise », conclut Marine Hardy.
Pour approfondir ces sujets, ITLAW Avocats propose des formations dédiées à l’IA en entreprise alliant expertise juridique et retour d’expérience opérationnel.
Nous contacter


