par extraction automatique des données. Malgré leur pseudonymisation avant leur transmission au ministère de la justice (occultation des noms et prénoms des personnes physiques parties aux instances concernées), le maintien d’autres éléments d’identification (date de naissance, lien de parenté), soumet le traitement Datajust au dispositif européen de protection des données personnelles (RGPD) et à la loi Informatique et libertés. En ce qu’il porte sur des données sensibles, il relève de la procédure de décret en Conseil d’Etat après avis de la CNIL, laquelle consultée à deux reprises, s’est prononcée par délibérations  des 13 juin 2019[iii] , puis du 9 janvier 2020.

Au-delà de l’alerte quant aux risques de voir le développement du traitement algorithmique biaisé par des pratiques discriminatoires, l’autorité de protection des données française a rappelé les principes cardinaux de vigilance et de loyauté. Elle a demandé, dans l’hypothèse de la pérennisation du dispositif à des fins de mise à disposition du public, que lui soit transmis le bilan de la phase de développement la description détaillée des algorithmes.

Le décret ainsi publié détermine les différentes finalités de traitement, donne la liste des informations traitées par catégories, limite leur durée de conservation à celle nécessaire au développement de l’algorithme, et circonscrit leur accès aux seuls agents du ministère de la justice ayant le besoin d’en connaître.

Les droits des personnes concernées, parties au litige, sont maintenus du fait de la pseudonymisation (et non de l’anonymisation) des données. En raison des efforts disproportionnés qu’exigerait une information individuelle, une information collective sera diffusée via le site du ministère de la justice notamment. L’exercice des droits conférés aux intéressés nécessitera, en l’absence de mention des noms dans les décisions, la communication du numéro de la décision. Enfin, l’objectif général d’intérêt général d’accessibilité au droit que présente le dispositif, ne permettra pas aux intéressés d’invoquer leur droit d’opposition.

Face à l’ampleur des développements des algorithmes et à leur complexité, la récente recommandation du Conseil de l’Europe met en garde les États sur la nécessité de veiller à ce que leurs systèmes algorithmiques intègrent, dès leur conception, des dispositifs aptes à protéger les droits fondamentaux de l’individu parmi lesquels le droit au procès équitable et  à l’égalité des traitements. Au centre de ces enjeux, le contrôle de  la qualité et de  la provenance des jeux de données et les risques inhérents à leur utilisation de manière inappropriée ou décontextualisée.

 

 Odile Jami-Caston, Directrice du Pôle Data Privacy & RGPD Compliance

 Claudia Weber, Avocat Fondateur, expert contrats IT

 

[i] https://search.coe.int/cm/pages/result_details.aspx?ObjectId=09000016809e1124

[ii] https://www.legifrance.gouv.fr/affichTexte.do?cidTexte=JORFTEXT000041763205&categorieLien=id

[iii] https://www.legifrance.gouv.fr/affichCnil.do?id=CNILTEXT000038629823

 

 

Vous travaillez sur un projet de traitement de données personnelles et souhaitez le mettre en conformité  ?

Le Cabinet ITLAW Avocats, fort de son expertise depuis plus de 25 ans en matière de nouvelles technologies et de protection des données  est à votre disposition pour vous accompagner.

Pour nous contacter : cliquez ici

 

 

 

Nous contacter