Actualités

Traitement de données personnelles lors du développement d’un système d'IA : la CNIL publie des fiches pratiques sur le recours à l'intérêt légitime

Le 19 juin 2025, la CNIL a publié deux nouvelles fiches pratiques sur l’intelligence artificielle, la première sur l'usage de l’intérêt légitime pour développer un système d’IA et la seconde sur la collecte de données via web scraping. Ces fiches visent à clarifier les règles applicables à la constitution de bases de données d’apprentissage contenant des données personnelles. 

Le 19 juin 2025, la CNIL a publié deux nouvelles fiches pratiques sur l'intelligence artificielle. La première précise les conditions d'usage de la base légale de l'intérêt légitime pour développer un système d'IA et la seconde traite plus spécifiquement de la collecte de données via "moissonnage" ou "web scraping" (voir notre post ici). Ces fiches visent à clarifier les règles applicables à la constitution de bases de données d'apprentissage contenant des données personnelles.

Dans la première fiche pratique, la CNIL explique les conditions à satisfaire pour pouvoir s'appuyer sur l'intérêt légitime comme base légale pour le traitement de données personnelles aux fins de développement d'un système d'IA.

Condition n°1 : L'intérêt poursuivi doit être légitime

La CNIL rappelle qu'un intérêt est présumé légitime lorsqu'il est à la fois (i) manifestement licite au regard du droit, (ii) déterminé de façon suffisamment claire et précise et (iii) réel et présent.

Lorsque l'utilisation du modèle n'est pas encore connue à la phase de développement, la CNIL recommande de faire référence à l'objectif visé par le développement du modèle.

Appliqué au développement de systèmes d'IA, la CNIL propose l'évaluation suivante : 

 

Intérêts présumés légitimes

Intérêts ne pouvant être considérés comme légitimes

Mener des travaux de recherche scientifique (notamment pour les organismes qui ne peuvent pas se fonder sur la mission d’intérêt public)

Le système d’IA envisagé n’a aucun lien avec la mission et l’activité de l’organisme

Faciliter l’accès du public à certaines informations

Le système d’IA envisagé ne peut pas être déployé légalement (par ex. traitement interdit par le DSA, etc.)

Développer de nouveaux systèmes et fonctionnalités pour les utilisateurs d’un service

Le système d’IA envisagé est catégoriquement interdit par d’autres réglementations que le RGPD (par ex. art 5 règlement sur l’IA sur les pratiques interdites en matière d’IA)

Proposer un service d’agent conversationnel pour assister les utilisateurs

 

Améliorer un produit ou un service pour augmenter sa performance

Développer unsystème d’IApermettant de détecter des contenus ou comportements frauduleux

Tout intérêt commercial, pour autant qu’il ne soit pas contraire à la loi et que le traitement soit nécessaire et proportionné.

 

La CNIL rappelle par ailleurs que dans certains cas, l'intérêt légitime n'exclut pas le recueil du consentement lorsqu'il est requis par d'autres législations (par ex. article 5.2 du DMA sur l'utilisation croisée des données personnelles).

Condition n°2: Le traitement doit être nécessaire

Un traitement est nécessaire lorsqu'il :

  • permet d'atteindre l'intérêt poursuivi ;
  • n'existe pas de moyens moins intrusifs pour la vie privée des personnes concernées pour atteindre l'objectif poursuivi ; et
  • respecte le principe de minimisation des données, le responsable de traitement devant s'assurer de la nécessité de traiter des données personnelles ou de les conserver sous une forme permettant l'identification directe ou indirecte des personnes. La CNIL encourage à ce titre les responsables de traitement d'avoir recours à des technologies permettant le développement de modèles dont l'entrainement nécessite de traiter moins de données.

Condition n°3: L'objectif poursuivi par le système d'IA ne menace pas les droits et libertés des individus

  • Analyser les incidences positives et négatives du système d'IA

Pour s'assurer que l'intérêt légitime poursuivi ne porte pas une atteinte disproportionnée aux intérêts, droits et libertés des personnes concernées, le responsable de traitement doit mesurer les avantages de son traitement ainsi que les impacts sur les individus concernés. Plus les bénéfices anticipés par un responsable de traitement sont importants, plus l'intérêt légitime du responsable de traitement est susceptible de prévaloir sur les droits et libertés des personnes.

Le responsable de traitement doit donc identifier les conséquences potentielles ou effectives que le développement du SIA, puis son utilisation, pourraient avoir sur les personnes concernées.

Pour mettre en balance l'intérêt légitime poursuivi avec les droits et libertés des personnes concernées, la CNIL identifie un ensemble de critères à prendre en compte. Ces éléments peuvent guider le responsable de traitement dans l'évaluation de la base légale d'intérêt légitime, ainsi que, le cas échéant, dans le cadre d'une analyse d'impact sur la protection des données (AIPD). 

 

Identification des bénéfices apportés par le systèmes d’IA

Identification des incidences négatives sur les personnes concernées

Ampleur et nature des bénéfices attendus du SIA pour le responsable de traitement et/ou des tiers (e.g. utilisateurs finaux du SIA), l’intérêt public ou de la société. Ex.: SIA permettant l’accessibilité à certains services pour des personnes en situation de handicap.

Nature des données: sensibles ou hautement personnelles?

Utilité du SIA pour se conformer à d’autres réglementations. Ex.: SIA permettant d’améliorer le processus de modération de contenu en ligne, conformément aux dispositions du DSA.

Statut des personnes concernées: personnes vulnérables? mineurs?

Développement du modèle en source ouverte

Statut de l’entreprise ou de l’administration développant et/ou déployant l’IA: plus le SIA sera déployé à large échelle plus le risque est important

Précision des intérêts poursuivis: plus la description de l’intérêt est précise, plus il pèsera dans la mise en balance.

Manière dont les données sont traitées (par ex. croisement de données envisagés?)

 

Type de système d’IA et usage opérationnel envisagé

 

La CNIL dresse une liste des incidences négatives selon qu'elles soient matérialisées à la phase de développement ou d'utilisation du système d'IA et devant, en tout état de cause, être prises en compte lors du développement du fait de leur caractère systémique.

 

Les incidences liées au développement du modèle d’IA

Les incidences liées à l’utilisation du modèle d’IA

Les risques relatifs à la collecte de données accessibles en ligne, notamment à l’aide d’outils de scraping, tels que l’atteinte à la vie privée des personnes et aux droits garantis par le RGPD, le droit de propriété intellectuelle ou certains secrets, et la liberté d’expression au regard du sentiment de surveillance que peut induire la collecte massive et généralisée des données

Les risques de mémorisation, d'extraction ou de régurgitation (pour les systèmes d'IA générative) de données personnelles lors de l’utilisation de certains systèmes d’IA, susceptibles de porter atteinte à la vie privée

Les risques de perte de confidentialité des données contenues dans la base de données ou dans le modèle, notamment la sécurité des bases de données d’apprentissage en cas de violation de données ou attaques spécifiques aux systèmes d’IA

Les risques d’atteinte à la réputation, de propagation de fausses informations ou encore d’usurpation d’identité, lorsque le système d’IA (particulièrement d’IA générative) produit du contenu sur une personne physique identifiée ou identifiable

Les risques liés à la difficulté de garantir l’effectivité de l’exercice des droits des personnes liés à aux obstacles techniques à l’identification des personnes concernées et à la difficulté de transmettre des demandes d’exercice des droits.

Les risques d’atteinte à certains droits ou secrets prévus par la loi (par exemple, le droit de propriété intellectuelle, comme le droit d'auteur, le secret des affaires ou encore le secret médical) en cas de mémorisation ou de régurgitation de données protégées

Les risques liés à la difficulté d’assurer la transparence des traitements auprès des personnes concernées, notamment au regard de la technicité des mécanismes d’apprentissage et l’opacité structurelle du développement des certains SIA.

Les risques éthiques graves, qui portent atteinte à certaines règles générales de droit ou au bon fonctionnement de la société dans son ensemble, liés au développement de certains systèmes d’IA (par ex. l’amplification de biais discriminatoires dans la base de données d’apprentissage, le défaut de transparence ou d’explicabilité, de robustesse ou encore les biais d’automatisation, etc.)

 

  • Evaluer les attentes raisonnables

Lorsqu'un traitement repose sur l'intérêt légitime, le responsable de traitement doit évaluer si les personnes concernées peuvent raisonnablement s'attendre à ce traitement, tant dans ses modalités que dans ses conséquences.

La CNIL identifie plusieurs éléments à prendre en compte pour évaluer les attentes raisonnables des personnes, selon la source des données :

 

Données collectées directement auprès des personnes

Données collectées en ligne (web scraping)

Nature de la relation entre la personne concernée et le responsable de traitement

Nature de la relation entre la personne concernée et le responsable de traitement

Paramètres de confidentialité choisis des données partagées

Restrictions explicites imposées par les sites internet (CGU, fichiers robots.txt, CAPTCHA, etc.). L’absence de respect de ces restrictions exclut que le traitement relève des attentes raisonnables

Contexte et nature du service où les données ont été collectées (IA ou non)

Nature des sites sources (réseaux sociaux, forums, etc.)

 

Finalité du traitement pour lesquelles les données sont collectées (ex : si une entreprise collecte les données collectées de ses clients afin de développer un outil qu’elle utilise seule mais qui n’est pas commercialisé par ailleurs)

Type de publication: publication publique (ex : blog) vs publication avec accès restreint (ex : post privé sur un réseau social)

Accessibilité publique ou non des données

 

  • Mettre en place des garanties additionnelles

Afin de limiter les impacts du traitement sur les personnes concernées et d'assurer un équilibre entre les droits et intérêts en jeu, la CNIL recommande la mise en place de techniques, organisationnelles ou juridiques additionnelles, destinées à réduire les risques d'atteinte aux droits et libertés. Ces mesures s'ajoutent aux obligations existantes issues du RGPD qui demeurent impératives, quelle que soit la base légale. Les garanties additionnelles doivent être proportionnées aux risques identifiés à chaque étape du développement. 

 

 

Redige par Joséphine Beaufour et Julie Schwartz.

Rechercher

Abonnez-vous pour recevoir du contenu personnalisé !