Introduction
À mesure que les systèmes d’apprentissage automatique (machine learning ou ML) et d’intelligence artificielle (IA) attirent une attention croissante, des interrogations majeures émergent quant à leur fiabilité. Les principales préoccupations portent sur l’équité, l’absence de biais, la protection des données personnelles, la transparence et la robustesse. Ces enjeux ont été abordés par les chercheurs sous divers angles. Pourtant, une difficulté juridique et réglementaire persistante demeure : comment vérifier qu’un système respecte véritablement ces exigences sans contraindre les développeurs à divulguer des données confidentielles telles que les dataset d’entraînement ou les paramètres internes du modèle ? Pour les juristes, la question centrale devient alors : comment les régulateurs, les tribunaux ou les autres parties prenantes peuvent-ils exiger des comptes aux développeurs, notamment au regard des règles de protection des données ou de propriété intellectuelle, lorsqu’un examen direct du modèle n’est pas envisageable ?
Pour comprendre une piste de solution, il convient d’abord de se familiariser avec certaines notions fondamentales en cryptographie et en apprentissage automatique. De manière simplifiée, un modèle d’apprentissage automatique est entraîné sur un ensemble de données afin d’en extraire des régularités, ce qui produit des « poids » guidant ses prédictions. Ces poids constituent souvent des secrets industriels hautement protégés. La cryptographie – en particulier les preuves à divulgation nulle de connaissance (zero-knowledge proofs ou ZKPs) – propose des mécanismes permettant de vérifier la véracité d’une affirmation sans révéler les raisons pour lesquelles elle est vraie. La combinaison de ces approches donne naissance à ce que l’on appelle le machine learning à divulgation nulle de connaissance (zero-knowledge machine learning ou zkML), une voie potentielle vers la vérification juridique et réglementaire de la conformité sans compromettre les informations sensibles.
Problèmes de confiance dans les systèmes d’IA et leur cadre juridique
L’entraînement d’un modèle peut être coûteux, et les poids qui en résultent constituent souvent l’actif stratégique central de la propriété intellectuelle d’une entreprise. Les autorités de régulation – comme les autorités de protection des données dans le cadre du RGPD en Europe – se trouvent alors face à un dilemme : comment vérifier qu’un système d’IA respecte bien les exigences légales sans pouvoir l’inspecter directement ? Privés d’accès aux éléments internes du modèle, les régulateurs doivent se fier à la déclaration du développeur, ce qui engendre un déséquilibre de confiance. Un régulateur peut, par exemple, devoir s’assurer qu’aucune donnée personnelle appartenant à un individu déterminé n’a été utilisée lors de l’entraînement (afin de respecter le droit à l’effacement), ou que le modèle ne repose pas sur des contenus protégés par le droit d’auteur. Or, du point de vue juridique, de simples assurances de la part du développeur ne suffisent pas. Il faut des preuves vérifiables.
Les entreprises privées sont également confrontées à des problèmes de confiance lorsqu’elles recourent à des services d’IA tiers. Comment s’assurer que le modèle présenté est bien celui effectivement utilisé, notamment lorsque différentes formules d’abonnement promettent des performances ou des garanties de conformité distinctes ? Les administrations publiques, elles aussi, doivent démontrer à leurs citoyens que les algorithmes qu’elles déploient respectent les exigences juridiques et éthiques, un impératif qui s’intensifie dans le cadre des futures régulations européennes sur l’IA.
Notions cryptographiques fondamentales et leur portée
Pour combler ces lacunes en matière de confiance, la cryptographie offre des outils pertinents. Les preuves à divulgation nulle de connaissance permettent à une partie (le prouveur) de démontrer à une autre (le vérificateur) qu’une certaine affirmation est vraie (par exemple, « ce modèle n’a pas utilisé les données X »), sans dévoiler les raisons ou les mécanismes internes permettant d’en conclure ainsi. Appliquées au domaine du machine learning, ces preuves permettent donc de démontrer certaines propriétés d’un modèle, par exemple la conformité à une obligation légale précise, tout en préservant la confidentialité des données d’entraînement ou des paramètres internes.
En pratique, le zkML s’appuie souvent sur une classe de preuves spécifiques appelées SNARKs (Succinct Non-Interactive Arguments of Knowledge), qui permettent de résumer des affirmations complexes en des preuves condensées, facilement vérifiables. Bien que ces techniques soient encore en cours de maturation, des travaux de recherche actifs visent à les rendre suffisamment efficaces et évolutives pour des applications concrètes à grande échelle.
Cas d’usage concrets : de la conformité à la vérification
Une première application tangible du zkML concerne la vérification des déclarations de performance formulées par les développeurs. Lorsqu’un développeur affirme qu’un modèle satisfait à des exigences de précision prévues par la réglementation ou contractuellement, il peut produire une preuve cryptographique attestant que le modèle atteint bien le niveau de performance requis sur un jeu de données de test connu, sans révéler pour autant les paramètres internes du modèle. Bien que cette capacité soit encore en phase exploratoire, les recherches initiales montrent qu’elle est réalisable. L’adaptation de ces techniques à des modèles très volumineux et complexes demeure toutefois un défi technique majeur.
Une autre application prometteuse concerne la conformité au droit de la protection des données, notamment dans le cadre du RGPD[1]. Lorsqu’un individu exerce son droit à l’effacement, le responsable du traitement doit garantir que les données concernées ne subsistent pas seulement dans les bases de données, mais n’influencent plus non plus les résultats d’un modèle déjà entraîné. Les techniques à divulgation nulle offrent ici un cadre pour ce que l’on appelle le « verifiable unlearning », c’est-à-dire la capacité à prouver qu’un modèle ne dépend plus des données d’un individu, sans révéler le modèle ou les données elles-mêmes. Si des travaux initiaux existent, la mise en œuvre de mécanismes efficaces et généralisables dans ce domaine reste un objectif à atteindre.
Un autre cas d’usage touche à la conformité au droit d’auteur. Lorsqu’un régulateur ou un ayant droit souhaite vérifier qu’un modèle n’a pas été entraîné à partir de contenus protégés, les méthodes cryptographiques peuvent permettre de démontrer l’absence de recoupement entre les données d’entraînement et un corpus identifié d’œuvres protégées. Toutefois, la faisabilité de cette approche dépend de deux conditions complexes : la définition juridiquement claire de ce qu’est un contenu protégé, et la constitution d’ensembles de référence fiables et juridiquement reconnus pour effectuer les vérifications.
Enfin, la question de l’authenticité des modèles et de la différenciation des services est de grande importance dans les environnements d’IA hébergée sur le cloud. Un fournisseur peut prétendre utiliser un modèle audité ou certifié conforme, mais l’utilisateur n’a généralement aucun moyen direct de vérifier cette affirmation. Ici aussi, les preuves cryptographiques peuvent être mobilisées pour attester que le modèle utilisé correspond bien à celui qui a fait l’objet d’une évaluation réglementaire ou contractuelle. Cette forme d’assurance cryptographique constitue une réponse élégante aux problématiques de confiance entre prestataires et clients. Des prototypes expérimentaux suggèrent la faisabilité de cette approche, même si son adoption à large échelle reste encore à venir.
Perspectives juridiques, politiques et réglementaires
Le paysage politique joue également un rôle déterminant. Une obligation légale de vérification fondée sur le zkML pourrait susciter des résistances, notamment de la part des industriels inquiets des coûts ou de la complexité de mise en œuvre. Les décideurs devront alors arbitrer entre les bénéfices d’une preuve fiable et respectueuse de la vie privée, et les éventuelles entraves à l’innovation. À mesure que les régulations sur l’IA se précisent – à l’instar du règlement européen sur l’IA[2] – il est envisageable que des mécanismes de preuve inspirés du zkML soient intégrés comme instruments standards de conformité, permettant aux autorités d’exiger des preuves cryptographiques de respect des règles sans exiger la divulgation d’éléments stratégiques.
Pour qu’un tel mécanisme soit juridiquement opérant, encore faut-il qu’il soit recevable comme preuve. Cela suppose de définir des normes sur ce qu’est une preuve valide dans une procédure judiciaire ou une enquête administrative. Cette tâche impliquera une collaboration étroite entre techniciens, juristes, organismes de normalisation et autorités publiques. L’établissement de critères reconnus pour les preuves zkML ouvrirait ainsi la voie à leur intégration dans les mécanismes de contrôle et de sanction.
Distinguer le présent réalisable du futur en devenir
Malgré ces idées de cas d’usage très prometteuses, il est essentiel de faire la part entre ce qui est aujourd’hui techniquement envisageable et ce qui relève encore de la recherche exploratoire. Si certaines démonstrations de principe existent, des systèmes pleinement évolutifs, facilement déployables et adaptés aux grands modèles ne sont pas encore disponibles. La charge computationnelle liée à la génération et à la vérification des preuves demeure élevée. Par ailleurs, la détection de certains types de données problématiques – qu’il s’agisse d’informations identifiables ou de contenus protégés – continue de poser d’importantes difficultés. L’établissement de frameworks pour la fiabilité des données et leur résistance à la falsification ou à la fraude nécessitent également des avancées complémentaires, y compris peut-être via des technologies associées comme la blockchain.
Pour autant, la dynamique est encourageante. À mesure que les outils gagnent en efficacité et que les exigences juridiques deviennent plus précises, le zkML pourrait passer d’un objet expérimental à un pilier de la conformité dans l’écosystème de l’IA.
Conclusion
Ces techniques cryptographiques, bien qu’encore en cours de maturation, pourraient offrir une voie nouvelle pour la vérification juridique à l’ère de l’IA. En permettant d’apporter la preuve du respect des normes sans dévoiler d’informations sensibles, le zkML peut contribuer à rétablir la confiance entre régulateurs, entreprises et société civile. Si la recherche continue de progresser, ce qui n’est aujourd’hui qu’une solution prometteuse pourrait devenir, demain, un outil concret et reconnu juridiquement pour garantir que les systèmes d’apprentissage automatique respectent les exigences en matière de protection des données, de propriété intellectuelle et de conformité réglementaire, tout en préservant la confidentialité et la compétitivité qui nourrissent l’innovation.
Proposition de citation : Baumann Iago, Le zkML au service de la conformité réglementaire des systèmes d’IA, Blog du LexTech Institute, 28.05.2025
[1] Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données (règlement général sur la protection des données ; RGPD ; JO L 119/1).
[2] Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle (règlement sur l’intelligence artificielle ; RIA ; JO L 2024/1689).
L’article Le zkML au service de la conformité réglementaire des systèmes d’IA est apparu en premier sur LexTech Institute.