Watermarking 2.0 : Un poison élégant

Le scraping est inévitable, mais il n’est pas invincible. Grâce au watermarking 2.0, il devient possible de protéger nos propriétés intellectuelles en les rendant toxiques pour les modèles de langage, sans nuire aux usages humains.

Anthony Nadon
19 août 2025
Watermarking 2.0 : Un poison élégant

Introduction

Chez Alpaga nous accompagnons les organisations dans l’adoption de l’intelligence artificielle et de l’automatisation. Nous en connaissons les promesses, mais aussi les inquiétudes qu’elle suscite. Car si certains se passionnent pour les avancées des grands modèles de langage, d’autres y voient une menace pour leur métier, leur créativité ou leurs données.

Cette réserve est légitime. L’IA n’est pas seulement un outil fascinant, c’est aussi une technologie qui aspire sans relâche du contenu pour se nourrir. Textes, images, codes : tout peut être intégré à son apprentissage, souvent sans que les créateurs ou les entreprises aient donné leur accord. Si l’on ne peut pas empêcher totalement les IA de se nourrir de nos contenus, il est possible rendre leur digestion amère. C’est là qu’intervient le watermarking 2.0 : une manière d’empoisonner élégamment vos données, invisibles pour vos lecteurs humains, mais toxiques pour les modèles qui les pillent.

Pour bien comprendre cette stratégie, il est essentiel d’examiner comment fonctionne réellement l’entraînement d’un LLM.

Comment un LLM apprend

Un modèle de langage est entraîné à partir de vastes volumes de données collectées sur le web ou dans des bases spécialisées. Ces données sont prétraitées pour être nettoyées et normalisées, puis elles alimentent un apprentissage statistique massif. Le modèle ajuste des milliards de paramètres pour prédire la prochaine séquence de mots ou de pixels.

Le modèle ne comprend pas au sens humain, il reproduit des régularités. Si les données contiennent des biais ou des anomalies introduites volontairement, ces mêmes biais se propagent dans le comportement final du modèle.

C’est précisément ce mécanisme qui ouvre la porte à une nouvelle forme de protection : l’empoisonnement défensif.

Empoisonnement défensif et watermarking 2.0

Empoisonner ses propres données n’a pas pour but de tromper ses usagers humains mais de se protéger contre une exploitation non consentie. Pour un créateur, c’est un moyen de conserver une forme de contrôle. Pour une entreprise, c’est un moyen de garder un avantage compétitif en rendant ses données moins exploitables par des tiers. Pour une institution, c’est une manière de renforcer son autorité sur ses contenus en y intégrant une signature invisible.

Le watermarking 2.0 consiste à insérer dans les données des motifs imperceptibles pour l’humain mais détectables ou perturbateurs pour un modèle. Cette approche peut être employée de façon préventive, en intégrant des marqueurs juridiques permettant de prouver ultérieurement l’utilisation non autorisée, ou de façon active, en injectant du bruit subtil qui dégrade la qualité d’apprentissage des modèles qui s’approprient ces données.

Pour comprendre concrètement ce que cela signifie, observons quelques exemples déjà mis en pratique.

Exemples concrets

Les artistes visuels disposent désormais d’outils comme Nightshade, conçu par l’Université de Chicago, qui leur permet d’intégrer des perturbations invisibles dans leurs images. Pour l’œil humain, la photographie reste intacte. Pour un modèle, en revanche, ces perturbations conduisent à des erreurs majeures d’interprétation.

Dans le domaine textuel, des chercheurs ont proposé TextMarker. Cette technique consiste à insérer des marqueurs discrets dans une très faible portion des phrases, environ 0,1 %, de sorte que le texte reste parfaitement lisible mais qu’il devienne possible de détecter par la suite si un corpus a été utilisé pour entraîner un modèle.

Une autre approche consiste à générer des canaries, c’est-à-dire de faux documents synthétiques publiés volontairement. Si ces documents réapparaissent dans les réponses d’un modèle, ils révèlent clairement que le scraping a eu lieu.

Enfin, dans le domaine de l’image et du design, certaines méthodes introduisent des perturbations adversariales. Ces micro-variations invisibles pour un visiteur humain entraînent pourtant le modèle à apprendre de fausses corrélations, faussant ses futures prédictions.

Ces techniques démontrent la faisabilité de l’empoisonnement défensif, mais elles ne vont pas sans poser des dilemmes.

Les enjeux soulevés

Adopter une stratégie d’empoisonnement défensif n’est jamais neutre. L’idée est séduisante : piéger ses données pour reprendre le contrôle. Mais chaque arme défensive peut, tôt ou tard, être détournée.

Un premier risque est celui de l’effet collatéral. Publier volontairement des données biaisées peut contaminer l’écosystème au-delà des cibles visées. Si ces informations empoisonnées finissent intégrées dans des modèles utilisés pour la santé, la justice ou la finance, les conséquences pourraient être graves, et la responsabilité floue. À cela s’ajoute la question juridique. Pour servir de preuve, un watermark doit être robuste et incontestable. Un marquage trop fragile ou facilement falsifiable ne pèsera rien devant un tribunal, réduisant sa portée à un simple artifice technique. Mais le plus préoccupant est l’utilisation malveillante de ces mêmes techniques. Des acteurs hostiles pourraient empoisonner délibérément des jeux de données publics pour nuire à la fiabilité des modèles. Ils pourraient insérer des backdoors invisibles : par exemple, un mot-clé déclencheur qui pousse un modèle à générer de fausses informations. D’autres pourraient utiliser ces méthodes pour saboter un concurrent, polluer un dataset open source, ou introduire des biais idéologiques dans des modèles à grande échelle.

Ces menaces sont déjà documentées dans la recherche : la simple manipulation d’articles Wikipédia avant un “snapshot” d’entraînement, ou l’altération d’images sur des domaines expirés, suffisent parfois à corrompre un modèle. Cela prouve que notre outil de défense, peut aussi devenir un outil de sabotage pour un acteur malveillant. En bref, l’empoisonnement n’est pas une solution magique, ni une garantie. C’est un levier parmi d’autres, utile pour reprendre du contrôle, mais qui doit s’inscrire dans une stratégie plus large

Conclusion

Empoisonner ses propres données n’a rien d’un geste malveillant. C’est avant tout une manière de reprendre du pouvoir dans un contexte où le scraping et l’entraînement massif de modèles semblent inévitables. Le watermarking 2.0 se présente comme une stratégie asymétrique : invisible pour les humains, mais suffisamment perturbatrice pour compliquer l’exploitation non consentie.

Il faut cependant garder une vision équilibrée. Cette approche n’est pas une solution miracle et ne saurait remplacer les protections légales ou contractuelles. Elle s’inscrit plutôt dans un arsenal défensif plus large, combinant technologie, gouvernance et cadre réglementaire. L’essentiel n’est pas de diaboliser ou de glorifier ces techniques, mais de les comprendre et de savoir les mobiliser avec discernement.

Comment Alpaga peut vous accompagner

Chez Alpaga, nous croyons qu’il est indispensable d’éclairer ces enjeux avec lucidité et pédagogie. Notre rôle n’est pas seulement technique, mais aussi éducatif : aider les créateurs, les entreprises et les institutions à comprendre comment l’IA fonctionne, afin de mieux s’en protéger si nécessaire.

Nous proposons des audits pour identifier vos contenus exposés, la mise en place de solutions de watermarking adaptées au texte, à l’image ou à l’audio, et un accompagnement personnalisé pour intégrer ces défenses dans vos flux numériques sans sacrifier la qualité de vos échanges avec votre public.

Contactez-nous pour explorer comment rendre vos données plus intelligentes que ceux qui les exploitent.


Références

Nature. Data poisoning attacks in healthcare AI systems. 2024.

Wall Street Journal. As generative AI takes off, researchers warn of data poisoning. 2023.

Wiz.io. Data poisoning: attack methods and defense. 2024.

Traceable.ai. How API vulnerabilities compromise LLM data integrity. 2024.

Maesen, A. et al. Robust watermarking for image datasets. ACM. 2023.

University of Chicago. Nightshade project. 2023.

Zhao et al. TextMarker: Robust and Transparent Watermarks for Text Data. arXiv. 2023.