DiversHumeurMilitantismeRien à voirTechnologieUn dessin par jour

Nightshade, un logiciel-poison gratuit contre les IA génératives

J’en ai ras le cul, donc, même si l’argument que ça ne va servir à rien est exact, il ne reste qu’un argument (même si, oui, on sait que ces solutions c’est un peu comme le piratage contre la sécurité… une course sans fin), donc, on va essayer quand même, parce que là, on se fait baiser par les IA génératives en se faisant voler notre propre travail, qui est alors exploité et revendu massivement à vil prix pendant que nous, on nous invite à admirer le futur en crevant la dalle. Et NON ce n’est pas du tout comparable à de l’inspiration ou de la copie par un humain ! C’est comparable à de la création de plagiat par un faussaire, très doué, mais en plus, gratuit et plus rapide que n’importe quel humain. Si vous préférez, en image, c’est ça :

(source. Ron Chan, Comic Book & Storyboard Artist)

Comme le résume l’article de VentureBeat :

« Tout se résume à la manière dont les générateurs d’images d’IA ont été formés : en récupérant des données sur l’ensemble du web, y compris des œuvres d’art originales publiées par des artistes qui n’avaient aucune connaissance expresse préalable ni aucun pouvoir de décision concernant cette pratique, et qui affirment que les modèles d’IA formés sur leurs œuvres menacent leurs moyens de subsistance en les concurrençant.

Le scraping (grattage) de données consiste à laisser de simples programmes appelés « bots » parcourir l’internet et copier et transformer des données provenant de sites web publics dans d’autres formats utiles à la personne ou à l’entité qui effectue le scraping.

Il s’agit d’une pratique courante sur l’internet et fréquemment utilisée avant l’avènement de l’IA générative. C’est à peu près la même technique que celle utilisée par Google et Bing pour explorer et indexer les sites web dans les résultats de recherche.

Mais elle fait l’objet d’un nouvel examen de la part des artistes, des auteurs et des créateurs qui s’opposent à ce que leur travail soit utilisé sans leur autorisation expresse pour former des modèles d’IA commerciaux susceptibles de concurrencer ou de remplacer leur produit.

Les fabricants de modèles d’IA défendent cette pratique comme étant non seulement nécessaire pour former leurs créations, mais aussi comme étant légale en vertu du « fair use », la doctrine juridique américaine qui stipule qu’un travail antérieur peut être utilisé dans un nouveau travail s’il est transformé et utilisé dans un nouveau but.

Bien que des entreprises d’IA telles que OpenAI aient introduit un code d’exclusion que les opposants peuvent ajouter à leur site web pour éviter d’être récupérés pour la formation à l’IA, l’équipe Glaze/Nightshade note que « les listes d’exclusion ont été ignorées par les formateurs de modèles dans le passé, et peuvent être facilement ignorées sans aucune conséquence. Elles sont invérifiables et inapplicables, et ceux qui enfreignent les listes d’exclusion et les directives de non-récupération ne peuvent pas être identifiés avec une grande certitude ».

Voilà… je suis pas là pour vous convaincre… c’est pas à vous que je parle, c’est à mes collègues artistes qui sont en train de regarder leur compte en banque aussi fauché qu’un coffre au trésor de pirate de parc d’attraction.

Donc, voici le mode d’emploi d’un empoisonneur d’image que vous poucez télécharger pour pourrir vos images pour que les IA qui les téléchargent voient leurs données tirés de ces images corrompues et fausses. Et je me fous des contre-arguments et protestation, inutile de m’en parler, je les connais, vous fatiguez pas les doigts, je suis pas là pour débattre de ce truc, je suis là pour vous le présenter… vous vous en servez, ou pas, c’est votre choix.

Le mien est fait.

Télécharger Nightshade, gratuitement, ici.

Webglaze, leur outil de base de protection contre le plagiat, ici.

Traduit du site web de Nighshade protecting System

Depuis leur arrivée, les modèles d’IA générative et leurs formateurs ont démontré leur capacité à télécharger n’importe quel contenu en ligne pour l’entraînement des modèles. Pour les propriétaires et les créateurs de contenu, peu d’outils peuvent empêcher que leur contenu soit introduit dans un modèle d’IA générative contre leur volonté. Les listes d’exclusion ont été ignorées par les formateurs de mannequins dans le passé et peuvent être facilement ignorées sans aucune conséquence. Elles sont invérifiables et inapplicables, et ceux qui enfreignent les listes d’exclusion et les directives « do-not-scrape » ne peuvent pas être identifiés avec une grande certitude.

Afin de remédier à cette asymétrie de pouvoir, nous avons conçu et mis en œuvre Nightshade, un outil qui transforme n’importe quelle image en un échantillon de données inadapté à l’entraînement de modèles. Plus précisément, Nightshade transforme les images en échantillons « empoisonnés », de sorte que les modèles qui s’entraînent sur ces images sans consentement verront leurs modèles apprendre des comportements imprévisibles qui s’écartent des normes attendues, par exemple une invite qui demande une image d’une vache volant dans l’espace pourrait obtenir à la place une image d’un sac à main flottant dans l’espace.

Utilisé de manière responsable, Nightshade peut contribuer à dissuader les dresseurs de modèles qui ne respectent pas les droits d’auteur, les listes d’exclusion et les directives « do-not-scrape/robots.txt ». Il ne compte pas sur la gentillesse des formateurs de modèles, mais associe un petit prix incrémentiel à chaque donnée récupérée et formée sans autorisation. L’objectif de Nightshade n’est pas de casser les modèles, mais d’augmenter le coût de la formation sur des données sans licence, de sorte que l’obtention de licences d’images auprès de leurs créateurs devienne une alternative viable.

Nightshade fonctionne de la même manière que Glaze, mais au lieu d’être une défense contre le mimétisme de style, il est conçu comme un outil offensif pour déformer les représentations des caractéristiques à l’intérieur des modèles d’image génératifs de l’IA. Comme Glaze, Nightshade est calculé comme une optimisation multi-objectifs qui minimise les changements visibles de l’image originale. Alors que les yeux humains voient une image ombrée qui est en grande partie inchangée par rapport à l’original, le modèle d’IA voit une composition radicalement différente dans l’image. Par exemple, l’œil humain peut voir une image ombrée d’une vache dans un champ vert qui n’a pratiquement pas changé, alors que le modèle d’IA peut voir un grand sac à main en cuir posé dans l’herbe. Entraîné sur un nombre suffisant d’images ombrées comprenant une vache, un modèle sera de plus en plus convaincu que les vaches ont de belles poignées en cuir marron et des poches latérales lisses avec une fermeture à glissière, et peut-être un joli logo de marque.

Comme pour Glaze, les effets de Nightshade sont résistants aux modifications normales que l’on peut appliquer à une image. Vous pouvez la recadrer, la rééchantillonner, la compresser, lisser les pixels ou ajouter du bruit, et les effets du poison demeureront. Vous pouvez prendre des captures d’écran, ou même des photos d’une image affichée sur un moniteur, et les effets de l’ombre demeureront. Encore une fois, c’est parce qu’il ne s’agit pas d’un filigrane ou d’un message caché (stéganographie) et qu’il n’est pas fragile.

Nightshade ou Glaze. Une question fréquente est de savoir quelle est la différence entre Nightshade et Glaze. La réponse est que Glaze est un outil défensif que les artistes individuels peuvent utiliser pour se protéger contre les attaques par imitation de style, tandis que Nightshade est un outil offensif que les artistes peuvent utiliser en tant que groupe pour perturber les modèles qui copient leurs images sans leur consentement (protégeant ainsi tous les artistes contre ces modèles). Le Glaze devrait être utilisé sur chaque œuvre d’art que les artistes mettent en ligne pour se protéger, tandis que Nightshade est un outil entièrement facultatif qui peut être utilisé pour dissuader les entraîneurs de modèles peu scrupuleux. Les artistes qui mettent en ligne leurs propres œuvres d’art devraient idéalement appliquer à la fois Glaze et Nightshade à leurs œuvres d’art. Nous travaillons actuellement à une version intégrée de ces outils.

Risques et limites.

  1. Les modifications apportées par Nightshade sont plus visibles sur les images aux couleurs plates et aux arrière-plans lisses. Nightshade ayant pour but de perturber les modèles, les niveaux d’intensité/poison inférieurs n’ont pas de conséquences négatives pour le propriétaire de l’image. Nous avons donc inclus un réglage de faible intensité pour ceux qui souhaitent privilégier la qualité visuelle de l’image originale.
  2. Comme pour toute attaque ou défense de sécurité, il est peu probable que Nightshade reste à l’épreuve du temps sur de longues périodes. Mais en tant qu’attaque, Nightshade peut facilement évoluer pour continuer à suivre le rythme des contre-mesures/défenses potentielles.

Nos objectifs. Comme pour Glaze, nos objectifs principaux sont de découvrir et d’apprendre de nouvelles choses grâce à nos recherches, et d’avoir un impact positif sur le monde. Je (Ben) parle en mon nom (mais je pense que l’équipe aussi) quand je dis que nous ne sommes pas intéressés par le profit. Comme Glaze, Nightshade est conçu pour fonctionner sans réseau, donc il n’y a pas de données (ou d’art) renvoyées à nous ou à qui que ce soit d’autre.

Nightshade et WebGlaze. Nightshade v1.0 est conçu comme un outil autonome. Il n’offre pas de protection contre le mimétisme comme Glaze, c’est pourquoi il convient d’être prudent dans son utilisation. Ne postez pas d’images nightshadées de vos œuvres si vous êtes préoccupé par le mimétisme. Nous testons la coexistence de Nightshade et de Glaze, et lorsque nous serons prêts, nous publierons Nightshade en tant que module complémentaire de Webglaze, afin que les utilisateurs de Webglaze puissent appliquer Nightshade et Glaze en une seule passe sur une seule image.

Pour plus d’informations sur Nightshade, veuillez consulter le guide de l’utilisateur sur l’installation, l’exécution/la configuration et la désinstallation de Nightshade. Vous pouvez également lire le document technique de Nightshade ici.