Close

Se connecter

Vous n’avez pas de compte ? Contactez-nous !
Close

S'enregistrer

Close

Lost Password

À la une

Construire une IA sûre, sécurisée et fiable : les engagements d’Adobe envers ses clients et sa communauté.

Image générée par Adobe Firefly

Le 12 septembre 2023, Adobe a annoncé son soutien aux « Engagements Volontaires de la Maison Blanche en matière d’intelligence artificielle  afin de promouvoir une intelligence artificielle sûre et fiable » (White House Voluntary AI Commitments). Ces engagements constituent une base solide pour garantir le développement responsable de l’IA et représentent une étape importante dans la collaboration continue entre l’industrie et le gouvernement, nécessaire à l’ère de cette nouvelle technologie.

Adobe investit dans l’IA depuis plus de dix ans, l’utilisant pour permettre à ses clients de libérer leur créativité, de perfectionner leur art et de dynamiser leurs activités dans un monde numérique. En mettant sur le marché des technologies révolutionnaires, nous avons toujours cherché à associer l’innovation à l’innovation responsable. Nous pensons que la mise en place de garde-fous adaptés au développement et à l’utilisation de l’IA permettra à cette dernière de réaliser tout son potentiel au profit de la société.

Avec des millions de clients créatifs – parmi lesquels des artistes numériques en herbe, des photographes de guerre, des créateurs de mode, des spécialistes du marketing et bien d’autres – Adobe est également convaincu que le développement de l’IA doit placer les créateurs au premier plan. L’IA peut ouvrir de nouvelles perspectives aux créateurs, en leur permettant d’être plus productifs que jamais et de concevoir des expériences inédites, sans autre limite que leur imagination. Mais avec une technologie aussi puissante que l’IA, il faut une approche réfléchie et globale. C’est pourquoi, en plus de garantir la sûreté, la sécurité et la confiance dans les systèmes d’IA, Adobe fait part de son engagement supplémentaire à développer une IA qui offre plus de pouvoir aux créateurs.

Nous remercions l’administration Biden-Harris pour son impulsion dans ce domaine important et nous sommes fiers de partager les moyens que nous mettrons en œuvre pour continuer à appliquer ces engagements. Avec l’évolution rapide de la technologie, il est essentiel de maintenir, entre industrie et gouvernement, un dialogue réfléchi et approfondi afin de s’assurer que la législation et la réglementation en matière d’IA soutiennent l’innovation, tout en fournissant des garanties essentielles pour la société et le public.

Sûreté

Adobe s’engage à garantir la sécurité de ses modèles d’intelligence artificielle. Tous nos produits d’IA sont conçus dans le respect de nos principes de responsabilité et de transparence.

En 2019, Adobe a mis en œuvre un programme complet en matière d’IA, comprenant entre autres des formations et tests ainsi qu’une revue par notre Comité d’Ethique de l’IA. Dans le cadre de ce programme, toutes les équipes Produit développant l’IA doivent réaliser une évaluation de l’impact de l’IA. Cette analyse en plusieurs étapes nous permet d’évaluer l’impact potentiel des fonctionnalités et des produits d’IA et d’identifier les risques éventuels, afin de pouvoir remédier à tout problème avant le lancement d’un produit. Nous prévoyons également des mécanismes de rétroaction afin que les utilisateurs puissent signaler tout résultat potentiellement nuisible et que nous puissions remédier à ces problèmes. Nous nous engageons à poursuivre ce processus rigoureux de test et d’examen afin de garantir que notre IA est développée de manière sûre et responsable.

En outre, Adobe contribue au NIST Risk Management Framework sur lequel ces engagements s’appuient, et est membre du Partenariat sur l’IA (« Partnership on AI »). Nous nous engageons à continuer à partager nos connaissances avec les autres entreprises du secteur et avec le gouvernement, et à établir les meilleures pratiques du secteur afin de garantir une approche unifiée en matière d’IA responsable.

Sécurité

Comme pour les autres produits ou fonctionnalités d’Adobe, nos modèles d’IA sont considérés comme la propriété intellectuelle d’Adobe et sont soumis à des mesures strictes de sécurité et de protection de la propriété intellectuelle.

Nous nous engageons à tirer parti de notre solide programme de sécurité, composé entre autres d’opérations de red-teaming, de tests de pénétration effectués par des tiers, d’un programme de prime aux bogues (Bug bounty) et un d’un programme complet de réponse aux incidents, afin de garantir la sécurité de notre propriété intellectuelle et de nos produits et systèmes, y compris les modèles d’IA et les caractéristiques des produits.

Nous nous engageons également à partager régulièrement avec l’ensemble de la communauté IA les informations, meilleures pratiques et enseignements tirés de la manière dont nous testons et protégeons la sécurité de nos modèles d’intelligence artificielle.

Confiance

Adobe s’engage à faire progresser les solutions de traçabilité et de filigrane afin d’améliorer la transparence et la confiance dans les contenus numériques à l’ère de l’IA. Grâce à l’IA, il est de plus en plus facile de générer des contenus convaincants en l’espace de quelques secondes. Nous devons donner aux gens les ressources dont ils ont besoin pour comprendre l’origine d’un contenu et les modifications qu’il a subies depuis sa création.

En tant que leader dans le domaine de la retouche d’images, cela fait plus de 4 ans qu’Adobe se concentre sur cette question. C’est pourquoi nous avons mis au point une technologie appelée « Content Credentials« , qui s’apparente à une étiquette nutritionnelle pour le contenu. Les Content Credentials permettent d’afficher des informations telles que le nom du créateur, la date de création de l’image, les outils utilisés pour créer l’image et les éventuelles modifications apportées. En identifiant les outils utilisés dans le processus de création numérique, les Content Credentials peuvent distinguer entre un contenu créé par de l’IA et un contenu créé par un être humain ou capturé dans le monde physique par un dispositif d’enregistrement.

Nous avons réuni une coalition mondiale appelée « Content Authenticity Initiative » qui compte désormais plus de 1 500 membres issus de tous les secteurs – dont Associated Press, le New York Times, le Wall Street Journal, Microsoft, NVIDIA, Nikon, Leica, Universal Music Group et Stability AI – tous unis derrière les « Content Credentials« . Les Content Credentials reposent sur une norme ouverte développée par la Coalition for Content Provenance and Authenticity (C2PA) : ainsi, cette technologie peut être librement intégrée par chacun dans ses outils et plateformes.

Le besoin de transparence dans les contenus générés par l’IA suscite aujourd’hui beaucoup d’intérêt. Jusqu’à présent, de nombreuses conversations ont porté sur la question des filigranes, qui est importante et intégrée à la norme ouverte C2PA. L’utilisation d’un filigrane imperceptible et la traçabilité cryptographique sont des mesures complémentaires, qui constituent une mesure commune forte pour garantir une compréhension objective de l’origine du contenu. L’IA étant de plus en plus présente dans les divers contenus que nous consommons, nous sommes convaincus que ces métadonnées sécurisées sur l’origine d’une image (également appelée provenance de l’image) seront essentielles pour permettre aux utilisateurs de comprendre leur contenu dans son contexte.

Adobe s’engage à faire progresser la solution Content Credentials dans ses outils et plates-formes et à maintenir tous les Content Credentials sur les contenus que nous affichons. Nos clients peuvent utiliser cette technologie dans les outils phares d’Adobe, tels que Photoshop et Lightroom. Nous attachons également automatiquement des Content Credentials au contenu créé dans notre propre outil d’IA générative, Adobe Firefly, et dans les fonctions d’IA générative de Photoshop, Illustrator et Adobe Express pour indiquer que l’IA générative a été utilisée.

Nous continuerons à développer cette technologie – et la norme correspondante – de manière ouverte afin que tout le monde puisse en bénéficier. Et nous continuerons à collaborer avec l’industrie et le gouvernement pour favoriser la mise en œuvre de cette norme, en particulier à l’approche de certaines périodes sensibles – telles que les élections américaines de 2024 – où la confiance dans le contenu numérique est plus importante que jamais.

Enfin, nous nous engageons à contribuer au développement de ressources éducatives pour aider le public à comprendre l’importance de l’éducation aux médias et la manière d’utiliser des outils tels que les Content Credentials.

Donner plus de pouvoir aux créateurs

En plus d’assurer le développement sûr et fiable de l’IA, Adobe s’engage à prendre certaines mesures clé pour que les créateurs bénéficient de la puissance de l’IA.

Notre communauté créative a soulevé certaines questions et préoccupations clés concernant le contrôle de l’utilisation de leurs données et la garantie de la propriété de leur travail à l’ère numérique. Chez Adobe, nous avons formé le premier modèle de notre outil d’IA générative Adobe Firefly uniquement à partir d’images sous licence de notre collection Adobe Stock, de contenus sous licence ouverte et de contenus du domaine public dont les droits d’auteur ont expiré. Au-delà de notre propre modèle, nous nous engageons également à aider les créateurs à protéger leurs œuvres dans l’ensemble de l’écosystème de l’IA.

  • Introduction de la fonction « Do Not Train » – En s’appuyant sur la technologie des Content Credentials, Adobe s’efforce de permettre aux créateurs d’attacher une balise « Do Not Train » (Ne Pas Former) aux métadonnées de leur travail. Nous nous efforcerons de promouvoir l’adoption d’une norme industrielle pour cette technologie afin de donner aux créateurs la possibilité d’exclure leur contenu des ensembles de données de formation de l’IA.
  • Établissement d’un Nouveau Droit Fédéral contre l’Usurpation de Style – aux États-Unis, Adobe s’engage à plaider en faveur d’un nouveau droit fédéral contre l’usurpation de style, afin de protéger les artistes contre certaines personnes qui utilisent abusivement les outils d’intelligence artificielle pour usurper intentionnellement leur style ou leur apparence à des fins de profit commercial. Cette nouvelle loi devrait prévoir des dommages-intérêts forfaitaires afin d’alléger le fardeau des artistes qui, en droit américain, doivent actuellement évaluer le préjudice subi, et devrait protéger à la fois l’apparence et le style. Elle permettrait de remédier directement au caractère injuste de l’utilisation du travail d’un artiste pour former un modèle d’IA, qui génère ensuite des résultats qui supplantent l’artiste original. Cependant, cette loi serait rédigée de manière restrictive afin de garantir que l’innovation en matière de style, qui est l’épine dorsale de la créativité artistique, puisse continuer à prospérer.

Nous sommes à un moment charnière. Nous sommes à l’avant-garde d’une incroyable transformation technologique, et il est essentiel que nous saisissions cette occasion pour aborder de manière réfléchie les implications de l’IA alors que nous construisons notre avenir ensemble.

Adobe se réjouit de continuer à collaborer avec la Maison Blanche et d’autres responsables politiques, ainsi qu’avec l’industrie, les créateurs et le public, afin de respecter les engagements qui garantiront que l’IA est développée et déployée de la bonne manière pour tous.

Article rédigé par Dana Rao, Executive VP, General Counsel et Chief Trust Officer d’Adobe.

Partager sur :

Partager sur :

J'aime

0

Publications connexes

Partagez votre engagement

Thématiques

► Engagements pour une économie, une finance et une industrie juste, innovante et responsable

À l'honneur

Articles récents