L’IA générative change notre façon de concevoir la créativité. Tapez « rendu 3D d’un dragon en papier, photographie en studio » et vous obtiendrez instantanément plusieurs variantes du portrait d’une féroce créature en origami. Associez quelques données à des instructions simples ; un chatbot vous produira un courriel de marketing très convaincant. Il est facile de constater à quel point cette technologie peut être puissante pour les créateurs individuels et les entreprises. L’IA générative permet de peindre avec du texte plutôt qu’avec des pixels (ou de la peinture). Sur le plan commercial, l’IA vous permet de communiquer efficacement avec vos clients grâce à des textes, des courriels et du contenu générés automatiquement. Et, mise en œuvre de la bonne manière, l’IA générative apporte précision, puissance, rapidité et facilité à vos flux de travail existants – permettant aux personnes de se concentrer sur les aspects plus stratégiques ou créatifs de leur rôle.
L’IA générative ouvre également la voie à de nouvelles interrogations en matière d’éthique et de responsabilité à l’ère du numérique. Alors qu’Adobe et d’autres exploitent la puissance de cette technologie de pointe, nous devons -tous secteurs confondus- nous rassembler afin d’élaborer, mettre en œuvre et respecter un ensemble de garde-fous qui guideront son développement et son utilisation responsable.
Une question d’éthique et de responsabilité
Toute entreprise qui développe des outils génératifs d’IA devrait commencer par se doter d’un cadre éthique. Le fait pour une entreprise de disposer d’un ensemble de principes éthiques concis et réalisables en matière d’IA, ainsi que d’un processus d’examen officiel intégré à sa structure d’ingénierie, peut aider à s’assurer que les technologies d’IA – y compris l’IA générative – soient développées d’une manière qui respecte ses clients et s’aligne avec ses valeurs. La formation, les tests et, au besoin, la supervision humaine sont au cœur de ce processus.
Comme toute autre IA, la valeur de l’IA générative dépend des données avec lesquelles elle est entraînée. L’atténuation des résultats néfastes commence par le développement et l’entraînement des IA sur la base d’ensembles de données sûrs et inclusifs. Par exemple, le premier modèle Adobe de notre famille Firefly de modèles d’IA générative créative est entraîné sur des images Adobe Stock, des contenus open source et des contenus du domaine public dont les droits d’auteur ont expiré. En entraînant un modèle sur des ensembles de données diversifiés soigneusement sélectionnées, on lui confère un avantage concurrentiel certain lorsqu’il s’agit de produire des résultats commercialement sûrs et éthiques.
Mais il ne s’agit pas seulement de ce qui compose un modèle. Ce qui en ressort est également important. Car même avec de bonnes données, il est possible d’obtenir une IA biaisée, qui -bien qu’involontairement- discrimine, dénigre ou amène certaines personnes à se sentir moins valorisés. La solution à ce problème est la réalisation de tests rigoureux et continus. Chez Adobe, sous la direction de notre équipe d’Éthique de l’IA, nous testons constamment nos modèles en interne pour vérifier leur sécurité et leur impartialité, et nous transmettons ces résultats à notre équipe d’ingénieurs pour résoudre les problèmes éventuels. En outre, les fonctionnalités d’IA intégrées à nos produits sont dotées de mécanismes d’évaluation de sorte que, lorsqu’elles sont rendues publiques, les utilisateurs peuvent signaler tout problème et nous pouvons prendre des mesures pour y remédier. Il est essentiel que les entreprises encouragent ce dialogue avec le public afin que nous puissions travailler ensemble pour continuer à améliorer l’IA générative pour tous.
Au-delà de l’entraînement de l’IA, les entreprises peuvent mettre en œuvre diverses mesures techniques afin d’améliorer l’éthique de leurs produits. Ainsi, des listes de blocage, de refus ou des classificateurs NSFW (Not Safe for Work) peuvent être instaurés pour atténuer les biais préjudiciables dans les résultats d’un modèle d’IA. Si une entreprise n’est toujours pas sûre ou satisfaite du résultat, elle peut toujours ajouter ou exiger l’intervention d’un modérateur humain afin de s’assurer que le résultat réponde bien à ses attentes.
Et chaque fois qu’une entreprise s’approvisionne en IA auprès d’un fournisseur extérieur – qu’elle l’intègre dans les flux de travail de l’entreprise ou dans ses propres produits – elle doit impérativement, dans le cadre de son processus de gestion des risques liés au fournisseur, s’assurer que l’IA répond à ses normes éthiques.
La transparence renforce la confiance
Nous avons également besoin de transparence en ce qui concerne le contenu produit par les modèles d’IA générative. Reprenons l’exemple précédent, mais remplaçons le dragon par le discours d’un dirigeant mondial. L’IA générative suscite des inquiétudes quant à sa capacité à produire un contenu synthétique convaincant, et cela dans un monde numérique déjà inondé d’informations erronées. À mesure que la quantité de contenu généré par l’IA augmentera, il sera de plus en plus important de fournir aux gens un moyen de transmettre un message et d’en authentifier la véracité.
Chez Adobe, nous avons intégré cette exigence de transparence dans nos produits avec nos Content Credentials. Cette initiative permet aux créateurs d’associer des informations à un élément de contenu, telles que leur nom, la date et les outils utilisés pour le créer. Ces Credentials accompagnent le contenu, de sorte que lorsque les gens le voient, ils savent exactement d’où il provient et les modifications appliquées.
Nous ne le faisons pas seuls ; il y a quatre ans, nous avons fondé la Content Authenticity Initiative afin d’élaborer cette solution de manière ouverte, de sorte que chacun puisse l’intégrer dans ses propres produits et plateformes. Plus de 900 membres issus de tous les domaines de la technologie, des médias et de la politique unissent aujourd’hui leurs efforts pour démocratiser cette solution.
Et pour l’IA générative en particulier, nous attachons automatiquement des Content Credentials aux contenus créés ou modifiés à l’aide de l’IA générative. Ainsi, les gens peuvent voir comment un élément de contenu a été créé et prendre des décisions plus éclairées quant à sa fiabilité.
Respecter le choix et le contrôle des créateurs
Les créateurs veulent pouvoir contrôler si leur travail est, ou non, utilisé pour entraîner l’IA générative. Certains d’entre eux souhaitent que leur contenu soit exclu de l’IA. D’autres sont heureux de voir leurs œuvres inclues dans les données d’entraînement destinées à aider cette nouvelle technologie à se développer, surtout s’ils peuvent conserver la reconnaissance de leur travail. Grâce à la technologie de la provenance, les créateurs peuvent apposer une mention « Do Not Train » (« Ne Pas Entraîner ») qui suivra leur contenu partout où il ira. Une fois adoptée par l’industrie, cette technologie permettra d’empêcher les robots d’indexation d’inclure des œuvres avec des références « Do Not Train » dans un ensemble de données. Ensemble, avec les efforts exploratoires visant à rémunérer les créateurs pour leurs contributions, nous pouvons construire une IA générative qui donne du pouvoir aux créateurs et améliore leurs expériences.
Un processus continu
Nous ne faisons qu’effleurer la surface de l’IA générative ; chaque jour, la technologie s’améliore. Au fur et à mesure de son évolution, l’IA générative posera de nouveaux défis et il est impératif que l’industrie, les gouvernements et la société travaillent ensemble pour les résoudre. En partageant les meilleures pratiques et en adhérant aux normes pour développer l’IA générative de manière responsable, nous pouvons exploiter les possibilités illimitées qu’elle offre et construire un espace numérique plus digne de confiance.
Article rédigé par Dana Rao, Executive Vice President, General Counsel et Chief Trust Officer.