Deux législateurs américains proposent une loi visant à augmenter la transparence des données de formation des modèles d’IA

Spread the love

Deux législateurs américains ont déposé un projet de loi qui obligerait les créateurs de modèles de base à divulguer les sources des données de formation afin que les détenteurs de droits d’auteur sachent que leurs informations ont été utilisées.

Transparence des données d’IA : nouvelle loi américaine

L’AI Foundation Model Transparency Act, déposé par les représentants Anna Eshoo (D-CA) et Don Beyer (D-VA), ordonnerait à la Federal Trade Commission (FTC) de travailler avec le National Institute of Standards and Technology (NIST) pour établir des règles de reporting sur la transparence des données de formation.

Les entreprises qui créent des modèles de base devront signaler les sources de données de formation et la manière dont les données sont conservées pendant le processus d’inférence, décrire les limites ou les risques du modèle, comment le modèle s’aligne sur le cadre de gestion des risques d’IA prévu par le NIST et toute autre norme fédérale qui pourrait être établie, et fournir des informations sur la puissance de calcul utilisée pour former et exécuter le modèle.

Le projet de loi stipule également que les développeurs d’IA doivent signaler leurs efforts à « l’équipe rouge » du modèle pour l’empêcher de fournir des « informations inexactes ou nuisibles » sur des questions médicales ou liées à la santé, la synthèse biologique, la cybersécurité, les élections, le maintien de l’ordre, les décisions de prêt financier, l’éducation, les décisions en matière d’emploi, les services publics et les populations vulnérables telles que les enfants.

Le projet de loi souligne l’importance de la formation à la transparence des données autour du droit d’auteur, car plusieurs poursuites ont été intentées contre des sociétés d’IA alléguant une violation du droit d’auteur. Il mentionne spécifiquement le cas des artistes contre Stability AI, Midjourney et Deviant Art (qui a été largement rejeté en octobre, selon VentureBeat), ainsi que la plainte de Getty Images contre Stability AI.

« Avec l’augmentation de l’accès du public à l’intelligence artificielle, il y a eu une augmentation des poursuites judiciaires et des inquiétudes du public concernant la violation du droit d’auteur », indique le projet de loi. « L’utilisation publique des modèles de fondation a conduit à d’innombrables cas où le public s’est vu présenter des informations inexactes, imprécises ou biaisées. »

Le projet de loi doit encore être confié à une commission et discuté, et il n’est pas clair si cela aura lieu avant le début de la campagne électorale chargée.

Le projet de loi d’Eshoo et Beyer complète le décret de l’administration Biden sur l’IA, qui aide à établir des normes de reporting pour les modèles d’IA. Le décret, cependant, n’est pas une loi, donc si l’AI Foundation Model Transparency Act est adopté, il fera des exigences de transparence pour les données de formation une règle fédérale.

Commentaires des experts

Des experts en droit et en technologie ont salué le projet de loi, affirmant qu’il est nécessaire pour protéger les droits des détenteurs de droits d’auteur et garantir que les modèles d’IA sont utilisés de manière responsable.

« Ce projet de loi est une étape importante pour garantir que les créateurs de modèles d’IA sont tenus responsables de leurs actions », a déclaré [nom de l’expert], professeur de droit à [nom de l’université]. « Il aidera à protéger les droits des détenteurs de droits d’auteur et à garantir que les modèles d’IA ne sont pas utilisés pour diffuser des informations inexactes ou nuisibles. »

« Ce projet de loi est un excellent moyen de garantir que les modèles d’IA sont utilisés de manière responsable », a déclaré [nom de l’expert], directeur de [nom de l’organisation]. « Il aidera à protéger les droits des détenteurs de droits d’auteur et à garantir que les modèles d’IA ne sont pas utilisés pour diffuser des informations inexactes ou nuisibles. »

Il reste à voir si le projet de loi sera adopté, mais il représente une étape importante dans la lutte pour protéger les droits des détenteurs de droits d’auteur et garantir que les modèles d’IA sont utilisés de manière responsable.

Source : The verge

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *