Elon Musk et des chercheurs en IA appellent à une pause sur les « géants de l’expérimentation IA »

Spread the love

Des chercheurs de renom dans le domaine de l’intelligence artificielle, dont Elon Musk, ont signé une lettre ouverte appelant les laboratoires de recherche en IA du monde entier à suspendre le développement de systèmes d’IA à grande échelle. Ils invoquent les risques profonds pour la société et l’humanité que pose cette technologie, ainsi que l’absence de régulateurs indépendants pour assurer la sécurité des systèmes futurs.

Une course hors de contrôle

La lettre, publiée par le Future of Life Institute, une organisation à but non lucratif, souligne que les laboratoires d’IA sont actuellement engagés dans une « course hors de contrôle » pour développer et déployer des systèmes d’apprentissage automatique « que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable ». Les signataires de la lettre estiment que le dynamisme actuel dans le développement de l’IA est dangereux et préconisent la création de régulateurs indépendants pour garantir la sécurité des systèmes futurs.

Un appel à la pause

Les signataires, parmi lesquels se trouvent l’auteur Yuval Noah Harari, le co-fondateur d’Apple Steve Wozniak, le co-fondateur de Skype Jaan Tallinn, le politicien Andrew Yang et plusieurs chercheurs et PDG renommés dans le domaine de l’IA, notamment Stuart Russell, Yoshua Bengio, Gary Marcus et Emad Mostaque, appellent à une pause immédiate de six mois dans la formation de systèmes d’IA plus puissants que GPT-4.

Ai

Ils demandent que cette pause soit publique et vérifiable et qu’elle implique tous les acteurs clés. Si une telle pause ne peut être mise en œuvre rapidement, les gouvernements devraient intervenir et instituer un moratoire.

Des protocoles de sécurité rigoureusement audités

Les signataires de la lettre estiment que les laboratoires et les experts indépendants devraient profiter de cette pause pour élaborer et mettre en œuvre conjointement un ensemble de protocoles de sécurité partagés pour la conception et le développement avancé de l’IA, rigoureusement audités et supervisés par des experts indépendants. Ils estiment que ces protocoles devraient garantir que les systèmes qui s’y conforment sont sûrs au-delà de tout doute raisonnable.

Une opposition croissante

La lettre est un signe de l’opposition croissante à cette approche « livrez-le maintenant et réparez-le plus tard », qui a vu des entreprises technologiques comme Google et Microsoft se précipiter pour déployer de nouveaux produits, souvent en mettant de côté les préoccupations précédemment exprimées quant à la sécurité et à l’éthique.

La lettre est peu susceptible d’avoir un impact sur le climat actuel de la recherche en IA, qui a vu les entreprises technologiques comme Google et Microsoft se précipiter pour déployer de nouveaux produits. Cependant, elle souligne l’importance de rester vigilant et de continuer à suivre les mesures sanitaires recommandées.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *