OpenAI, Microsoft, Google et Anthropic viennent d'établir le Frontier Model Forum, un nouveau groupe d'intérêt axé sur « le développement sûr et responsable des modèles d'intelligence artificielle de pointe ». Ce lobby, puisque c'est de ça qu'il s'agit, aura comme missions d'encourager les bonnes pratiques de sécurité au sein de l'industrie ainsi que d'échanger avec les politiques et la société civile sur les répercussions de l'IA dans le monde.
Avec cet organisme commun, les quatre entreprises entendent répondre aux craintes grandissantes autour du développement et de la diffusion des IA génératives. Elles espèrent aussi pouvoir influer sur les projets de réglementations en cours.
Cette annonce intervient à peine une semaine après la rencontre entre sept entreprises majeures du secteur et Joe Biden, rencontre pendant laquelle le président américain a appelé l'industrie à s'auto-réguler, en attendant une éventuelle loi sur le sujet. Amazon, Anthropic, Google, Inflection, Meta, Microsoft, et OpenAI se sont engagés à respecter trois principes vagues : vérifier que leurs produits soient sûrs avant de les rendre public, faire de la sécurité une priorité absolue et gagner la confiance des utilisateurs en faisant preuve de transparence.
De son côté, l'Union européenne est en train de préparer l'AI Act, une grande loi qui encadrera les nouvelles technologies d'intelligence artificielle. OpenAI a d'ores et déjà essayé de peser pour que la réglementation ne soit pas trop contraignante pour ses produits. Le Frontier Model Forum, qui pourrait accueillir de nouveaux membres, devrait continuer le boulot de lobbying.
IA « responsable » : le bal des faux QI