Les choses bougent au niveau de la régulation de l’intelligence artificielle. D’un point de vue européen, l’AI Act a fait ses premiers pas : plusieurs aspects viennent d’entrer en vigueur, tandis que d’autres suivront dans l’été. De son côté, la France s’est dotée d’un institut national « pour l’évaluation et la sécurité de l’intelligence artificielle ». Celui-ci n’a pas pour mission de réguler, mais plutôt de surveiller l’évolution de la technologie.
Pour rappel, l’AI Act est un texte européen cherchant à encadrer l’intelligence artificielle en fixant des règles claires. Depuis dimanche, certaines utilisations des IA sont donc désormais interdites en Europe : les systèmes de notations sociales similaires à ceux employés en Chine, les IA visant à estimer les probabilités qu’une personne effectue une infraction ou encore la « reconnaissance des émotions » analysant le comportement d’une personne. Sont également interdites les techniques d’identification des individus dans l’espace public par reconnaissance faciale, ou encore celles cherchant à catégoriser les personnes selon « leur race, leurs opinions politiques, religieuses », etc.
Ce n’est qu’un début, et la partie principale du texte ne sera mise en place qu’au mois d’août. Cet autre volet impose une transparence de la part des fournisseurs de chatbot comme ChatGPT ou Gemini, qui seront dans l’obligation de révéler leurs données d’entraînement. Ils devront également répondre à des audits de sécurité sur les risques. D’autres règles visant à réglementer l’IA dans certains domaines sensibles (infrastructure d’eau, sur les routes, dans l’éducation, la police…) arriveront en 2027. Cependant, les mesures font débat à Bruxelles, et ce alors que l’administration américaine montre les dents pour défendre ses poulains. Les choses pourraient donc évoluer d’ici là.
AI Act : la législation adoptée au Parlement européen
En France, le gouvernement a annoncé la création de l’Institut national pour l’évaluation et la sécurité de l’intelligence artificielle (INESIA). Celui-ci sera piloté par le secrétariat général de la défense et de la sécurité nationale et par la Direction générale des Entreprises. Son travail portera sur « l’analyse des risques systémiques dans le champ de la sécurité nationale, le soutien à la mise en œuvre de la régulation de l’IA, et l’évaluation de la performance et de la fiabilité des modèles d’IA ». Clara Chappaz, la ministre déléguée chargée de l’intelligence artificielle et du numérique, a confirmé que l’INESIA n’aura pas de pouvoirs de régulation et s’occupera uniquement de la surveillance.
Toutes ces annonces sont faites alors qu’aura lieu dans quelques jours le Sommet pour l’action sur l’intelligence artificielle à Paris. Une centaine de chefs d’État y sont attendus, en plus de grands acteurs du secteur, comme Sam Altman ou Sundar Pichai.
Source : Le Monde