Les géants de la tech ont beau assurer dès qu'ils le peuvent vouloir prendre leur responsabilité par rapport aux IA génératives, la réalité est bien moins reluisante en coulisse. On sait par exemple que Google s'est séparé de spécialistes du sujet dès 2020 pour accélérer le développement de Bard, tandis que Microsoft a ignoré des avertissements l'alertant sur les potentiels dangers de son nouveau Bing. C'est désormais au tour de Meta de s'illustrer : l'entreprise aurait carrément dissout son équipe « IA Responsable », rapporte The Information.
Meta met régulièrement en avant ses efforts sur le plan de la sécurité et de la transparence de l'IA, la boîte disposant d'une page vantant les « 5 piliers d'une IA responsable ». Une équipe dédiée à ce sujet a été mise sur pied en 2019, ayant par exemple pour but de s'assurer que les modèles de l'entreprise aient été entraînés sur des contenus suffisamment variés pour ne pas avoir de biais sociaux. Elle avait également pour but d'anticiper les problèmes potentiels et de vérifier que la diffusion de l'IA était faite de manière correcte.
On se doutait cependant que les choses étaient compliquées en interne pour ce groupe : un article de Business Insider rapportait récemment que l'équipe avait été divisée par 2 depuis 2021 suite à différentes restructurations. Un employé déclarait alors que ce groupe n'était plus que « l'ombre de lui-même », et que sa mission était désormais de s'assurer que Meta ne transgressait pas de lois en déployant ses technologies. Les personnes interrogées expliquaient que l'équipe n'avait que peu de pouvoir sur les décisions du groupe, en plus de manquer de ressources et de se faire mettre des bâtons dans les roues par certains aspects bureaucratiques.
The Information affirme aujourd'hui que Meta aurait fait tomber le couperet sur cette équipe. La plupart des anciens membres rejoindront la division s'occupant des produits d'IA générative de l'entreprise, tandis que d'autres travailleront sur l'infrastructure d'IA. Un représentant de Meta aurait assuré vouloir « continuer de donner la priorité et d'investir dans un développement responsable et sûr de l'IA ». Selon lui, les personnes réaffectées « continueront à soutenir les efforts transversaux de Meta en matière de développement et d'utilisation responsables ».
La nouvelle tombe alors que Meta met les bouchées doubles sur l'IA depuis l'année dernière, celle-ci publiant par exemple des modèles de langage concurrençant ceux d'OpenAI. Le but est de s'imposer dans le domaine de l'open source, mais aussi d'intégrer de l'IA à ses services. L'entreprise a dans l'idée de déployer des chatbots basés sur des personnalités dans Messenger et WhatsApp. Elle a récemment lancé un générateur d'autocollants apportant son lot de problèmes.
Source :