Pas facile de repérer du texte généré par l'IA, même quand on s'appelle OpenAI : l'entreprise a discrètement enterré son outil d'analyse de texte présenté en février dernier. Celui-ci avait notamment pour but de répondre aux demandes du personnel éducatif, inquiet d'un afflux de copies rédigées à l'aide de ChatGPT. En pratique, il pouvait vérifier un texte et dire s'il estimait qu'il était d'origine humaine ou bien produit par une machine.
OpenAI ne s'est pas fendue d'une annonce officielle, mais a simplement mis à jour le billet de blog dans lequel elle présentait son outil. « À partir du 20 juillet 2023, le classificateur d'IA ne sera plus disponible en raison de son faible taux de précision », explique l'entreprise dans un court paragraphe. Le lien permettant d'accéder à l'outil redirige désormais sur une erreur 404.
Il faut dire que les performances de ce « classificateur » étaient plutôt médiocres. Ses créateurs ont effectué des tests montrant que l'outil n'était pas sûr de lui dans une grande partie des cas, et qu'il avait attribué 9 % des textes humains à une machine. Ce service en ligne ne fonctionnait qu'en anglais, ce qui limitait fortement sa portée.
OpenAI ne s'avoue pas vaincue pour autant et explique travailler sur une nouvelle version plus performante en se basant sur les retours de cette première expérimentation. Elle rappelle également plancher sur des outils similaires pour les fichiers audio et les images.