Ouvrir le menu principal

MacGeneration

Recherche

IA « responsable » : le bal des faux QI

Stéphane Moussie

mercredi 21 juin 2023 à 18:15 • 27

Ailleurs

« Nous pensons que l'intervention du gouvernement est nécessaire pour limiter les risques posés par cette technologie qui devient de plus en plus puissante. » Cette phrase n'a pas été prononcée par un membre de la Commission européenne, mais par le patron d'OpenAI. Lors de ses récentes rencontres avec les autorités du monde entier, Sam Altman n'a cessé d'appeler à la régulation du secteur de l'intelligence artificielle. L'entrepreneur veut-il vraiment que son ChatGPT soit fermement tenu en laisse ? Pas tout à fait.

En coulisses, OpenAI essaye de peser pour que les régulations ne soient pas trop contraignantes. C'est ce que révèle le magazine Time, qui a pu consulter des documents soumis par OpenAI à la Commission européenne dans le cadre de discussions autour de l'AI Act, le grand projet de règlement européen sur l'intelligence artificielle. Plusieurs modifications suggérées par l'entreprise ont trouvé leur chemin jusqu'au texte voté par le Parlement européen le 14 juin — il reste encore d'autres étapes avant la finalisation à la fin de l'année. OpenAI a notamment obtenu que les intelligences artificielles génératives, comme ChatGPT et DALL-E, ne soient pas considérées comme étant à « haut risque », ce qui aurait conduit à des règles plus strictes en matière de transparence ou de contrôle.

Satya Nadella lors de la présentation du nouveau Bing propulsé par GPT. Image Microsoft.

L'étoile montante de l'industrie n'est pas la seule à tenir un double discours. Microsoft prétend également vouloir bâtir une « IA responsable » avec de grands principes tels que l'équité, la fiabilité et la sécurité, mais trop soucieux de ne pas se faire doubler, le groupe n'en a pas tenu compte au moment de lancer son Bing infusé à GPT.

Le Wall Street Journal rapporte en effet qu'OpenAI a recommandé à Microsoft de prendre son temps pour intégrer GPT-4, une version alors inédite, afin de réduire les risques d'erreurs factuelles ou de réponses incongrues. Mais trop content de couper l'herbe sous le pied à Google, Satya Nadella s'est empressé de lancer le nouveau Bing… et ce qui devait arriver arriva. Manipulé par des internautes, ce Bing était capable de perdre la tête, au point que Microsoft a dû lui mettre rapidement une camisole de force. Était-ce bien « responsable » de sortir une IA dans un tel état ? Non, mais en attendant, Bing a connu un succès comme jamais.

Google aussi vante une « IA responsable » dans laquelle on peut avoir confiance. Mais dans le même temps, le géant du web demande à ses employés de faire preuve de beaucoup de précaution avec les robots conversationnels, y compris le sien. D'après Reuters, Google conseille en effet à ses salariés de ne pas entrer d'informations confidentielles dans les Bard, ChatGPT et autres Bing. L'entreprise craint que ces informations soient lues par les opérateurs humains chargés d'améliorer ces services ou qu'elles soient absorbées puis recrachées à tout venant par les IA. Bard n'est d'ailleurs toujours pas disponible en Europe en raison des forts doutes qui pèsent sur sa conformité au RGPD.

Jusqu'à l'année dernière, Google s'était pourtant astreint à garder son IA générative entre ses murs. Mais le lancement de ChatGPT et la pression concurrentielle de Microsoft ont poussé Sundar Pichai à libérer sa technologie qui, en étant intégrée à son moteur de recherche, pourrait bouleverser le web.

Et que dire d'Elon Musk qui, le même mois qu'il signait une pétition militant pour une pause dans le développement des IA, créait une nouvelle entreprise devant rivaliser avec OpenAI ? Force est de constater que la course folle lancée par ChatGPT n'incite pas l'industrie à se réguler et se responsabiliser de son propre chef, c'est même le contraire.

Témoignages : « ChatGPT, c

Témoignages : « ChatGPT, c'est un réflexe désormais »

Rejoignez le Club iGen

Soutenez le travail d'une rédaction indépendante.

Rejoignez la plus grande communauté Apple francophone !

S'abonner

Un humanoïde boucle le semi-marathon de Pékin en 2h40

19:05

• 14


Incogni : la vie privée, enfin prise au sérieux (par quelqu’un d’autre que vous) 📍

14:00

• 0


À la découverte de l’écosystème UniFi, l’équipement réseau des pros accessible au grand public

10:00

• 55


Promo : les prix des MacBook Air M4 et MacBook Pro M4 continuent de baisser - jusqu'à 10 % de remise ! 🆕

19/04/2025 à 15:56

• 10


Sortie de veille : le futur de l’iPad se trouve-t-il dans le Mac ?

19/04/2025 à 08:00

• 19


Quand Apple a sorti... une molaire

18/04/2025 à 22:15

• 50


Redonnez vie à vos photos floues : l'IA d’Aiarty passe à la vitesse supérieure 📍

18/04/2025 à 22:01

• 0


Clap de fin pour Mythic Quest, qui voit son épisode final modifié pour mieux clore la série

18/04/2025 à 21:30

• 32


Un support pour Mac mini M4 qui en bouche un coin(-coin)

18/04/2025 à 20:45

• 50


Choosy permet de choisir un navigateur web différent en fonction du lien à ouvrir

18/04/2025 à 18:00

• 17


Doom, Mario, Civilization : les IA génératives peuvent-elles terminer des jeux des années 90 ?

18/04/2025 à 17:30

• 11


Les agences immobilières peuvent intégrer DossierFacile sur leur site

18/04/2025 à 15:04

• 9


Assistant d’évaluation : un rapport de bug peut servir à entraîner Apple Intelligence

18/04/2025 à 12:43

• 4


macOS 15.4 ne blanchit plus le fond de l'écran

18/04/2025 à 12:05

• 5


Netflix augmente ses prix en France sur fond de bons résultats

18/04/2025 à 08:11

• 199


Les dernières publicités de Beats vantent avec humour les mérites des nouveaux câbles colorés de la marque

18/04/2025 à 08:03

• 26