Ouvrir le menu principal

MacGeneration

Recherche

IA « responsable » : le bal des faux QI

Stéphane Moussie

mercredi 21 juin 2023 à 18:15 • 27

Ailleurs

« Nous pensons que l'intervention du gouvernement est nécessaire pour limiter les risques posés par cette technologie qui devient de plus en plus puissante. » Cette phrase n'a pas été prononcée par un membre de la Commission européenne, mais par le patron d'OpenAI. Lors de ses récentes rencontres avec les autorités du monde entier, Sam Altman n'a cessé d'appeler à la régulation du secteur de l'intelligence artificielle. L'entrepreneur veut-il vraiment que son ChatGPT soit fermement tenu en laisse ? Pas tout à fait.

En coulisses, OpenAI essaye de peser pour que les régulations ne soient pas trop contraignantes. C'est ce que révèle le magazine Time, qui a pu consulter des documents soumis par OpenAI à la Commission européenne dans le cadre de discussions autour de l'AI Act, le grand projet de règlement européen sur l'intelligence artificielle. Plusieurs modifications suggérées par l'entreprise ont trouvé leur chemin jusqu'au texte voté par le Parlement européen le 14 juin — il reste encore d'autres étapes avant la finalisation à la fin de l'année. OpenAI a notamment obtenu que les intelligences artificielles génératives, comme ChatGPT et DALL-E, ne soient pas considérées comme étant à « haut risque », ce qui aurait conduit à des règles plus strictes en matière de transparence ou de contrôle.

Satya Nadella lors de la présentation du nouveau Bing propulsé par GPT. Image Microsoft.

L'étoile montante de l'industrie n'est pas la seule à tenir un double discours. Microsoft prétend également vouloir bâtir une « IA responsable » avec de grands principes tels que l'équité, la fiabilité et la sécurité, mais trop soucieux de ne pas se faire doubler, le groupe n'en a pas tenu compte au moment de lancer son Bing infusé à GPT.

Le Wall Street Journal rapporte en effet qu'OpenAI a recommandé à Microsoft de prendre son temps pour intégrer GPT-4, une version alors inédite, afin de réduire les risques d'erreurs factuelles ou de réponses incongrues. Mais trop content de couper l'herbe sous le pied à Google, Satya Nadella s'est empressé de lancer le nouveau Bing… et ce qui devait arriver arriva. Manipulé par des internautes, ce Bing était capable de perdre la tête, au point que Microsoft a dû lui mettre rapidement une camisole de force. Était-ce bien « responsable » de sortir une IA dans un tel état ? Non, mais en attendant, Bing a connu un succès comme jamais.

Google aussi vante une « IA responsable » dans laquelle on peut avoir confiance. Mais dans le même temps, le géant du web demande à ses employés de faire preuve de beaucoup de précaution avec les robots conversationnels, y compris le sien. D'après Reuters, Google conseille en effet à ses salariés de ne pas entrer d'informations confidentielles dans les Bard, ChatGPT et autres Bing. L'entreprise craint que ces informations soient lues par les opérateurs humains chargés d'améliorer ces services ou qu'elles soient absorbées puis recrachées à tout venant par les IA. Bard n'est d'ailleurs toujours pas disponible en Europe en raison des forts doutes qui pèsent sur sa conformité au RGPD.

Jusqu'à l'année dernière, Google s'était pourtant astreint à garder son IA générative entre ses murs. Mais le lancement de ChatGPT et la pression concurrentielle de Microsoft ont poussé Sundar Pichai à libérer sa technologie qui, en étant intégrée à son moteur de recherche, pourrait bouleverser le web.

Et que dire d'Elon Musk qui, le même mois qu'il signait une pétition militant pour une pause dans le développement des IA, créait une nouvelle entreprise devant rivaliser avec OpenAI ? Force est de constater que la course folle lancée par ChatGPT n'incite pas l'industrie à se réguler et se responsabiliser de son propre chef, c'est même le contraire.

Témoignages : « ChatGPT, c

Témoignages : « ChatGPT, c'est un réflexe désormais »

Rejoignez le Club iGen

Soutenez le travail d'une rédaction indépendante.

Rejoignez la plus grande communauté Apple francophone !

S'abonner

370 000 conversations en fuite chez xAI, dont certaines où Grok enfreint ses propres règles

20/08/2025 à 21:30

• 17


Test du Razer Thunderbolt 5 Dock : un pied dans le futur, un dans le passé

20/08/2025 à 21:00

• 3


Google dévoile quatre Pixel 10 aux améliorations nuancées

20/08/2025 à 20:37

• 44


D'importants correctifs de sécurité avec macOS 15.6.1 et iOS 18.6.2 [🆕 : iPadOS 17.7.10, macOS 14.7.8 et macOS 13.7.8 aussi proposés]

20/08/2025 à 19:48

• 15


Ces articles du Club iGen passent en accès libre : découvrez nos contenus premium

20/08/2025 à 17:01

• 2


Test du Corsair EX400U, un SSD USB4 parfait pour les Mac… et les iPhone

20/08/2025 à 17:00

• 19


inZOI : le concurrent aux Sims sous Unreal Engine 5 est désormais disponible pour les Mac M2

20/08/2025 à 16:52

• 7


Apple digère lentement Pixelmator

20/08/2025 à 15:26

• 27


Promo sur les bureaux assis-debout à 2 et 4 pieds de Flexispot

20/08/2025 à 13:30

• 11


Un clavier aux couleurs de Severance, pour ceux qui veulent raffiner des macrodonnées 🆕

20/08/2025 à 12:50

• 23


Acrobat Studio : les PDF passés à la moulinette IA par Adobe

20/08/2025 à 12:06

• 6


Une faille de sécurité corrigée chez Plex, mettez vite votre serveur à jour

20/08/2025 à 10:50

• 14


iOS 26 et macOS Tahoe accueillent l'utilisateur avec une tournée des nouveautés

20/08/2025 à 09:05

• 70


L'IA est là et elle vous aide à lire et à écrire

19/08/2025 à 20:30

• 31


Boulanger propose l’assurance AppleCare+ pour de nombreux produits Apple

19/08/2025 à 17:45

• 16


Mountain Duck 5 se fond dans le Finder et fait du versioning avec le FTP

19/08/2025 à 15:40

• 8