IA « responsable » : le bal des faux QI

Stéphane Moussie |

« Nous pensons que l'intervention du gouvernement est nécessaire pour limiter les risques posés par cette technologie qui devient de plus en plus puissante. » Cette phrase n'a pas été prononcée par un membre de la Commission européenne, mais par le patron d'OpenAI. Lors de ses récentes rencontres avec les autorités du monde entier, Sam Altman n'a cessé d'appeler à la régulation du secteur de l'intelligence artificielle. L'entrepreneur veut-il vraiment que son ChatGPT soit fermement tenu en laisse ? Pas tout à fait.

En coulisses, OpenAI essaye de peser pour que les régulations ne soient pas trop contraignantes. C'est ce que révèle le magazine Time, qui a pu consulter des documents soumis par OpenAI à la Commission européenne dans le cadre de discussions autour de l'AI Act, le grand projet de règlement européen sur l'intelligence artificielle. Plusieurs modifications suggérées par l'entreprise ont trouvé leur chemin jusqu'au texte voté par le Parlement européen le 14 juin — il reste encore d'autres étapes avant la finalisation à la fin de l'année. OpenAI a notamment obtenu que les intelligences artificielles génératives, comme ChatGPT et DALL-E, ne soient pas considérées comme étant à « haut risque », ce qui aurait conduit à des règles plus strictes en matière de transparence ou de contrôle.

Satya Nadella lors de la présentation du nouveau Bing propulsé par GPT. Image Microsoft.

L'étoile montante de l'industrie n'est pas la seule à tenir un double discours. Microsoft prétend également vouloir bâtir une « IA responsable » avec de grands principes tels que l'équité, la fiabilité et la sécurité, mais trop soucieux de ne pas se faire doubler, le groupe n'en a pas tenu compte au moment de lancer son Bing infusé à GPT.

Le Wall Street Journal rapporte en effet qu'OpenAI a recommandé à Microsoft de prendre son temps pour intégrer GPT-4, une version alors inédite, afin de réduire les risques d'erreurs factuelles ou de réponses incongrues. Mais trop content de couper l'herbe sous le pied à Google, Satya Nadella s'est empressé de lancer le nouveau Bing… et ce qui devait arriver arriva. Manipulé par des internautes, ce Bing était capable de perdre la tête, au point que Microsoft a dû lui mettre rapidement une camisole de force. Était-ce bien « responsable » de sortir une IA dans un tel état ? Non, mais en attendant, Bing a connu un succès comme jamais.

Google aussi vante une « IA responsable » dans laquelle on peut avoir confiance. Mais dans le même temps, le géant du web demande à ses employés de faire preuve de beaucoup de précaution avec les robots conversationnels, y compris le sien. D'après Reuters, Google conseille en effet à ses salariés de ne pas entrer d'informations confidentielles dans les Bard, ChatGPT et autres Bing. L'entreprise craint que ces informations soient lues par les opérateurs humains chargés d'améliorer ces services ou qu'elles soient absorbées puis recrachées à tout venant par les IA. Bard n'est d'ailleurs toujours pas disponible en Europe en raison des forts doutes qui pèsent sur sa conformité au RGPD.

Jusqu'à l'année dernière, Google s'était pourtant astreint à garder son IA générative entre ses murs. Mais le lancement de ChatGPT et la pression concurrentielle de Microsoft ont poussé Sundar Pichai à libérer sa technologie qui, en étant intégrée à son moteur de recherche, pourrait bouleverser le web.

Et que dire d'Elon Musk qui, le même mois qu'il signait une pétition militant pour une pause dans le développement des IA, créait une nouvelle entreprise devant rivaliser avec OpenAI ? Force est de constater que la course folle lancée par ChatGPT n'incite pas l'industrie à se réguler et se responsabiliser de son propre chef, c'est même le contraire.

Témoignages : « ChatGPT, c'est un réflexe désormais »

Accédez aux commentaires de l'article