Le cri d'alarme sur les dangers de l'IA lancé par Wozniak et Musk tape à côté du problème

Félix Cattafesta |

On pouvait s'en douter, c'est désormais confirmé : la lettre ouverte demandant une pause dans le développement des IA signée par Steve Wozniak et Elon Musk est un gros bazar. Publiée en début de semaine, celle-ci s'inquiète de l'impact des IA génératives style GPT-4 sur nos sociétés, et demandait à ce que plus de précautions soient prises pour leur développement.

L'association ayant publié la lettre a visiblement été quelque peu laxiste sur la validation des signataires. Le Future of Life Institute a confirmé à Motherboard vérifier indépendamment chaque signature, en entrant en « communication directe » avec les personnes concernées. Or, on a pu voir passer le nom du président chinois Xi Jinping ou celui du chef de l'IA de Meta, qui affirme n'avoir rien signé. Les noms ont depuis été effacés, mais cela montre bien que cette histoire partait sur de mauvaises bases.

GPT-4 : Steve Wozniak et Elon Musk demandent une pause dans le développement de l

GPT-4 : Steve Wozniak et Elon Musk demandent une pause dans le développement de l'IA

Les sources citées par le papier se sont rapidement manifestées pour démontrer que l'analyse était à côté de la plaque. Emily M. Bender, professeur au département de linguistique de l'université de Washington et co-autrice du premier article cité dans la lettre, explique que le texte fait un mauvais usage de ses recherches en surinterprétant et en omettant certains éléments. Ses écrits pointent un danger en cas de concentration du pouvoir et des dégâts sur l'écosystème de l'information. Elle ajoute que contrairement à ce qu'affirme la lettre, « les risques et les préjudices n'ont jamais été liés à une "IA trop puissante" ». De son côté, la chercheuse Sasha Luccioni y voit un coup fourré :

Il s'agit essentiellement d'une diversion : attirer l'attention de tous sur des pouvoirs et des préjudices hypothétiques des modèles de langage et proposer un moyen (très vague et inefficace) d'y remédier, au lieu d'examiner les problèmes actuels et y répondre - par exemple, en exigeant plus de transparence en ce qui concerne les données et les capacités de formation des modèles de langage, ou en légiférant sur le lieu et le moment où ces outils peuvent être utilisés.

Un point de vue partagé par d'autres chercheurs. Arvind Narayanan, professeur d'informatique à Princeton estime que si ces craintes sur le long terme sont valides, « elles ont été utilisées à plusieurs reprises de manière stratégique pour détourner l'attention des dégâts actuels », y compris des risques en matière de sécurité et de sûreté de l'information.

L'idée de la lettre suggérant de faire une pause de 6 mois a été considérée comme une réponse bancale face aux problèmes actuels. Le texte invite à cesser temporairement le développement de modèles plus puissants que GPT-4. Or, celui-ci apporte déjà tout un tas de soucis : pourquoi ne pas commencer par s'alarmer de ceux-là ?

La lettre a été pourtant signée par des pointures du domaine : Steve Wozniak, l'auteur Yuval Noah Harari, le co-fondateur de Pinterest Evan Sharp mais aussi… Elon Musk. Si celui-ci veut montrer qu'il s'inquiète d'une potentielle perte de contrôle des IA, Forbes avance une théorie intéressante pour justifier cette signature : Musk serait tout simplement frustré d'avoir retiré ses billes dans OpenAI et de regarder le train passer.

Elon Musk. Image : Daniel Oberhaus (CC BY)

OpenAI a été fondée en 2015, et Musk a participé aux levées de fonds initiales. Trois ans plus tard, l'homme d'affaires claque la porte, estimant que le projet n'avance pas assez vite. En coulisses, Musk aurait demandé à l'actuel CEO de prendre les manettes d'OpenAI pour donner un coup de fouet à son développement, mais l'idée a été refusée. Elon Musk quitte au passage le conseil d'administration de l'association. « Il continuera à faire des dons et à conseiller l'organisation », explique OpenAI dans un billet. « Comme Tesla continue à se concentrer sur l'IA, cela éliminera un conflit potentiel futur pour Elon ». OpenAI ne deviendra une entreprise que quelques temps plus tard, avec le succès qu'on lui connait.

En ayant ça en tête, la signature de cette tribune par Elon Musk prend un autre sens. Difficile de dire où en est Tesla côté IA, et rien ne laisse à penser que l'entreprise a dans ses cartons des avancées aussi grandes que celles d'OpenAI. Une pause de 6 mois pourrait permettre à Musk de rattraper une partie de son retard, ou tout du moins à mettre des bâtons dans les roues de ses adversaires.

Tags
avatar oomu | 

@jujulec

ça concerne pas le Muské du jour en tout cas.

avatar jujulec | 

@oomu

Effectivement, maintenant qu'il vient de voir le train lui passer sous le nez il va être mignon le père la vertu dans sa toge immaculé ! Si il ne s'était pas pris les pieds dans le tapis aujourd'hui il nous vendrait probablement une autre soupe...

avatar Thms | 

Je vois chatGPT comme un tsunami. C’est trop tard, on n’interdit pas un tsunami quand la vague est là devant nous. On met pas « le hola » à la vague pendant 6 mois…

avatar smog | 

La question est : pourquoi ne régule-t-on pas les technologies de l'information comme on le fait dans plein d'autres domaines (médecine/pharmacie, génétique, utilisation de l'espace aérien etc.) ?

avatar Bruno de Malaisie | 

ChatGPT ne me fait pas peur.
Ce qui m’inquiète, c’est comment les gens vont l’utiliser.
Cela me paraît être une belle machine à décérébrer.

avatar smog | 

@Bruno : oui, je crois que tout le monde est d'accord là-dessus : ce n'est pas tant l'outil que son utilisateur qui inquiète. Mais c'est un peu évident je pense !

avatar koko256 | 

@Bruno de Malaisie

Pas plus que la télévision (TPAMP), la presse à scandale ou les réseaux sociaux. Il me semble que le mal est fait et que les humains doivent apprendre à vérifier sur des sources fiables.

avatar Bruno de Malaisie | 

@koko256

On est bien d’accord.
Ce ChatGPT est une nouvelle / autre couche de bêtise à ajouter à celles auxquelles tu fais référence, à raison…

avatar bunam | 

Je pense que l'IA n'existe pas, les réseaux neuronaux oui.
Les sociétés qui travaillent avec les RN, l'apprentissage profond ont besoin d'exposition pour attirer des investisseurs.
Du coup ils favorisent les errements du langage : utilisation de 'IA'
Je pense que les journalistes ont une part de responsabilité, ou alors ils s'appuient sur le défaut de langage des sociétés qui font la promotion de leur business.
Les influenceurs propagent aussi ces errements du langage.
Du coup le public pense avoir en main quelque chose qui fait ce qu'on lui a "vendu". Et c'est archi faux.
Les RN dans certains domaines sont formidables, mais doivent rester cantonnées à ces usages pros ou très encadrés.
Les RN généralistes doivent rester dans le domaine du divertissement.

Je pense que la technologie est très loin d'une IA. Je pense même qu'il faudra d'autres technologies pour y arriver.

Il va falloir expliquer tout ça au public et ça va être une vraie galère. La bulle risque d’éclater.

avatar smog | 

@bunam : on est bien d'accord, mais sur le fond ça ne change pas grand chose qu'on appelle ça IA ou zigouigoui...

avatar Dr. Kifelkloun | 

Le jour où on craindra la Connerie Naturelle autant que l'Intelligence Artificielle, l'humanité fera un grand pas en avant à mon avis...

avatar bunam | 

@Dr. Kifelkloun

je pense qu'il faut faire une page wikipedia pour cette citation ;)

avatar lepoulpebaleine | 

@Dr. Kifelkloun

😂😂😂😂🤣🤣🤣🤣
You made my day bro !

avatar marc_os | 

Du coup, vu la motivation douteuse de cette lettre, la question est :
Qui au Future of Life l'a réellement rédigée ?

avatar Paquito06 | 

Poeple’s 😅
Un tweet qui ne contient pas 10 mots avec des fautes ressemble plus a un scam nigerien 🤣

avatar lepoulpebaleine | 

Face à chatGPT et l’IA en général, faut-il avoir peur ou être enthousiaste ?
Des pistes de réflexion par Adrien FLOOR dans cette vidéo YouTube :

https://youtu.be/m_rVCJRDexA

avatar narugi | 

Elon est simplement rancunier car ne l’oublions pas il est fondateur de OpenAI. Il en a claqué la porte après des désaccords avec Sam Altman.
Il est contre car Optimus n’est pas prêt et que je pense il veut par la suite y intégrer de l’IA et il a prit du retard sur le sujet.
Il veut simplement freiner un concurrent.

Il est malin c’est certain mais Elon tu nous la fera pas.

avatar Orus | 

Oui mal orienté les IAs en se diffusant parmi le peuple d'en bas, pourraient nuire aux gros actionnaires comme Musk et Woz. Réfléchissons donc au moyen de les rendre disponible uniquement à une élite dirigeante.

avatar koko256 | 

"en exigeant plus de transparence en ce qui concerne les données et les capacités de formation des modèles de langage, ou en légiférant sur le lieu et le moment où ces outils peuvent être utilisés."
C'est mignon mais à côté de la plaque. Les modèles sont connus et ne donnent aucune information plausible (sans compter la nullité en math ambiante qui fait que nos décideurs/influenceurs/politiques et une bonne partie des journalistes n'y pigeront rien). Les données sont en général connues et très grande donc ne sont pas stockées à un instant t. C'est le web de 2021... et à moins d'en faire une capture, on ne les a pas.
Légiférer... pour interdire bien sûr. Ils n'ont pas lu "Ravage", on n'arrête pas le "progrès" en l'interdisant.

avatar koko256 | 

"… Je n'ai pas peur des ordinateurs
Ni des virus exterminateurs
J'ai défoncé tellement de gladiateurs
Qu'ils ont disparu alors…"

avatar doume | 

L’intelligence artificielle ne me fait pas peur, la bêtise naturelle si !

avatar max intosh | 

Mon job est l’écriture. Je ne sais pas si ChatGpt est moins ou plus talentueux ou intelligent que moi, par contre une chose est certaine: il est au moins 20 fois plus rapide. Sur un thème précis, il a pondu une page de nouvelle de SF en une minute là où il m’aurait fallu 20 minutes.

avatar ataredg | 

Le moratoire sur l'IA est une erreur. Et comme le montre cet article, celles et ceux qui sont contre sont celles et ceux qui ne sont pas dans le wagon de tête. Pour les problèmes éthiques et de falsifications, c'est au niveau de l'humain de régler ses névroses. La machine ne fait que ce qu'on lui demande de faire. Pour raccourcir, on a la société qu'on mérite.

Pages

CONNEXION UTILISATEUR