GPT-4 : Steve Wozniak et Elon Musk demandent une pause dans le développement de l'IA

Félix Cattafesta |

Le co-fondateur d'Apple Steve Wozniak a signé une lettre ouverte demandant une pause dans le développement des IA génératives comme GPT-4. Son nom apparait à côté d'autres pointures de la tech comme Elon Musk ainsi que plusieurs chercheurs en IA. Les signataires réclament une meilleure réglementation de la technologie ainsi qu'une surveillance plus poussée sur ce domaine.

Steve Wozniak en 2011. Image : Wikipédia.

« Les systèmes d'IA dotés d'une intelligence pouvant concurrencer celle des humains peuvent présenter des risques profonds pour la société et l'humanité », explique la lettre. Les signataires déplorent le manque de préparation dans le développement des différentes IA et une course hors de contrôle pour déployer des modèles de plus en plus puissants. Ils craignent que les risques soient difficiles à anticiper et à contrôler.

Devons-nous laisser les machines inonder nos canaux d'information de propagande et de fausses vérités ? Devons-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, nous rendre obsolète et nous remplacer ? Devons-nous risquer de perdre le contrôle de notre civilisation ? Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus.

Si ces questions peuvent sembler hallucinées, la crainte que l'IA puisse dérailler et se retourner contre ses créateurs est bien réelle. OpenAI a d'ailleurs testé son modèle GPT-4 pour s'assurer qu'il ne risquait pas de se rebeller et devenir nocif. Si les testeurs n'ont rien trouvé de dangereux, le modèle a tout de même réussi à mentir et à embaucher un humain pour résoudre des Captcha à sa place. Le CEO d'OpenAI se disait lui-même « un peu effrayé » par la technologie et la manière dont elle pourrait affecter le monde du travail, les élections et la diffusion de la désinformation.

GPT-4 : OpenAI a vérifié que son modèle ne pouvait pas se rebeller

GPT-4 : OpenAI a vérifié que son modèle ne pouvait pas se rebeller

« Les systèmes d'IA puissants ne devraient être développés que lorsque nous serons convaincus que leurs effets seront positifs et que les risques sont gérables », explique le texte. Les signataires invitent les laboratoires d'IA à faire une pause d'au moins 6 mois sur l'entraînement de leurs projets plus puissants que GPT-4. Ce moment de réflexion devrait être utilisé pour élaborer et mettre en œuvre des protocoles de sécurité contrôlés et supervisés par des experts externes indépendants.

Les signataires n'appellent pas à un arrêt complet du développement des IA, mais plutôt à un ralentissement dans une « course dangereuse vers des modèles de boîte noire toujours plus grands et imprévisibles ». Le texte fait ici référence à la récente décision d'OpenAI de ne plus divulguer certains secrets de fabrication de ses modèles. Ce choix inquiète certains experts, qui estiment que la transparence des informations permet aux chercheurs indépendants de détecter certaines failles.

La lettre a été signée par plusieurs spécialistes du domaine, avec notamment des membres du laboratoire d'IA de Google, le patron du principal concurrent d'OpenAI (Stability AI) mais aussi par des chercheurs et des universitaires. Elle a été mise en ligne sur le site du Future of Life Institute, une organisation fondée en 2014 s'intéressant aux risques existentiels modernes (réchauffement climatique, armes nucléaires…).

avatar Derw | 

@Sonic Tooth

ironie
Mais puisqu’on vous dit que c’est de la Destruction Créatrice !
/ironie

avatar smog | 

1ère pensée : comme si une pause "officielle" allait empêcher les entreprises (étatiques ou non) à continuer à travailler dessus... Au contraire, pour un qui ferait une "pause", combien en profiteraient pour essayer d'avancer plus que la concurrence ?
2ème pensée : une pause de quelques mois ne changerait rien au fond du problème : tout ce que "l'IA" a d'intelligence est malheureusement compensée par ce que l'utilisateur malin (au sens "qui fait du mal") détruit ;
3ème pensée : Musk a quelle légitimité pour parler ainsi, lui qui a voulu plus de liberté sur Twitter en bloquant en même temps les comptes de ceux qui le dérangeaient ? Qu'il balaie devant sa porte de faiseur de pluie et beau temps sans scrupules...

avatar vince29 | 

> 3ème pensée : Musk a quelle légitimité pour parler ainsi, lui qui a voulu plus de liberté sur Twitter en bloquant en même temps les comptes de ceux qui le dérangeaient ?

Ont été bannis les comptes de stalking de célébrités. Ils peuvent reprendre leurs activités à condition d'observer un délai de quelques jours avant de publier. Tu pourras toujours faire du flygskam de grands patrons si tu veux, mais tu ne pourras pas le faire en temps réel.

Pages

CONNEXION UTILISATEUR