Ouvrir le menu principal

MacGeneration

Recherche

GPT-4 : Steve Wozniak et Elon Musk demandent une pause dans le développement de l'IA

Félix Cattafesta

mercredi 29 mars 2023 à 17:00 • 153

Ailleurs

Le co-fondateur d'Apple Steve Wozniak a signé une lettre ouverte demandant une pause dans le développement des IA génératives comme GPT-4. Son nom apparait à côté d'autres pointures de la tech comme Elon Musk ainsi que plusieurs chercheurs en IA. Les signataires réclament une meilleure réglementation de la technologie ainsi qu'une surveillance plus poussée sur ce domaine.

Steve Wozniak en 2011. Image : Wikipédia.

« Les systèmes d'IA dotés d'une intelligence pouvant concurrencer celle des humains peuvent présenter des risques profonds pour la société et l'humanité », explique la lettre. Les signataires déplorent le manque de préparation dans le développement des différentes IA et une course hors de contrôle pour déployer des modèles de plus en plus puissants. Ils craignent que les risques soient difficiles à anticiper et à contrôler.

Devons-nous laisser les machines inonder nos canaux d'information de propagande et de fausses vérités ? Devons-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, nous rendre obsolète et nous remplacer ? Devons-nous risquer de perdre le contrôle de notre civilisation ? Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus.

Si ces questions peuvent sembler hallucinées, la crainte que l'IA puisse dérailler et se retourner contre ses créateurs est bien réelle. OpenAI a d'ailleurs testé son modèle GPT-4 pour s'assurer qu'il ne risquait pas de se rebeller et devenir nocif. Si les testeurs n'ont rien trouvé de dangereux, le modèle a tout de même réussi à mentir et à embaucher un humain pour résoudre des Captcha à sa place. Le CEO d'OpenAI se disait lui-même « un peu effrayé » par la technologie et la manière dont elle pourrait affecter le monde du travail, les élections et la diffusion de la désinformation.

GPT-4 : OpenAI a vérifié que son modèle ne pouvait pas se rebeller

GPT-4 : OpenAI a vérifié que son modèle ne pouvait pas se rebeller

« Les systèmes d'IA puissants ne devraient être développés que lorsque nous serons convaincus que leurs effets seront positifs et que les risques sont gérables », explique le texte. Les signataires invitent les laboratoires d'IA à faire une pause d'au moins 6 mois sur l'entraînement de leurs projets plus puissants que GPT-4. Ce moment de réflexion devrait être utilisé pour élaborer et mettre en œuvre des protocoles de sécurité contrôlés et supervisés par des experts externes indépendants.

Les signataires n'appellent pas à un arrêt complet du développement des IA, mais plutôt à un ralentissement dans une « course dangereuse vers des modèles de boîte noire toujours plus grands et imprévisibles ». Le texte fait ici référence à la récente décision d'OpenAI de ne plus divulguer certains secrets de fabrication de ses modèles. Ce choix inquiète certains experts, qui estiment que la transparence des informations permet aux chercheurs indépendants de détecter certaines failles.

La lettre a été signée par plusieurs spécialistes du domaine, avec notamment des membres du laboratoire d'IA de Google, le patron du principal concurrent d'OpenAI (Stability AI) mais aussi par des chercheurs et des universitaires. Elle a été mise en ligne sur le site du Future of Life Institute, une organisation fondée en 2014 s'intéressant aux risques existentiels modernes (réchauffement climatique, armes nucléaires…).

Soutenez MacGeneration sur Tipeee

MacGeneration a besoin de vous

Vous pouvez nous aider en vous abonnant ou en nous laissant un pourboire

Soutenez MacGeneration sur Tipeee

Une cyberattaque sur un logiciel médical paralyse des soignants et fait craindre une fuite de données

18/11/2025 à 22:39

• 8


Asus ProArt PA27JCV : un écran 5K à 675 €, son plus bas prix à ce jour

18/11/2025 à 19:46

• 10


Google lance Gemini 3 Pro, qui doit être meilleur que GPT-5, Grok ou Claude

18/11/2025 à 18:15

• 50


Les rayons cosmiques ne causeraient pas d'erreurs dans la RAM

18/11/2025 à 17:30

• 19


Le MacBook Pro M5 avec 24 Go de RAM à 1 799 € et d’autres configs spéciales en promo

18/11/2025 à 16:52

• 15


Un boule de nöel connectée avec haut-parleur intégré ! 20 € seulement !

18/11/2025 à 16:31

• 0


Cloudflare en panne, de nombreux sites web et services inaccessibles 🆕

18/11/2025 à 15:54

• 64


Chrome : Google publie un patch d’urgence pour une faille activement exploitée

18/11/2025 à 15:40

• 4


Orange lance une offre de SMS par satellite en Direct to Device

18/11/2025 à 15:26

• 27


pCloud fait dégringoler le prix de ses forfaits cloud à vie pour le Black Friday ! 📍

18/11/2025 à 15:10

• 0


Antidote 12 : une mise à jour gratuite vient muscler la reformulation et les dictionnaires

18/11/2025 à 14:54

• 12


Application carte Vitale : usages, adoption, évolutions… on fait le point

18/11/2025 à 13:35

• 48


Mouse Jiggler, l’app qui fait bouger tout seul le curseur de votre Mac

18/11/2025 à 13:27

• 12


Rebecca Heineman, qui a travaillé sur Doom, Wolfenstein 3D ou Ultima, est décédée

18/11/2025 à 12:35

• 10


Kingston cache un SSD externe USB-C et USB-A dans un design de clé USB

18/11/2025 à 10:55

• 13


Le groupe chinois JD.com lorgne sur Fnac-Darty et prépare son arrivée en France

18/11/2025 à 10:11

• 43