Le patron d'OpenAI voudrait mettre sur pied un réseau d’usines de semi-conducteurs

Félix Cattafesta |

Le CEO d’OpenAI voudrait se lancer dans le domaine de la fabrication de puces dédiées à l’IA. Selon Bloomberg, Sam Altman aurait fait le tour de potentiels investisseurs dans l’espoir de réunir les fonds nécessaires à la création de plusieurs usines. L’idée serait de travailler avec les principaux fabricants de puces, et les sources proches du dossier affirment que l’ambition serait de créer un réseau d’usines d'envergure mondiale.

Sam Altman en 2015. Image TechCrunch (CC BY).

Altman s’inquièterait d’un futur manque de puces empêchant le déploiement de l’IA à grande échelle dans les années à venir. La théorie est confirmée par certaines prévisions récentes, annonçant une production de puces spécialisées inférieures à la demande prévue. Il faut dire que l’intérêt autour du secteur de l’IA a explosé depuis la sortie de ChatGPT il y a un peu plus d’un an. Les modèles nécessitent des puces de pointe pour tourner en local, tandis que les serveurs ont besoin d’énormément de puissance.

Altman travaillerait d’arrache-pied sur ce projet depuis son retour à la tête d’OpenAI en novembre dernier. Microsoft serait intéressé par une éventuelle participation, les deux entreprises ayant déjà un partenariat de plusieurs milliards de dollars. Les pourparlers n'en seraient qu'à leurs débuts, et la liste complète des partenaires et des investisseurs impliqués dans ce projet n'aurait pas encore été établie.

ChatGPT : comment Microsoft a créé une infrastructure massive pour entraîner le modèle de langage d

ChatGPT : comment Microsoft a créé une infrastructure massive pour entraîner le modèle de langage d'OpenAI

L’idée est audacieuse tant la création d’usines de puces est complexe : un seul site nécessiterait des dizaines de milliards de dollars, et la construction s’étendrait sur des années. Les grands du domaine comme Amazon, Google ou Microsoft s’occupent tous du design avant de faire appel à des entreprises tierces pour la production. Apple utilise également cette stratégie en sous-traitant la production à TSMC, son partenaire privilégié et mastodonte du secteur. Celui-ci est d’ailleurs bien en peine pour ouvrir de nouvelles usines aux États-Unis, preuve qu’une diversification est loin d’être aisée même pour les vétérans.

avatar whocancatchme | 

Je sais pas où le mettre alors je le mets ici mais sur l’app canal+ sur l’Apple TV si vous demandez à Siri d’avancer de 20 secondes ça marche même si c’était bloqué par la pub ! Amazing voilà si ça aide 1 personne déjà c’est bien

avatar W01fman | 

@whocancatchme

Merci !

avatar noooty | 

@whocancatchme

Euh, tu parles à Siri iDiot qui a mis ton commentaire ici ?

avatar yd29021976 | 

@whocancatchme

Oui, et ca avait été dit dans l’article macge sur le sujet.
Ca marche très bien d’ailleurs. Après j’ai aussi remarqué que par moment le « verrou » pour passer la pub ne fonctionne pas, pas super au point leur truc 😉

avatar whocancatchme | 

@yd29021976

Ah oui ! J’ai rien inventé quel naze

avatar yd29021976 | 

@whocancatchme

Tu as fait un rappel d’une bonne astuce, c’est ca qui compte.
Par contre c’est vraiment abusé ‘imposer la pub en replay. Mais que fait l’UE ? 🤡

avatar raoolito | 

@whocancatchme

Il y a le discorde du club iGen qui est parfait pour ça

avatar marc_os | 

Par contre, si tu demandes à ton ATV : « affiche moi les nouveautés en Science Fiction », il va t'afficher en premier un film de début 2023, et plein de vieux trucs, pas les nouveautés comme le faisait l'app iTunesStore simplement pour chaque catégorie.
C'est naze.

avatar R-APPLE-R | 

Moi je veux Sam à la place de Tim 😈

avatar oomu | 

Moi je préfèrerais tous les timmy du monde au lieu des sammy.

avatar sebnutt | 

Décidément ils n’apprennent rien de la fin de la civilisation en 1997 causée par Skynet.

avatar yd29021976 | 

@sebnutt

C’est exactement a ca que j’ai pensé 👍❤️

avatar Albator1138 | 

Râââh !! Cyberdyne Systems !!! (ça a quand même plus de gueule que le fade "openAI")

avatar Phiphi | 

Oh la vache le gazier il fait peur à voir !
Vous croyez qu’il dort parfois ?

avatar Biking Dutch Man | 

Ça va consommer combien d'électricité leur petit jeu?

avatar oomu | 

QUEUAH ?! Hors de question !

avatar v1nce29 | 

> Le patron d'OpenAI voudrait mettre sur pied un réseau d’usines de semi-conducteurs

Mouais, ça reste moins rigolo que le frangin de BankmanFried qui voulait faire des expériences génétiques sur les humains dans le bunker de son île privée.

avatar lienmathieu2 | 

Pourquoi vouloir à tout prix faire fonctionner les ia en local ?
Tout à coup on ne veut plus du cloud computing ?

Quand on pense qu’on arrive à faire tourner des jeux gourmands dans le cloud sans trop de lag, je ne comprend pas trop cette stratégie d’avoir des LLM intégrés qui ne seront jamais aussi bons que ceux qui tournent sur des serveurs ultra performants et optimisés.

Ces tensor chips avec neural networks me semblent un argument marketing pour vendre de nouveaux appareils dédiés à l’ia comme des rabbits… qui ne sont en réalité qu’un form factor original de smartphones.

avatar raoolito | 

@lienmathieu2

Ça me fait penser aux incinérateurs un incinérateur moderne qui est justement bien mis à jour, pollue moins que si tous les gens qui aime les déchets devaient les brûler chez eux, mais allez expliquer ça c'est pas simple

avatar marc_os | 

@ raoolito

De même pour le pain et les gens qui veulent en faire chez eux.
Dans le temps, dans certaines régions, on avait un four commun dans le village où chacun pouvait y faire cuire son pain. De plus, boulanger, c'est un métier. Ce qu'oublient beaucoup de gens qui sont persuadés de savoir tout sur tout et mieux que les professionnels - dans bien des domaines...

avatar raoolito | 

😁

avatar Brice21 | 

@lienmathieu2

"Pourquoi vouloir à tout prix faire fonctionner les ia en local ?"

Pour ne pas devoir exporter des données privées pour avoir de l’AI personnalisée (pratique pour les assistants).

Pour ne pas devoir payer des coûts de serveurs et de bande passante, surtout à OpenAI, Google ou Microsoft.

Pour que l’ai soit utilisable sans être connecté (pratique pour améliorer les claviers) et éviter la latence.

avatar lienmathieu2 | 

@Brice21

une ia ne pourra pas rendre beaucoup de services si elle n’est pas connectée à internet.

Plus j’y pense, plus faire tourner une ia en full local me semble complètement lunaire.

Même tournant localement, il faudra les mettre à jour, et rien n’empêche d’uploader un log ou des données personnelles à intervalles réguliers dès qu’il y a une connexion..

avatar Brice21 | 

@lienmathieu2

"une ia ne pourra pas rendre beaucoup de services si elle n’est pas connectée à internet."

Je vois que tu as une idée préconçue assez limitée de ce qu’une AI fait. Tu semble confondre AI et assistant.

Je dois préciser que je développe un produit à base de 5 modèles d’AI (zoetrope.be). J’utilise ollama, jan.ai, localAI sur raspberry PI. J’utilise aussi des caméras edgeAI (l’AI est faite par un chip dans la caméra Luxonis).

Je fais pour mon produit (sans connection internet) : de la reconnaissance de gestes et d’objets, de la reconnaissance vocale, du prompt engineering, de la combinaison et synthèse de textes, de la traduction, de la génération d’image, de l’upscaling, de la synthèse vocale, …

Les AI en local vont changer le monde autant que les AI dans le Cloud. Et je sais de quoi je parle, moi ;-)

avatar lienmathieu2 | 

@Brice21

«  Et je sais de quoi je parle, moi ;-) »

Dommage cette petite phrase d’auto satisfaction a la fin, j’allais être d’accord avec vous. ;-)

Désolé de vous contredire, mais on parle ici d’IA grand public. Qui aura la forme d’un assistant.

Google vend des Pixels avec des processeurs spécialisés, Apple aussi.
En réalité, l’utilité de ces processeurs est encore totalement surestimée et leur utilisation reste un pari. Pour le moment, cela permet quasiment uniquement à faire du traitement d’image, reconnaissance vocale et vidéo. Pas beaucoup plus.
Il y a du potentiel, mais c’est totalement spéculatif.

Les gens confondent l’entraînement d’une ia et simplement faire tourner un algorithme. Vous le dites vous même, un simple Raspberry Pi, qui n’a pas un processeur « spécialisé ia », fait tourner l’algorithme ia que vous citez.

Cette course au processeur spécialisés ia semble un peu surfaite. Dommage qu’on arrive à des pénuries basées sur des spéculations…

Je reconnais qu’une ia locale a du potentiel, mais pour le grand public, l’utilisation d’une ia aura, je pense la forme d’un assistant puissant. Qui aura besoin de se connecter à une série de serveurs pour rendre des services et pour être à jour par rapport au monde extérieur.

avatar Brice21 | 

@lienmathieu2

Donc vous confondez bien IA et assistant. Dommage que vous ne soyez (manifestement) pas allé voir tous les solutions que j’ai mentionné dans ma réponse. Vous auriez découvert par exemple que https://ollama.ai permet de faire tourner plein de LLMs qui permettent de faire un _assistant_ en local. Même sur un bête Raspberry a 80 euros.

Et il y en a qui battent chatGPT 3.5 à plate couture (mixtral). Ok pas encore chatGPT4, mais ça vient grâce à Mamba qui va renverser la table. (Google MAMBA sur YouTube, ou si tu es pressé : https://pub.towardsai.net/is-mamba-the-end-of-chatgpt-as-we-know-it-a2ce57de0b02)

LocalAI permet de faire tourner ces modèles (en local) avec une API 100% compatible avec celle de chatGPT, et donc de le remplacer facilement dans plein d’applications. Jan.ai te permet de déployer un équivalent de chatGPT 3 sur ton Mac et de l’utiliser en gros pour faire la même chose, mais ça marche dans l’avion ;-)

En local un assistant peut interagir avec vos datas, et par exemple vous permettre en lui parlant de contrôler votre maison (via HomeAssistant) ou de rédiger pour vous des mails, documents, des synthèses… ou de manipuler vos data et applications (agenda, carnet d,adresse, liste de courses, …) et de communiquer via mail, toutes sorte de messagerie textes, via des API avec plein d’apps.

Un exemple d’assistant plus puissant que Google Assistant, mais qui tourne en local sur un bête rPI : https://www.youtube.com/watch?v=eTKgc0YDCwE

Avec les même technologies, je travaille à créer un objet qui contiendra un assistant qui va gérer autre chose (de révolutionnaire). Je ne peux malheureusement pas encore dire de que c’est mais tu peux déjà voir mon projet actuel en vente sur le site www.zoetrope.be qui touche à une autre secteur.

Bref le futur est plein d’AI qui tournent en LOCAL (souvent offline) avec des modèles optimisés pour les processeur Silicon d’Apple et ceux de Google et Samsung, Intel… qui seront utilisée par le grand public, mais alors très très grand public. Genre tous les terriens qui ont un smartphone, une voiture ou un ordinateur, voire une montre, des lunettes, un pendentif (rewind pendant) ou même pour aller au bout du truc : un pins.

Par contre il faudra toujours des fermes de nVidia H100 (ou 1000 dans le futur) pour créer les modèles les plus puissants… sauf si Mamba tient ses promesses. C’est dingue la vitesse à laquelle tout ça change. “Pour les créer’ ça ne veut pas dire pour les utiliser par le grand public, hein.

Je propose qu’avant de répondres à nouveau, tu jettes un œil sur tous ces liens et tu te documentes puis tu réfléchis un peu et essayes de remettre en question tes certitudes. Ça fera une meilleure réponse pour me clouer le bec, tu verras.

avatar lienmathieu2 | 

@Brice21

Ok Mr Le Blevennec d’Emakina, mes respects.

Vous voulez que je vous cloue le bec en apprenant la vie et en « me documentant » (waw) ?

Relisez l’article que nous commentons. Il parle de semi-conducteurs et de pénuries liées aux nouveaux objets ia comme des pins.

Je sais très bien, vous ne m’apprenez rien, que l’ia peut fonctionner en local. Cessez de penser me connaître, vous ne me connaissez pas ni mes fonctions.

Aussi, bien sûr, l’ia permet de mettre mid journey en local dans un écran et son utilisateur peut se prétendre peintre en lui parlant et en faisant des gestes dessus. (En gros, c’est faire tourner une version user friendly de Generative Fill de Photoshop sur une TV The Frame.)

Je dis simplement que beaucoup (la plupart) des ias peuvent fonctionner (pour l’utilisateur) dans le cloud techniquement. Et que cette volonté d’avoir cette ruée vers des semi conducteurs dédiés aux ia locales est peut-être un peu absurde.

Je pose juste des questions. Il y a encore 6 mois des gens nous présentaient des choses farfelues sans intérêt avec la blockchain.

Vous dites vous-même qu’il suffit d’un processeur de Raspberry Pi pour faire tourner certaines ia en local. C’est amplement suffisant pour plein d’usages.

A part pour des usages très spécialisés (video processing, images generator, speech et éventuellement conduite), je ne comprends pas très bien pourquoi les assistants ne seraient pas mieux dans le cloud, connectés à des plugins et avec un accès à internet.

Mais vous allez encore me répondre : vous confondez assistants et IA 🤦

avatar Brice21 | 

@lienmathieu2

"je ne comprends pas très bien pourquoi les assistants ne seraient pas mieux dans le cloud, connectés à des plugins et avec un accès à internet."

Parce que pour être pertinente dans leur réponses, ces IA “dans le cloud” doivent connaître des informations privées. Sinon elles se limitent a des réponses générales.

Par exemple pour demander à chatGPT quand je devrais commander des fleurs pour l’anniversaire de ma sœur, il doit connaître la date de naissance de ma sœur. Et ma sœur elle a pas envie que cette données privée soit sur des serveurs internet. Alors que si mon assistant équivalent à chatGPT tourne en local il peut me répondre avec les données de mon carnet d’adresse et même me proposer de commander les fleurs de saison via l’app qui est sur mon iPhone, car il aura même accès à l’adresse de ma sœur. Pas chatGPT.

Evidemment je peux te donner plein d’autres exemples du même acabit si celui ci ne te convainc pas.

Bref le futur des AI en particulier pour les assistants est en local et il va falloir produire plein de processeurs avec des capacité d’exécution de modèles en local pour cela.

avatar lienmathieu2 | 

@Brice21

« Bref le futur des AI en particulier pour les assistants est en local et il va falloir produire plein de processeurs avec des capacité d’exécution de modèles en local pour cela. »

C’est bien ces certitudes que je conteste.

Ne pas se poser de questions, foncer tous dans la même direction est étonnant. C’est tout.

Une chose est sûre avec l’IA, on ne fait que découvrir des champs d’applications, tout est encore possible. Les directions prises par les acteurs en 2024 seront complètement différentes des directions prises en 2025 et celles de 2023 paraissent déjà obsolètes.

avatar Brice21 | 

@lienmathieu2

"C’est bien ces certitudes que je conteste."

À quel titre ? Tu es développeur spécialisé en machine learning ? Tu as écris un livre sur la question ? Tu as investis dans une boîte d’AI dans le cloud ? Tu es expert en architecture Informatique ? Ou tu lances juste des affirmation au pif ?

Moi je sais d’où je tire mon expertise et mon avis est documenté. Le lecteur de nos échange conclura. Je pense que nos points de vue opposés sont clairs. Le futur démontrera lequel de nous deux était complètement à côté de la plaque.

avatar lienmathieu2 | 

@Brice21

« Tu es développeur spécialisé en machine learning ? »

Bingo.

Eh oui, il n’y a pas que des personnes qui ont revendues leur société en 2021.

Désolé d’être un peu virulent (ce n’est pas bien méchant après vos leçons ;) mais personnellement je pense que l’IA est encore à inventer et pas nécessairement y suivre les préceptes de Steve Jobs (un peu surannés) et surtout Jony Ive (malheureusement un peu has been avec des idées farfelues) et les IA pins. Je possède déjà une Samsung The Frame et mid journey :-)

Mais sans doute j’aurai tort, puisque c’est vous qui avez réussi dans le web et moi je ne suis qu’un jeune développeur ignare qui n’a pas encore écrit de « livre testament » ;-)

avatar Brice21 | 

@lienmathieu2

Tu ferais mieux de lire mon bouquin au lieu de perdre ton temps à contredire un type qui a 35 ans de prédictions technologiques exactes au compteur. Preuves à l’appui.

avatar lienmathieu2 | 

@Brice21

Merci pour vos conseils :-)

avatar Glop0606 | 

Et là tu te dis que bizarrement Open AI risque soudainement d'avoir des retards de livraison de cartes Nvidia.... Après une société d'IA qui gère l'IA et le Hardware... c'est sûr que ça commence à rappeler des scénarios de SF bien connus... Sarah Connor? Non c'est la porte à côté :)

avatar marc_os | 

Il n'a pas froid aux yeux monsieur Altman.

Et ce que je me demande aussi c'est :
Mais est-ce bien raisonnable de miser autant sur le buzz "IA générative" ?
Est-ce ce dont le monde a vraiment besoin alors que le climat est en train de basculer de manière irrémédiable à cause de ces même gens qui en veulent toujours plus encore et encore, même si cela veut dire toujours plus d'énergie à consommer et toujours plus de pollution ?
Les investissements et les coûts de l'IA générative seront-ils même compensé par ce qu'ils pourraient apporter de positif* dans ces domaines ?
Vu les coûts faramineux de cette industrie (argent, énergie, environnement), j'ai un gros doute.

(*) Je ne vois pas trop comment.

avatar yod75 | 

Mais est-ce bien raisonnable de miser autant sur le buzz "IA générative" : tu ne poses pas la bonne question.
L'IA générative c'est à la fois une interface, un outil d'analyse et un outil de fourniture de contenu (outil n'est pas le bon terme) ; il y a beaucoup de buzz autour mais en soi ça n'est pas du tout du buzz. Ca n'est pas non plus une nouveauté ; la première fois que j'ai été confronté à des réseaux neuronaux, c'était au début des années 90 et ça n'était pas une nouveauté. Bien sûr la puissance de calcul disponible était faible et la base de connaissance digitalisée balbutiante. Mais les principes étaient déjà là.
La bonne question est plutôt : pourquoi un fournisseur d'IA réunirait-il des partenaires industriels ? En quoi cela résoudrait la question de la capacité de production de puces ? Est-ce vraiment des soucis de capacité de production qui est anticipée ? ou la volonté de commencer à produire de manière intégrée à l'image de ce que sors Samsung et qui est annoncé chez Apple ?

avatar marc_os | 

@ yod75

Je connais aussi le machine learning depuis longtemps, et ça fait longtemps que c'est utilisé. Même si Apple ne fait pas sa pub là-dessus, si l'app Photo est capable de reconnaître des gens, des voitures et autres choses dans vos photos et permet de faire des recherche sur le contenu, c'est bien grâce à ces technos.
Elles ont aussi toute leur place en médecine.

Mais cette IA générative, si elle fait le buzz, c'est aussi parce que certains "dirigeants" se disent "chouette, je vais pouvoir remplacer du personnel par des logiciels".
C'est ce qu'ils croient aujourd'hui et c'est ce qu'ils planifient.

C'est ce type d'usage que je critique, typique de ChatGPT qui consomme des resources fantastiques, mais qui apporte quoi ? À la société dans son ensemble je ne vois vraiment pas; par contre, les actionnaires divers et variés compte dessus pour maximiser leurs bénéfices, ça c'est clair.

avatar marenostrum | 

sauf que ce n'est pas intelligence. c'est de l'éducation (d'une machine, on lui écrit le programme) plutôt. c'est un humain derrière, pour ça qu'on a ce sam devant nous. quand on aura un robot qui nous explique ces propres plans, la ça sera une intelligence artificielle. pour le moment y a rien, juste une spéculation.

avatar v1nce29 | 

l'IA fait de meilleures prévisions météo avec moins de ressources.
l'IA trouve de nouveaux antibiotiques.
l'IA trouve de nouveaux usages aux médicaments existants.
l'IA prédit les caractéristiques d'alliages en tous genres qu'il faudrait des années pour tester...

avatar marc_os | 

Amen

avatar Dark Phantom | 

Il a raison, Sam

avatar marenostrum | 

ils ne l'avaient pas viré ce gars ?

CONNEXION UTILISATEUR