Meta ne veut pas se laisser faire par ChatGPT et va mettre de l'IA dans WhatsApp et Instagram

Félix Cattafesta |

Meta ne compte pas laisser passer le train des services dopés à l'IA. Vendredi dernier, Mark Zuckerberg a annoncé un nouveau modèle linguistique baptisé LLaMA qui « surpasse GPT-3 sur la plupart des benchmarks » tout en étant nettement moins lourd et plus économe. À terme, des services liés à l'IA devraient arriver dans les différents produits de l'entreprise.

Mark Zuckerberg en 2018. Image Anthony Quintano (CC BY)

Meta joue pour le moment la prudence et n'a pas présenté son modèle LLaMA comme un équivalent de ChatGPT avec qui l'on peut discuter, mais comme un outil pour les chercheurs. Dans un billet, Meta précise que son but est d'aider les ingénieurs à faire avancer leurs travaux sur l'IA et que le modèle sera publié sous une licence non commerciale « axée sur les cas d'utilisation pour la recherche » (scolaires, ONG, laboratoires, etc). Il n'est donc pas possible de l'essayer pour le moment.

En l'état, LLaMA est un modèle nettement plus petit que ce que propose la concurrence qui a pour particularité d'être disponible en plusieurs tailles. Cela a pour avantage de demander beaucoup moins de puissance de calcul et de ressources pour certaines utilisations spécifiques.

Plus précisément, Meta explique que la version de LLaMA contenant 13 milliards de paramètres (une mesure de la taille du système) surpasse le GPT-3 d'OpenAI, qui repose pourtant sur 175 milliards de paramètres. L'entreprise affirme que la plus grosse déclinaison de LLaMA avec 65 milliards de paramètres peut tenir tête aux modèles de pointes, tout en étant moins gourmande.

Malgré ce lancement loin des yeux du grand public, LLaMA devrait finir par être incorporé à certains produits de Meta. L'onde de choc ChatGPT a visiblement touché Mark Zuckerberg, qui a annoncé du changement dans son entreprise : il va rassembler plusieurs équipes travaillant sur l'IA en une seule pour accélérer la cadence. À court terme, ce nouveau groupe va se concentrer sur « la création d'outils créatifs et expressifs », avant de passer à la vitesse supérieure.

Nous explorons des expériences avec du texte (comme le chat dans WhatsApp et Messenger), avec des images (comme des filtres Instagram créatifs et des formats publicitaires), et avec des expériences vidéo et multimodales.

Plus original, le CEO de Facebook évoque le développement de « personnages IA » qui seront « capables d'aider les gens de diverses manières ». Il concède cependant qu'il reste beaucoup de travail avant d'arriver à des expériences crédibles : on attendra de voir ce qu'il en est dans les mois qui viennent.

Tags
avatar Mike Mac | 

Après le ratage metaverse... nouveau filon pour notre filou ?

avatar jeanCloud | 

@Mike Mac

🤔 le « l » n’est il pas de trop

avatar Scooby-Doo | 

@jeanCloud,

« 🤔 le « l » n’est il pas de trop »

😁

Je confirme le « l » est de trop !

🤞

avatar 0MiguelAnge0 | 

@Mike Mac

Pour avoir raté le coche….

Quand je pense que Microsoft a injécté 1B$ et ouvert Azure à Openai et que le génie du metaverse a claqué 100 fois plus pour avoir des personnages sans jambes

avatar Paquito06 | 

@Mike Mac

“Après le ratage metaverse... nouveau filon pour notre filou ? “

Quelque chose de raté, qui ne sera finalisé que dans qq annees… 🧐 Visionnaire, ok 😂

avatar noooty | 

Meta, lle nouveau cancer généralisé…
Meta… stase…
🤮

avatar Scooby-Doo | 

@noooty,

« Meta… stase… »

Excellent ! 👍

Puis-je en rajouter une couche ?

Meta… stasi… ?

😁

avatar noooty | 

@Scooby-Doo

Et aussi Meta capote vite…

avatar macbook60 | 

Mode râleur : déjà faite une application iPad pour whatsapp
Mode tranquille : waouh c’est super

avatar whocancatchme | 

Lol il commence à se rendre compte que balek le metaverse

avatar alban210 | 

Mode troll: mais est-ce que cette IA aura des jambes avec la première version ?!

avatar Scooby-Doo | 

@alban210,

« mais est-ce que cette IA aura des jambes avec la première version ?! »

Vont produire du code au lance-roquettes !

L'IA de Meta sera totalement Béta !

😁

avatar abalem | 

Quand on voit ce que Microsoft vient de faire de Chatgpt à leur sauce, ça promet d’être marrant. Jamais n’aurais-je pensé qu’ils arriveraient à faire encore plus vite ce qu’ils ont fait avec Skype à l’époque, une coquille vide, un robot low-bot-omisé 🤡🙄

avatar Scooby-Doo | 

@abalem,

« Quand on voit ce que Microsoft vient de faire de Chatgpt à leur sauce, ça promet d’être marrant. Jamais n’aurais-je pensé qu’ils arriveraient à faire encore plus vite ce qu’ils ont fait avec Skype à l’époque, une coquille vide, un robot low-bot-omisé 🤡🙄 »

Super heavy troll spotted !

😁

Ou si ce n'est pas un troll mais vraiment une affirmation pensée et pesée, c'est que nous n'avons pas testé les mêmes versions tant l'écart constaté est manifestement abyssal !

👌

avatar abalem | 

@Scooby-Doo

Ah non non, je t’assure, pas un troll 🧌, hormis le fait de la ramener sur Microsoft sur un post dédié à Meta, mais justement, c’est l’association d’idées qui m’a fait écrire ce commentaire.

Donc en gros, ou alors je n’ai rien compris, tu dis que ton expérience de Bing-Gpt est 1000 fois supérieure à l’original ? Si c’est ça, on ne vit pas sur la même planète 😳 Sur celle où j’habite, Bing-Gpt se prend pour une conscience personnalisée, se permet de juger mes requêtes et finit immanquablement par dire ah ben non, je ne peux pas.

A l’inverse, OpenAi Gpt bug, et rame, mais abat des quantités astronomiques de taches sans broncher, sans la ramener comme si on était potes et surtout, je n’ai pas à réfléchir à deux fois avant de formuler une requête. Les résultats doivent parfois, souvent, être refaits et/ou corrigés, mais au moins il y a quelque chose ! Et ça a déjà beaucoup changé la manière dont je travaille, au-delà de mes attentes (je n’en avais en fait aucune).

Non, vraiment, je préfère croire que je n’ai pas compris 🤔

avatar Scooby-Doo | 

@abalem,

« Sur celle où j’habite, Bing-Gpt se prend pour une conscience personnalisée, se permet de juger mes requêtes et finit immanquablement par dire ah ben non, je ne peux pas. »

Je comprends ce qui vous est arrivé !

Vous, vous avez essayé de taquiner la bestiole !

Sauf que Microsoft a mis certaines protections comme OpenAI.

Par exemple, ChatGPT est entraînée à détecter certains propos orduriers ou inconvenants, certains ordres dangereux, certaines requêtes irrecevables, etc.

C'est très bien expliqué quand vous vous connectez à OpenAI !

Il y a plusieurs panneaux d'avertissements concernant les limites du système, les usages possibles et ceux qui sont interdits.

C'est un peu comme si vous disiez, c'est un exemple :

« La SNCF, c'est vraiment nul ! Ça ne marche pas ! »

Avec la seule expérience :

1. d'être monté dans le train sans billet volontairement ;
2. se faire contrôler ;
3. refuser d'acquitter un titre en règle ;
4. se faire éjecter du train !

Ce qui ne correspond pas à l'usage standard d'un transport collectif payant !

Si vous posez des questions qui peuvent nuire à l'IA, elle va clôre la conversation.

Certains à ce petit jeu ont même réussi l'exploit de se faire bannir définitivement et de s'en plaindre !

😁

Je suis sympa je vous donne un indice pour que vous compreniez que vous êtes passé vraiment à côté de l'essentiel :

https://www.macg.co/ailleurs/2022/12/alerte-rouge-quand-chatgpt-fait-paniquer-google-133685

Vous avez déjà vu un mastodonte comme Google paniquer pour rien face à un service supposé débile comme vous le pensez ?

Et pourquoi certains employés de Google spécialisés en IA sont partis chez OpenAI ou Microsoft ?

😁

avatar abalem | 

@Scooby-Doo

Merci pour le rappel des panneaux qu’on ne peut en effet pas manquer en se connectant à Gtp à moins de le faire exprès.

Quant à la leçon sur le fonctionnement, je vous aurais dit merci, mea culpa même peut-être, si le postulat de départ n’était pas erroné : je n’ai en rien taquiné la bête, et je l’ai dit pourtant : ce n’était pas pour jouer que j’ai essayé Bing-Gpt, mais pour travailler, dans l’espoir que la version de Microsoft, avec leur $$$ pallierait l’engorgement des serveurs d’openAI et me fournirait une interface plus pratique. Non seulement ce n’est pas le cas, mais je réitère : le Gpt de Bing a perdu tout intérêt, il ne sait rien faire de ce que je lui demande, contrairement à l’autre. Alors on peut ne pas être d’accord, si votre expérience est différente, mais c’est comme ça que je le vois. Demandez par exemple à Bing de reformuler un texte, de le réduire ou de l’augmenter, de le traduire en français et de le résumer en deux paragraphes de 100 mots chacun, de proposer un plan en trois parties et trois sous parties sur tel sujet, de vous indiquer les notions importantes à prendre en compte sur telle ou telle période. openAI a pu répondre à chacune de ces requêtes, avec plus ou moins de bonheur, BingGpt… aucune 💩

avatar YosraF | 

@abalem

BingGPT n’a pas de conscience. Son fonctionnement est super simple qu’on peut le reproduire en 2-3 mouvement avec Google.
Synthétise La questions / fait la recherche /et dit ce qu’il a lu.
Donc c’est idiot car je recherchais une études des marché et il ne me disait rien de plus que les 4 articles qu’il a lu.

S’ils veulent une expérience plus poussée il faudrait qu’openAi
Reentrainé son modèle jusque 2023.
Se finetune tous les jours sur une quantité astronomique de données.
Et puissent faire des liens avec des articles en te formulant les réponses.

Reposer sur Bing est une erreur tout simplement. Ça n’apporte pas assez de valeur et donc le produit n’a rien de fou 😛

avatar Scooby-Doo | 

@YosraF,

« Donc c’est idiot car je recherchais une études des marché et il ne me disait rien de plus que les 4 articles qu’il a lu. »

Mais parce que c'est comme cela que font les gens d'ordinaire en utilisant Google !

😁

Bing Prométhée fait cela automatiquement !

Et puis allez demander à Google de vous générer du texte, du code d'application, une assistance sur du code informatique, une analyse, etc.

Vous allez vous retrouver avec une montagne de liens à cliquer et une perte de temps colossale !

Moi :

La démonstration de Bard a-t-elle eu un impact sur la valorisation de Alphabet et de combien ?

Bing Prométhée :

Oui, la démonstration de Bard a eu un impact négatif sur la valorisation de Alphabet. Bard est le nom du nouveau moteur de recherche de Google basé sur l’intelligence artificielle, qui promet de répondre aux questions des utilisateurs avec plus de précision et de pertinence (1).

Cependant, la démonstration de Bard, qui a eu lieu le 8 février 2023, a été décevante et entachée par une erreur factuelle. En effet, Bard a affirmé que la capitale du Canada était Toronto au lieu d’Ottawa (2) (3). Cette erreur a suscité des critiques et des moqueries sur les réseaux sociaux et dans les médias.

Suite à cette démonstration ratée, la valorisation boursière de Alphabet a chuté de 100 milliards de dollars entre le 8 février et le 9 février, passant de 1406 milliards à 1306 milliards, soit une baisse de 7,1% (2) . Il s’agit donc de la plus grosse chute enregistrée par Alphabet en 2021.

Sources :

(1) leparisien.fr
(2) numerama.com
(3) fr.finance.yahoo.com

Moi :

Incroyable une IA qui trolle sur une autre IA !!!

Si c'est pas de la récursivité appliquée à des IA !

😁

Donc je renouvelle ma question :

Pourquoi Google panique à ce point ?

Pourquoi une perte de valorisation de 100 milliards de dollars en peu de temps ?

Pourquoi Google a laissé partir certains de ses gros cerveaux spécialisés en IA chez OpenAI et Microsoft ?

Cela fait beaucoup de questions légitimes il me semble…

😉

Un indice :

Les mastodontes font aussi des erreurs ! Pas que les IA !

👌

avatar YosraF | 

@Scooby-Doo

Oui mais ce que tu dis c’est pas cohérent. Le but de Bing n’est pas de générer du code :)
Pour ça désormais on utilise directement chatGPT qui n’a pas de limite dans les conversations contrairement à Bing.

Donc l’exemple que j’ai connu c’est clairement pour la recherche et ce pourquoi il a été fait. Et pour le moment ce qui a été fait par Microsoft je suis désolé de le dire mais c’est pas ouf

avatar Scooby-Doo | 

@YosraF,

ChatGPT de OpenAI, c'est de la conversation au long cours !

ChatGPT de Microsoft, c'est un assistant à la recherche sur Internet !

Mais encore hier soir, j'ai demandé à Bing de me réaliser une génération de textes !

Et en fait, il peut faire exactement ce que fait ChatGPT d'OpenAI !

C'est juste que ce n'est pas mis en avant !

Ils veulent se focaliser sur le monétisable.

La plus value :

Faire comme pour les agrégateurs de billets d'avions ou de chambres d'hôtels.

Plutôt que de devoir faire une requête, de multiples liens à cliquer pour trouver le billet d'avion le moins cher ou la chambre d'hôtel la moins chère, ben plus personne ne fait cela aujourd'hui !

L'écrasante majorité va sur des comparateurs.

👌

Et bien Bing Prométhée, c'est aussi un comparateurs de sites Internet. Il fait le plus gros du boulot à votre place.

Ensuite on peut l'utiliser de diverses manières.

Comme par exemple organiser des vacances, un anniversaire ou tout autre évènement.

OpenAI va donner des suggestions seulement !

Bing Prométhée va donner des suggestions et des liens pour aller plus loin.

À vous lire, vous utilisez Bing Prométhée comme Google !

Mais arrêtez de raisonner en mots clefs, je clique sur un millier de liens, et encore des mots clefs, et rebelotte !

Un moment donnée, faut se remettre en question et voir que l'outil n'est pas le même.

Pour vous en convaincre, il y a sur la page d'accueil des questions types qu'il propose. Vous allez voir si cela se comporte comme Google !

😁

Un indice :

Demandez à Google et Bing Prométhée ceci :

Dans deux semaines, j'ai un weekend prolongé ! J'ai trois jours de disponibles. Je voudrais me changer les idées en allant en Bretagne. Peux-tu m'organiser un séjour depuis [ Ville d'origine ] en comparant les temps de parcours en voiture et par le train.

Merci de compter le temps nécessaire pour boucler l'affaire avec Google et Bing !

avatar YosraF | 

@Scooby-Doo

Non mais je pense que tu ne sais pas trop de quoi tu parles.

BingAI et chatGPT c’est pareil. C’est le même moteur derrière.

BingAI a juste rajouté une surcouche de recherche ! Mais si tu prenais le temps de comprendre ce que je dis tu verras que BiNGAI n’est pas excellent car la force et faiblesse d’ailleurs de chatGPT dans ses réponses et de répondre en mélangeant toutes les donnes qu’il connaît. BingAI recrache ce qu’il a lu. Donc oui tu gagnes un peu de temps mais après tu vas voir les sources et les articles. Mais si tu lui dis écoute je veux en savoir plus, il va faire la même recherche et te donnera la même réponse.
Pourquoi ce fonctionnement ? Car la réponse ce n’est pas de l’ia comme le fait chatGPT. C’est jsute de la synthèse de lecture et donc l’effet wow de chatGPT n’existe pas ici.
On aurait pu faire quasiment la même chose depuis 3 ans avec gpt2 ou 3.
Donc tant que BingAI ne va pas plus loin dans l’apprentissage, la surcouche au dessus de chatGPT est bidon. Et pas la peine de mettre des mots marketing pour dire qu’ils ont fait des choses exceptionnels. L’intégration réalisée est relativement simpliste.
ChatGPT peut réellement faire peur à Google. Tout le buzz autour de BingAI a fait chuter l’action de Google mais vu le résultat actuel ça va vite redescendre car c’est un peu « bidon » y’a encore des choses à faire pour aller plus loin mais à quel coût ? Les inférences coûtent chers et s’ils faut reentrainer les modèles tous les jours c’est potentiellement juste impossible en 2023. Il faut trouver des méthodes pour rendre les modèles des transformers plus léger. Pas pour rien l’orientation de Facebook. Et tous vont chercher à atteindre des résultats similaires à ce qu’on a aujourd’hui mais :
- alléger les modèles, diminuer les coûts, temps d’inferences plus rapides. Regarde déjà sur le site de chatGPT ils ont mis par défaut le modèle turbo. Pas parce que c’est plus rapide. Non non. Car c’est largement moins cher mais le modèle est nettement moins bon :)
- avoir plus de données (>4000 token aujourd’hui)
- réussir à finetuner le modèle en continue

avatar abalem | 

@YosraF

On est bien d’accord 👍

avatar YosraF | 

@Scooby-Doo

Pour répondre à ta questions sur les départs de chez Google. Faut arrêter de dire n’importe quoi à ce sujet. C’est la silicon Valley. Les ingénieurs sont une fois chez Apple, puis chez tesla, puis chez Facebook etc etc. C’est comme ça que ça se passe là bas.
Google et Facebook font parti des entreprise qui sortent le plus de papier en IA. les transformers d’openAi ça vient de chez Google. Tensorflow un des framework les plus connu c’est Google. Pytorch, c’est Facebook. Détectron 2 c’est Facebook. La différence avec openAI c’est que ça reste une startup qui veut bouLeverser un secteur. Google a lancé Android car ils étaient conscient t que leur business Model ne peut pas rester à l’infini que sur le moteur de recherche. Google a perdu son agilité en ayant peur de lancer des produits qui peuvent pénaliser leur propre produit. Ils sont en train de reproduire ce qu’a fait Microsoft à partir de la fin des années 90… pendant que tout le monde cherchait à tuer l’iPod, le seul qui l’a fait c’est Apple avec l’iPhone. Ils ont été bon sur le sujet. Google a limité la diffusion de ses recherches et par le passé ceux qui ont fait ça n’a jamais été bon pour eux :)

avatar ⚜Dan | 

Pour Instagram et WhatsApp j'suis pas inquiet pour eux ils peuvent réussir, c'est leurs domaine deja le Ai, les Ads etc.

avatar jb18v | 

It really whips the LLaMA’ass 😅

avatar smog | 

Si ça permet de mettre de l'intelligence chez certains utilisateurs de ces réseaux sociaux, ça ne peut être que bénéfique... Ah mince c'est pas le but ?

avatar PtitXav | 

@smog

Ça sera peut-être la plus grande intelligence sur le réseau 😜

avatar tupui | 

Attention à ne pas mettre toutes les divisions a de META dans le même panier. La R&D en IA c’est FAIR et ils sont à la pointes, publient énormément et partagent en open source presque tout. Pour rappel PyTorch c’est aussi eux.

avatar Scooby-Doo | 

@tupui,

« Pour rappel PyTorch c’est aussi eux. »

Oui ! Et ils sont même sur GitHub !

😁

Mais regardez ce qui s'est passé avec Google !

Google avait certains cerveaux dans le domaine de l'IA.

Sous utilisés, peu valorisés, pensant travailler dans le vide parce que leur direction de leur direction n'y croyait juste pas ! Que personne n'allait sauter sur les IA comme cela !

Ben ils sont où maintenant ?

Chez la concurrence il me semble !

Et vous pouvez avoir au sein de Meta une division ultra performante dans le domaine des IA et que cela n'aboutisse pas à grand chose.

Si la vision d'avenir du grand patron, c'est le metavers au point de renommer sa boîte en conséquence, c'est pas demain que leurs travaux vont se retrouver en production massive et mis en avant.

Il faudrait que le dit grand patron avale quelques couleuvres pour accepter que tout le monde s'en balek de son metavers tout moisi des pieds et qu'il s'est planté !

👌

avatar tupui | 

@Scooby-Doo

Dans le cas présent ils ont fait mieux car PyTorch est maintenant totalement séparé de META/FAIR et ils ont fait un transfer vers la communauté (via Linux Foundation). Ils ont encore un fort pouvoir sur le project, mais il est maintenant dirigé par la communauté. Je suis le premier à cracher sur FB, le Metaverse, etc. Mais je ne peux qu’applaudir leur partage de R&D. Tensorflow en comparaison est bien verrouillé chez Google, c’est pas du tout la même approche.

Tout ça pour dire qu’il faut vraiment faire la part des choses entre les différentes activités. Et encore ici je mettais dans le même panier FAIR et l’équipe de PyTorch mais en vrai en interne ce ne sont même pas les mêmes équipes. Et ce d’autant plus que maintenant PyTorch est vraiment full FOSS

avatar echarbon44 | 

BingGPT permet bien de faire tout ce que ChatGpt sait faire et même en mieux. Résumé, extraction de mots clés..Contrairement à ce qui a été dit ça marche terriblement bien, et ce qui est appréciable, c’est que Bing pose aussi les questions pour affiner les réponses… Bref convaincu…
Je note que certains devraient au moins tester plutôt que d’être aussi assertifs.
C’est pas parce que on est sur un site Mac qu’il faut raconter n’importe quoi parce que sur Microsoft….

CONNEXION UTILISATEUR