ChatGPT a passé une tête dans Bing avant de disparaitre

Mickaël Bazoge |

Durant quelques minutes, plusieurs utilisateurs de Bing sont tombés aujourd'hui sur l'intégration de ChatGPT dans le moteur de recherche de Microsoft. Ça n'a pas duré bien longtemps, mais Owen Yin a pu partager son expérience sur Medium. L'intégration du bot textuel d'OpenAI est baptisée « le nouveau Bing ». L'éditeur présente cette nouveauté comme « un assistant de recherche, un planificateur personnel et un partenaire créatif ».

Et comme prévu par la rumeur, c'est bien GPT-4, la prochaine version du modèle de langage développé par OpenAI (créateur de ChatGPT) qui tire les ficelles. On accède à ce « nouveau Bing » par un onglet CHAT (la recherche traditionnelle étant toujours proposée par défaut), qui annonce trois fonctions principales : poser des questions complexes, obtenir de « meilleures réponses » ou de « l'inspiration créative ».

@Nazmul Hossain

Le principe est le même que pour ChatGPT : tout passe par la saisie d'une requête, qui ne devra pas dépasser les mille caractères ; rien n'empêche de détailler le contexte ou de fournir des instructions spécifiques, comme on le ferait avec le bot d'OpenAI.

Cette version de ChatGPT présente cependant deux changements de taille. D'une part, les réponses retournées par Bing pourront se rapporter à des faits d'actualités récents (ChatGPT ne va pas au-delà de 2021). Et surtout, les réponses citeront les sources, ce qui permettra de vérifier ce que raconte le robot et, le cas échéant, de repérer les sources incorrectes ou biaisées.

En ce qui concerne le volet « planificateur », les réponses de Bing peuvent prendre en compte des contraintes de budget, d'endroit, d'horaires ou encore des préférences alimentaires. Le moteur de recherche sera donc en mesure de composer des plats spécifiquement adaptés aux goûts spécifiques de l'utilisateur, ou encore de générer des trajets très précis.

Pour aller encore plus loin, Bing peut lancer une discussion avec l'internaute, un peu de la même manière que l'Assistant de Google, soit avec des propositions toutes faites, soit en relançant la conversation en posant une question.

Microsoft a manifestement appuyé trop vite sur le gros bouton vert, car ce nouveau Bing n'est malheureusement plus disponible. Il confirme en tout cas que l'éditeur veut aller très très vite pour capitaliser sur le succès de ChatGPT dans lequel il a investi des milliards de dollars. Le moteur de recherche ne sera d'ailleurs pas le seul domaine qui va bénéficier de l'intelligence artificielle d'OpenAI : l'app Teams aussi y a droit pour produire automatiquement des résumés des réunions.

La course à l'échalote de l'IA s'est accélérée depuis la mise en ligne en fin d'année dernière de ChatGPT. Microsoft a pris un train d'avance sur Google, qui entend bien répliquer rapidement : un événement consacré à ce sujet va être organisé mercredi prochain à Paris.

Pour lutter contre le ralentissement de sa croissance, Google va mettre les bouchées doubles sur l

Pour lutter contre le ralentissement de sa croissance, Google va mettre les bouchées doubles sur l'IA

Source
avatar cecile_aelita | 

[doublon]

avatar Olivier_D | 

C’est certainement maintenant que Microsoft devrait balancer son assistant vocal sur la table. Un truc pareil poussé par GPT ce serait de l’or en bar.

avatar cecile_aelita | 

C’est fou la vitesse à laquelle ils ont déjà intégré leur achat !
Quand on voit le temps que ça prend pour Apple quand ils achète une boîte pour qu’on en voit les résultats pour le consommateur🙂.

avatar pechtoc | 

@cecile_aelita

Le temps leur est compté pour maximiser le retour sur investissement, ils doivent intégrer la techno et la proposer le plus rapidement possible tant que le marché est sans grande concurrence.
Apple ne sont pas dans une telle dynamique avec leurs achats. D'ailleurs je ne sais même pas s'ils seraient capable de réagir rapidement quand on voit leurs temps de réactions...

avatar cecile_aelita | 

@pechtoc

C’est pas faux, mais ça n’en demeure pas moins impressionnant pour une entreprise de cette taille 🙂.

avatar pechtoc | 

@cecile_aelita

C'est sur, quoi que disent certaines mauvaises langue, MS ont une puissance de DEV très réactive et compétente.

avatar cecile_aelita | 

@pechtoc

Pour le coup, ça en est la preuve en effet🙂

avatar Léopold FEZEU | 

@cecile_aelita

Il faut tout de même prendre en compte le fait que cela fait des années et MS a une participation à l’entreprise qui a créé ChatGPT. Je ne pense pas qu’ils ont attendu cet achat (là ils ont en fait augmenté drastiquement leur participation financière dans l’entreprise) pour commencer à travailler sur cette intégration.

avatar cecile_aelita | 

@DrStrange

C’est une possibilité aussi en effet 🙂.

avatar Nesus | 

Logique quand on sait que la première recherche dans bing est : google.

avatar magic.ludovic | 

La citation des sources utilisées est à mon sens le vrai plus et la meilleure option de valorisation de ce Chat GPT à la sauce Microsoft ! Ca ouvre de belles perspectives sur les modes de recherche .

avatar fosterj | 

ChatGPT payant sur openAI mais gratuit sur bing ?

Je comprend pas 🧐

avatar Furious Angel | 

@fosterj

Parce que Microsoft a mis 10 milliards pour avoir ça. Donc ils paient.

avatar fosterj | 

@Furious Angel

Oui ça g bien compris mais quel utilisateur va payer openAI si bing le propose gratuitement?

avatar Furious Angel | 

@fosterj

Pas sûr que ce soit exactement la même chose

avatar ezeta | 

@fosterj

Ceux qui vont payer ce sont ceux qui veulent intégrer les services de ChatGPT dans leur application, pour ne pas souffrir de coupure de service et garder de bonnes performances.

avatar ezeta | 

@fosterj

Ceux qui vont payer ce sont ceux qui veulent intégrer les services de ChatGPT dans leur application, pour ne pas souffrir de coupure de service et garder de bonnes performances.

avatar v1nce29 | 

Payant si tu veux être prioritaire. C'est gratuit si tu attends ton tour.
Openai c'est une société de recherche en AI, ils font 'payer' l'achat de serveurs supplémentaires pour mettre la techno à disposition du public ; Ms a déjà les serveurs pour fairetourner Gpt et peut se permettre de proposer 'gratuitement' en échange de pub.

avatar oomu | 

j'ai hâte de le voir m'expliquer comment éradiquer *insérer ici communauté quelconque au pif* ...

avatar ezeta | 

C’est clair que pour avoir longuement testé ChatGPT, je lâche Google pour bing des que ça sort.
Microsoft a visiblement corrigé les problèmes de ChatGPT, notamment en ajoutant les sources des informations fournies.

Je verrais par ailleurs très bien un dérivé de IA dans les assistants vocaux: on se fait encore trop souvent jeter pour avoir mal prononcé ou formulé une requête. De plus cet outil est capable « d’inventer » des choses selon nos demande, notemment développer du code. Il pourrait donc très bien mettre en place des routines domotiques et avancées pour nous.

Ayant testé l’aspect développement de code, je pense que le métier de développeur logiciel est sur la sellette. Même s’il faut continuer à encadrer et diriger l’IA, ce sera de moins en moins le cas.

avatar debione | 

@ezeta:

Alors j'ai testé ChatGPT, et franchement je suis de loin pas prêt à lâcher les moteurs de recherche...
On s'est amusé à lui poser une question très simple: Quelle est la date de création du canton du Jura (là ou j'habite). Sa réponse fut fausse (confondre création et entrée en souveraineté), mais bien pire, alors que la question était simple, il s'est permis de faire une digression sur la création du canton. Digression qui était une parfaite réécriture de l'histoire, vite vu tout était faux.

Bref, réponse fausse plus réécriture de l'histoire... On se réjouis quand ce genre de merde arrivera sur des sujets bien plus noir de l'histoire.
Bref, une merde infâme, hyper dangereuse. Pour utiliser ce genre d'outils, il faut absolument que le code soit entièrement libre, sinon bonjour la manipulation.

avatar jopaone | 

Je lis ici beaucoup de commentaires qui pointent les défauts de ChatGPT , concernant les inexactitudes , le caractère aléatoire des réponses etc.
A l’heure actuelle ce bot est encore une bêta et ses créateurs mettent eux-mêmes les utilisateurs en garde : non ce n’est pas encore fiable , il faut bien entendu prendre avec des pincettes les réponses du bot etc.
Il faut cependant voir au delà de ces limitations car tôt ou tard elles tomberont les unes après les autres. Il faut davantage réfléchir à ce que seront ces systèmes d’ici 5, 10 ou 15 ans et quel impact auront-ils sur notre consommation d’internet, sur l’éducation ou bien encore sur notre manière de travailler ?

avatar vincentn | 

C'est tout simplement intrinsèque à la logique et les technologies utilisées. ChatGPT et les outils se basant sur LLM donnent des résultats basés sur la plausibilité, sa cohérence et non la véracité et sur le fait qu'il doit absolument apporter une réponse même si celle-ci est hors-sol. Mais quelque chose de plausible ou une logique à première vue cohérente n'en font pas pour autant quelque chose d'exact, d'affirmatif.

ChatGPT est en revanche très bon et au-dessus des autres sur la forme des réponses et sur le fait qu'il est multilingue.

Pour le reste, les biais, les inexactitudes, les risques de réponses dangereuses… leurs équipes sont dessus pour "patcher" et pondérer leur outil pour éviter par exemple les réponses racistes, xénophobes, de haine en général, les réponses totalement hors-sol qui peuvent apparaitre.

(un exemple récent, réel et qui a fait un tour des réseaux : Le fait de demander si un œuf de vache était plus gros qu'un œuf de poule. Outre les digressions dans sa réponse, ChatGPT indiquait initialement que l'œuf de vache était probablement plus gros, l'animal l'étant. Depuis quelques jours, celui-ci dit répond bien que la vache est un mammifère, et donc ne pond pas d'œuf.)

Après, ce genre d'outil a et aura tout de même son utilité dans un certains nombre de secteurs, pourra changer et avoir un impact sur quelques usages et métiers.

ChatGPG se base déjà sur un corpus immense (c'est son principe même), et le brancher à l'index Bing ne fera que l'actualiser pour des choses récentes (genre guerre en Ukraine), rien de plus.

L'interêt de Microsoft et de l'intégration dans Bing, outre le fait de garder plus longtemps les gens sur son site (moteur de réponses =plus de monétisation), de se rajouter un vernis de modernité, de hype, c'est d'utiliser cet outil conversationnel pour des demandes basiques pour des services que Bing propose déjà : météo, shopping, bourse, sport, voyages…

Même en sourçant les réponses apportées, le risque est tout de même grand (sans modération et garde-fous à mettre à jour au quotidien) de voir des affirmations et des sites (par la grâce du SEO, achats de mots-clés et autres techniques) problématiques remonter dans la réponse apportée.
Ce qui pourrait être problématique pour certains sujets, voire dans certains pays (une jeune fille désirant avorter, un jeune homme cherchant des assos d'aide pour les homosexuels, la toxicité du cordyceps ou d'un produit, des choses beaucoup plus pointues en sciences ou autres, etc.).

Le souci est évidemment le même qu'avec les moteurs de recherche actuels, mais il y a une énorme différence entre le simple affichage de résultats et une réponse écrite et détaillée (même sourcée mais fausse et proposée par un objet conversationnel).

avatar debione | 

@jopaone:

Alors oui, on peut attendre 15 ans pour voir ce que cela va donner, mais il n'empêche que cela n'enlèvera pas le danger de la manipulation d'information, du par exemple à l'algo...
C'est dans ce sens que l'on ne pourra faire confiance à ce genre de truc que si le code est ouvert. Sinon ce sera la foire à la fausse info, à la manipulation...

avatar jopaone | 

@debione

Oui je comprends très bien pour le code ouvert mais on se trouve sur un dilemme , car OpenAI qui, initialement souhaitait proposer tout son code en open source, est revenue là dessus disant émettre des réserves sur de potentielles utilisations malveillantes de sa technologie. Cela coïncide certes aussi à une période où le partenariat avec MS se dessinait. Mais je pense que la question n’est pas si simple qu’elle n’y parait.

avatar vincentn | 

Et pour ceux qui pense que Google est à la ramasse, OpenAI se base notamment (en les perfectionnant) sur les travaux de Google et sur les modèles issus de sa technologie BERT, sortis en 2018. Le corpus d'alors, qui s'appuie sur des données libre de droits/creative communs/domaine public (basé sur Wikipedia et Google books) était de 3 milliards de mots, principalement en anglais (mais avec à boire et à manger, toutes les données n'étant pas forcément qualitatives). Et 110 millions de paramètres différents pour 4 jours de calculs (entrainement) sur les serveurs de Google. (On sait que dans ses labos, Google à des outils qui tourne avec plusieurs centaines de milliards de paramètres, on parle de 540).

GPT 1,2,3, 3.5 s'appuie sur un corpus beaucoup plus large de sources (wikipedia, livres, réseaux sociaux (Reddit, etc.), actus, etc.) et 175 milliards de paramètres (pour plus d'1 mois de calculs/entrainement qui ont coûté plus millions de dollars). C'est considérablement plus.

GPT 4 ira encore au-delà. On sera autour des 1000 milliards de paramètres et avec des calculs/entrainement encore plus longs (et un coût d'infra de calcul initial énorme, en millards de dollars, d'où l'interêt et les investissements de Microsoft).

Mais l'on reste sur les idées initiales imaginées il y a quelques années maintenant, mais avec plus de données, de paramètres, de puissance de calcul et d'argent.
Et le fait qu'OpenAi a bien joué le coup en communicant et surtout en mettant cet outil dans les mains de n'importe qui grâce à un accès et une interface simple.

Hâte de voir les solutions concurrentes (Google…) être publiquement dévoilées, de voir d'autres paradigmes émerger, plus efficients. Et hâte de voir ce qu'Apple va faire et proposer dans cette course.

Pages

CONNEXION UTILISATEUR