ChatGPT a passé une tête dans Bing avant de disparaitre

Mickaël Bazoge |

Durant quelques minutes, plusieurs utilisateurs de Bing sont tombés aujourd'hui sur l'intégration de ChatGPT dans le moteur de recherche de Microsoft. Ça n'a pas duré bien longtemps, mais Owen Yin a pu partager son expérience sur Medium. L'intégration du bot textuel d'OpenAI est baptisée « le nouveau Bing ». L'éditeur présente cette nouveauté comme « un assistant de recherche, un planificateur personnel et un partenaire créatif ».

Et comme prévu par la rumeur, c'est bien GPT-4, la prochaine version du modèle de langage développé par OpenAI (créateur de ChatGPT) qui tire les ficelles. On accède à ce « nouveau Bing » par un onglet CHAT (la recherche traditionnelle étant toujours proposée par défaut), qui annonce trois fonctions principales : poser des questions complexes, obtenir de « meilleures réponses » ou de « l'inspiration créative ».

@Nazmul Hossain

Le principe est le même que pour ChatGPT : tout passe par la saisie d'une requête, qui ne devra pas dépasser les mille caractères ; rien n'empêche de détailler le contexte ou de fournir des instructions spécifiques, comme on le ferait avec le bot d'OpenAI.

Cette version de ChatGPT présente cependant deux changements de taille. D'une part, les réponses retournées par Bing pourront se rapporter à des faits d'actualités récents (ChatGPT ne va pas au-delà de 2021). Et surtout, les réponses citeront les sources, ce qui permettra de vérifier ce que raconte le robot et, le cas échéant, de repérer les sources incorrectes ou biaisées.

En ce qui concerne le volet « planificateur », les réponses de Bing peuvent prendre en compte des contraintes de budget, d'endroit, d'horaires ou encore des préférences alimentaires. Le moteur de recherche sera donc en mesure de composer des plats spécifiquement adaptés aux goûts spécifiques de l'utilisateur, ou encore de générer des trajets très précis.

Pour aller encore plus loin, Bing peut lancer une discussion avec l'internaute, un peu de la même manière que l'Assistant de Google, soit avec des propositions toutes faites, soit en relançant la conversation en posant une question.

Microsoft a manifestement appuyé trop vite sur le gros bouton vert, car ce nouveau Bing n'est malheureusement plus disponible. Il confirme en tout cas que l'éditeur veut aller très très vite pour capitaliser sur le succès de ChatGPT dans lequel il a investi des milliards de dollars. Le moteur de recherche ne sera d'ailleurs pas le seul domaine qui va bénéficier de l'intelligence artificielle d'OpenAI : l'app Teams aussi y a droit pour produire automatiquement des résumés des réunions.

La course à l'échalote de l'IA s'est accélérée depuis la mise en ligne en fin d'année dernière de ChatGPT. Microsoft a pris un train d'avance sur Google, qui entend bien répliquer rapidement : un événement consacré à ce sujet va être organisé mercredi prochain à Paris.

Pour lutter contre le ralentissement de sa croissance, Google va mettre les bouchées doubles sur l

Pour lutter contre le ralentissement de sa croissance, Google va mettre les bouchées doubles sur l'IA

Source
avatar Mdtdamien | 

Le monde des moteurs de recherche va vivre une année de révolution.
Cette intégration me ferai partir chez bing et quitter Google très facilement

avatar  | 

@Mdtdamien

Tout à fait d’accord, ça va vraiment révolutionner les moteurs de recherche. D’ailleurs je dirais même que ça va ringardiser les moteurs de recherche puisque ce n’est plus seulement de la recherche mais vraiment de l’assistance et de la discussion. On est à la croisée de plein de fonctions différentes et pas seulement de la recherche.

Autant je ne crois pas aux crypto monnaies et NFT, autant ce chat GPT je sens qu’il va révolutionner notre consommation d’internet.

avatar raoolito | 

@

vous venez de me faire comprendre que je confondais tag NFC et NFT depuis pres de deux ans 😂

avatar MSpock | 

@raoolito

Ah quand même ! MacGe a fait quelques articles sur les NFT pourtant 😀

avatar raoolito | 

@MSpock

oui oui! mais j’avais toujours pensé que c’était pareil, que c’était un tag ET un truc certifié sur internet.
j’imaginais la memetechno utilisée différement.
bon voilà quoi…

avatar MSpock | 

@raoolito

C’est pour cela que je n’aime pas les acronymes, c’est toujours source de confusion et incompréhensible pour les non initiés.

avatar MSpock | 

@raoolito

C’est pour cela que je n’aime pas les acronymes, c’est toujours source de confusion et incompréhensible pour les non initiés.

avatar cosmoboy34 | 

@

Ça faisait bien longtemps que la Silicon Valley n’était plus en effervescence. Et c’est très rafraîchissant et excitant d’entrer dans une nouvelle ère grâce à une nouvelle techno disruptive. Depuis quelques temps le milieu stagnait.

On a enfin ce qu’on attend vraiment d’une ia. Ce qu’ils nous ont vendu très longtemps sans jamais l’atteindre. Ça va tout changer et pas seulement les moteur de recherche. Ça va finir par infuser dans tous les produits et changer tous nos rapports avec la technologie du quotidien

avatar MSpock | 

@cosmoboy34
Maintenant il faut que ça gagne en fiabilité parce que pour le moment on voit bien que l’on est sur quelques chose de puissant mais c’est clairement une version beta.

avatar lepoulpebaleine | 

@

+ 1

avatar Absolut Piano | 

@Mdtdamien

Idem, je pense que sauf s’ils annoncent un truc génial mercredi, c’est tout simplement la mort de Google…

avatar jopaone | 

@Absolut Piano

Non Google ne va pas mourir, loin de là , la société a dans ses labos des modèles qui sont au moins aussi bons que ChatGPT, LaMDA notamment. Sa filiale Deepmind qui conçoit des choses incroyables (cf AlphaZero, AlphaFold etc) travaille également sur un chatbot. Je pense qu’OpenAI a marqué un grand coup en ouvrant le bal « grand public » avant les autres en proposant à tous un produit non finalisé. Mais Google ( et Meta) vont entrer rapidement dans la partie, cette année 2023 s’annonce passionnante.

avatar sailor29 | 

@Mdtdamien

T’emballe pas trop, on sait pas encore comment le public non geek va adopter cet outil

avatar Olivier_D | 

@sailor29

A mon humble avis, bien mieux que la communauté non-geek. Quand tu vois les requêtes que posent les vieilles personnes ou les non-initiés à l’IT à Google, c’est typiquement des phrases que voudrait avoir ChatGPT. Des trucs à rallonge non structuré qu’un moteur de recherche ne pige pas spécialement.

avatar oomu | 

@sailor29

il devrait apprécier.

avatar Terragon | 

@Mdtdamien

Même chose pour moi

avatar vincentn | 

Les moteurs de recherches vont être ravis, cela va conserver encore plus les gens sur leur site au lieu de les orienter vers les sources adéquates. Ils pourront encore plus monétiser cela.

Pour le reste… Certes c'est sympa, cela marque une étape interessante dans les "bots conversationnels" qui les rendent plus simples, accessibles, et compréhensibles pour l'internaute lambda (et encore) mais niveau pertinence, biais, sources indexée, etc. bref les fondamentaux d'un "moteur de recherche", j'attends de voir.
Cela reste le corpus de Bing derrière dans cet exemple là.
Pour des choses triviales, basiques, cela peut encore aller, mais dès que l'on recherche des choses un peu plus pointues, cela se gâte assez rapidement.

Un des soucis, et que l'on retrouve de plus en plus aussi sur les grands moteurs de recherches, c'est qu'il cherchera toujours à apporter une réponse, même si à côté de la plaque ou complètement fausse. Sans compter, et l'on a déjà eu le cas, par "design" les algos derrières peuvent faire remonter assez facilement du contenu problématique voir dangereux issu du corpus avec lequel il ont été entrainés et sur lequel il se base et ses concepteurs en ont parfaitement conscience, bridant/bloquant certaines thématiques avec le risque, là, aussi pour un certain nombre de personnes, de par leurs requêtes, objet de recherche, de voir leurs résultats biaisés, alors qu'ils s'attendent justement à avoir également certains types de réponses dans les résultats attendus.

Nous sommes assez loin d'une révolution quoique qu'on en dise (il suffit de lire les spécialistes du domaine, même s'ils reconnaissent le bon dans la qualité des échanges) même si je serais curieux de voir un Wolfram Alpha s'en emparer…

avatar iChris015 | 

@vincentn

Attendons GPT-5 et 6, et les « spécialistes » pourraient être très surpris, voire effrayés. Encore une fois, nous ne sommes qu’en 2023.

avatar vincentn | 

ET GPT-42 Extreme édition sera encore meilleur…

Je sais bien que tout ce qui brille attire, que la hype grand public autour de ChatGPT (GPT 3.5) excite pas mal de monde (à l'étonnement même d'une partie de ses créateurs), même si cela met en avant, de façon méritée, ce genre de solutions et technologies.

Certes le bon qualitatif dans les tournures de phrases, ses capacités multilingues de base… sont des choses à saluer. Cette solution et ses prochaines itérations pourront aider, comme outil, certaines usages, travaux, voire assister certaines professions pour des taches simples/rébarbatives, ne nécessitant pas une grande expertise et expérience. Cela facilitera bien évidemment certaines choses (pour des générations de textes simples, des traductions ou des demandes de renseignement basiques), remplacera à l'avenir probablement quelques postes (qui disparaitront ou monterons en compétence), mais les LLM ne bouleverseront pas les choses en profondeur.
Mon entreprise utilisant ou a utilisé en prod depuis quelques années ce type de solutions d'IA (LLM, machine learning…). C'est interessant, peut apporter des gains de temps (mais aussi en faire perdre), peut toujours être utile, mais on en est pas mal revenu… Après, dans 10 ans, on ne sait jamais, mais à court et moyen-terme, vu l'état de l'art des recherches, des propos et écrits des chercheurs et ingénieurs (ceux d'OpenAI inclus), je ne pense pas.

Remettons donc l'église au milieu du village, cela n'a rien de révolutionnaire. C'est juste un modèle de langage large (LLM), un modèle statistique (pas "d'intelligence" derrière, à part celle des concepteurs de l'algo) qui s'appuie et a été entrainé sur un corpus considérable que permet maintenant notre société numérisée (corpus lui-même établi, entrainé, annoté… par des milliers de petites mains bien humaines, payées trois francs six sous la tâche).
Dans cette sous-catégorie des modèles de langages, parmi ceux rendus publics, ChatGPT (GPT 3.5) est effectivement, à l'heure actuelle, le plus performant et celui provoque, derrière pas mal d'esbroufes, un effet Waouh auprès du public, de la presse généraliste, etc.
Mais Google (et les autres) ont la même chose en soute (OpenAi ayant juste devancé de quelques semaines la concurrence, au grand dam même de certains de ses ingénieurs).

Mais ces solutions basées sur les LLM, comme ChatGPT, ont aussi leurs défauts, certains étant inhérents aux technologies employées.

- Il peut très doctement proposer/écrit des choses correctes d'un point du langage mais totalement fausses ou farfelues pour un humain normalement constitué.
- Une question posée légèrement différemment peut engendrer une réponse totalement différente (car il ne comprend pas en fait le sens de la demande, il répond juste selon des probabilités suivant des termes).
- Le modèle va en fait essayer de deviner, pas de clarifier (ce qui sont deux choses différentes).
- Les biais inhérents au corpus et à l'algo peuvent être énormes et il peut être assez simple, sans garde-fous, modérations, etc. (ce que fait OpenAI pour pondérer au mieux les résultats obtenus avant envoi à l'usager, car ils en ont parfaitement conscience) de faire des réponses, textes… dangereux, racistes, homophobes, irresponsables… (souvenez-vous du bot de Microsoft d'il y a quelques années).
- Comme tout modèle de ce type, il suffit de démultiplier le même type de demande pour arriver, à un moment donné, à un texte identique. (par exemple (pour montrer la logique)10 personnes faisant la même requête auront des réponses/textes différents dans leur formulation, si c'est 1000 personnes, la probabilité que deux personnes reçoivent exactement le même texte/même formulation est très forte).

Reste que cette technologie (ChatGPT, ses concurrents et leurs prochaines itérations) a son utilité, c'est indéniable.

Je comprends que Microsoft ai remis (fortement) au pot d'OpenAi après une première mise. C'est tout bénéfice pour eux, et un investissement qui peut leur apporter beaucoup, à toutes ses divisions.

- Cette technologie et OpenAI s'appuie sur une forte puissance de calcul et énormément de données. Tout bénéfice pour la division cloud de Microsoft.
- Un moteur conversationnel dans Bing permet de transformer encore plus Bing d'un moteur de recherches à un moteur de réponses (comme Google search), les internautes restant alors encore plus sur le site au lieu de rebondir sur les sources (=monétisation plus forte des services proposés par Microsoft : web, shopping, etc.).
- Permet de proposer des traductions relativement bonnes pour une bonne partie des usages courant.
- Permet de réaliser des transcripts de visioconférence, d'audio/vidéo sans trop d'erreurs de compréhension pour des échanges sans accents à couper au couteau (pratique pour les solutions de Visio de Microsoft et sa solution Teams).
- Permet de générer des textes corrects pour de choses simples (pour Outlook, Word, …) dans le quotidien professionnel.
- Permettrait de générer des diapos Powerpoint d'un fichier Word (et réciproquement) assez simplement.
- Permet de coder des choses simples (utile dans VSCode ou pour des formules dans Excel par exemple) sans grandes connaissances ou mettre les mains dans le cambouis.
- Etc.

avatar iChris015 | 

@vincentn

Merci bien pour ces éléments, concernant notamment les LLM et que je ne connaissais pas.

Ce qui m’inquiète cependant le plus, c’est cette guerre à la performance qui semble s’accélérer depuis 2022 et qui je l’espère n’aboutira pas à une IA trop puissante (je vois Skynet partout depuis 2 semaines et tous ces articles sur chatgpt ;) ).

avatar oomu | 

@iChris015

...

prenons un grille pain

et faisons un SUPER-GRILLE PAIN (énorme, qui prend de grosses tranches)

sera t'il plus dangereux que le grille pain ? non. (à moins de tomber dedans...) : c'est une machine

ces IA c'est pareil.

vous pourriez donner à une IA de prédiction de texte toute l'énergie du système solaire , que ça resterait qu'une machine à prédire du texte.

Probablement qu'on pourrait prédire 15 millions de lignes de texte d'un mauvais roman policier ou d'un excellent clone du silmarillion...

la belle affaire...

ce sont des machines

Skynet c'est un méchant de fiction qui pour une raison bizarre est furieusement motivé à faire chier les gens et un gamin... ça n'a aucun sens. ni un quelconque rapport avec le sympathique algorithme de modèles de language.

avatar vincentn | 

Skynet/Terminator, Wargame… ce n'est que de la SF…

Les LLM ne sont qu'une sous-catégorie de l'IA, assez idiotes au final. Son objectif est de répondre/rédiger un texte plausible et d'être assez persuasif, pas d'être dans la vérité/information sourcée et argumentée.

C'est en fait une inversion, avec une très bonne amélioration qualitative de ce qui se fait depuis des années dans la NLP (traitement Automatique du Langage Naturel) avec les extractions d'entités nommées, les catégorisations et l'analyse de sentiments (opinion) : prendre un texte pour le catégoriser, repérer les entités nommées et définir si le texte est à tonalité positive ou négative.
Bref des algos et des stats appliquées sur de la linguistique, de la sémantique,… et des données de masse. Pas de grande intelligence là-dedans, juste une grande amélioration des performances.
De façon similaire, Dall-E, qui découle de la même logique inversée, va essayer de produire de façon plausible un chat.
À la base, ces outils servaient pour catégoriser une image, reconnaitre les objets, plantes, animaux, personnes, etc. pour les réduire à des "termes", "concepts", etc.
ChatGPT, Dall-E… ne font donc juste que partir de ces concepts, termes… pour aboutir à une image, un texte, une réponse plausible.
Apple a ça aussi en prod (vision framework, coreML,…), en grande partie en local grâce au neural Engine, et cela fonctionne plutôt bien. Bon, pour l'instant on reste principalement limité à des apps de Scan et d'océrisation, des reconnaissances d'objets, de speech to text (transcript de fichiers audios vers un fichier texte). C'est un peu dommage que les développeurs ne s'en emparent pas plus, car il y aurait des choses formidable à faire en s'appuyant sur les briques proposées par Apple (j'ai notamment quelques idées dans mon domaine, mais je ne suis pas développeur).

Est-ce maintenant dangereux ?
Un élève n'a pas attendu cela pour "tricher" (souvenez-vous, dans un autre domaine, des débats sur la calculatrice ou wikipedia), un doctorant n'a pas attendu cela pour tricher dans la rédaction de sa thèse, un média pour un article, un marketeux/politique pour écrire un texte qui ne veut rien dire mais plausible et qui essaie de te persuader le contraire.
On a pas attendu les IA pour faire des erreurs de justice, des bavures policières, des mauvais choix politiques, économiques, stratégiques…
On a pas attendu les deep fake, les LLM etc. pour manipuler une information, des gens…, trafiquer une image satellite, une photo, vidéo, un discours…"jouer" avec la modération en ligne…
L'IA, au sens large, permet juste d'industrialiser et de faciliter cela, le rendant plus difficilement perceptible sans connaissance/expertise du domaine. Mais rien de rédhibitoire.
On a pas attendu les IA (ou les robots) pour bouleverser des métiers, modifier les tâches d'un poste… via une suppression ou à l'inverse une hausse des compétences des personnes/secteurs touchés.

Bref, ce type d'IA au fil des années qui viennent auront un impact plus ou moins important (parfois on reviendra sur ça) mais ce sera avant tout les choix politiques, législatifs, sociaux qui auront (et ont toujours eu) des conséquences. L'IA est juste un outil comme un autre.

Je suis plus inquiet en France par le projet de loi pour les JO 2024 et ses mesures sécuritaires/de surveillance (dans le domaine numérique notamment), je suis plus inquiet par la collecte/exploitation de nos données, l'extension du fichage, le racisme/xénophobie et l'homophobie/gynophobie/violences faites aux femmes d'une partie de la société, le réchauffement climatique et les conditions de notre basculement énergétique, etc. que par une potentielle IA rêvant de devenir Skynet ou un ChatGPT 42 Max.

avatar _QJ_ | 

Si seulement siri pouvait se connecter à une IA 😅

avatar kiddsoso | 

@_QJ_

Ça l’est déjà, son nom est SiriToutPété 😂

avatar Olivier_D | 

@kiddsoso

Ou encore SiriCPT !

avatar jerssrk | 

ChatGPT est super impressionnant. Par contre quand je vois les images générée par AI, faisant moi même de la 3D je peux vous dire que je flippe à mort pour mes fesses…

avatar DP-Britto | 

@jerssrk

Autant que les caissiers avec les caisses automatiques. Des emplois vont sauter. D'ailleurs Netflix au Japon aurait utiliser l'IA pour certaines scènes d'un de ses derniers films.

avatar oomu | 

@jerssrk

pour l'heure, il est quasi impossible de maitriser l'outil pour lui faire pondre deux images cohérente de la même chose (par exemple un dragon aux écailles rouges ornés de bijoux et étoffes qui fait des crêpes et ce même dragon en train de nettoyer son antre)

mais le moment où l'IA pourra effectivement recréer le même personnage et conserver ses ajouts, de contexte en contextes, alors là, pour citer Miyazaki Hayao, ça sera la fin du mOOOOnde (le votre)...

Reste aussi les soucis de membres multiples, de doigts en trop, et que ces IAs n'ont pas de notion de structure/objets/accessoires attachés ou tenus à quelque chose.

Mais quand on voit que Midjourney a complètement maitrisé la symétrie d'un visage en quelques mois, c'est effrayant.

Mais bref, le défaut de ces ia de diffusion, c'est leur imprédictabilité. Un humain reste encore nécessaire pour avoir une intention et une cohérence.

avatar jerssrk | 

@oomu

Stable diffusion permet de générer, sauvegarder et partager des models :(
Y a tout une communauté autour du projet et un tas d’outils et scripts.
Et c’est hyper convaincant.

Un exemple d'image générée par Stable Diffusion, et les scripts qui vont avec :
C'est légèrement sexy mais habillé... désolé si c'est trop pour la modération.
https://imgur.com/a/lAwZegH

avatar Mike Mac | 

Apple s’est trompé de RA comme enjeu du futur !

Ce que veulent les gens, c’est du Renseignement Augmenté.

Chat GPT en est une bonne démonstration alors que s’adresser à Siri, c’est se heurter au cancre de la classe en matière de bonnes informations et de savoir.

avatar vicento | 

@Mike Mac

Peut-être que ça poussera Apple à mettre plus de moyens dans le développement d’un Siri qui reste dans la compétition.
Enfin qui soit réellement utile … parce que, à part demander à Siri de mettre un minuteur en marche on fait pas grand chose avec.

avatar cecile_aelita | 

@vicento

J’ai découvert un truc l’autre jour 🫤.
Il me semblait que SIRI fonctionnait hors ligne maintenant ?
Je lui ai demandé « rappelle moi d’aller chercher du pain dans 1h »…
Et il m’a dit « vous devez être en ligne pour faire cela » 🫤

avatar MSpock | 

@cecile_aelita

On en découvre tous les jours sur les incapacités de Siri 😅

avatar cecile_aelita | 

@MSpock

Bah ou alors ça vient de moi qui fais mal un truc 🫤.
Mais il me semblait que SIRI était hors ligne maintenant.
Je dois peut être avoir un trop viel iPhone 🫤.

https://www.dropbox.com/s/8zraujnnjrj70dd/IMG_0857.PNG?dl=0

avatar MSpock | 

@cecile_aelita

Oui comme pour « Texte en direct »

avatar cecile_aelita | 

@MSpock

C’est quoi ça?

avatar MSpock | 

@cecile_aelita

La fonction d’OCR qui te permet de récupérer du texte dans les images, ça nécessite des puces assez récentes.

avatar cecile_aelita | 

@MSpock

Ah bah si, ça je l’ai par contre sur mon 11 pro 🙂

avatar cecile_aelita | 

@MSpock

Je viens de tester mais par contre le minuteur ou lui demander l’heure… ça marche en hors ligne 🫤.
Mais pas la création de rappel🫤

avatar oomu | 

@cecile_aelita

vous l'avez mal compris: c'est chercher du PAIN qui nécessite d'être en ligne. En effet, dorénavant le pain français n'est en vente que via la plateforme américaine Amazon, uniquement disponible en ligne...

avatar cecile_aelita | 

@oomu

Merci pour la petite blague, mais est ce que vous avez une piste sur le fait que ça ne fonctionne pas hors ligne?🙂

avatar yasuo87 | 

@cecile_aelita

Probablement le fait que rappels est lié à iCloud et donc il lui faut une connexion. C’est juste mon idée sur la question ^^

avatar yasuo87 | 

@cecile_aelita

Probablement le fait que rappels est lié à iCloud et donc il lui faut une connexion. C’est juste mon idée sur la question ^^

avatar cecile_aelita | 

@yasuo87

C’est pénible quand même 🫤.
Du coup la partie « Siri hors ligne » c’est super limité 🫤

avatar yasuo87 | 

@cecile_aelita

Après j’ai peut-être tort

avatar cecile_aelita | 

@yasuo87

C’est possible que ce soit ça 🙂. Mais du coup ça reste quand même super limité les fonctions de SIRI en hors ligne 🫤

avatar yasuo87 | 

@cecile_aelita

Oui clairement maintenant à voir si tu n’as pas plus de possibilités avec le contrôle vocal à l’ancienne 🤔

avatar cecile_aelita | 

@yasuo87

Ça serait triste lol

avatar yasuo87 | 

@cecile_aelita

Certes 😋

avatar yasuo87 | 

@cecile_aelita

Oui clairement. Après à voir si t’as pas plus de possibilités avec le contrôle vocal à l’ancienne 🤔

Pages

CONNEXION UTILISATEUR