ChatGPT va être moins dépassé avec GPT-4 Turbo et son accès aux informations de 2023

Nicolas Furno |

OpenAI a annoncé plusieurs nouveautés à l’occasion de son « DevDay », notamment pour ChatGPT, son robot qui peut faire la conversation et vous donner des réponses à peu près justes. Sous le capot, le moteur reste sur la même génération améliorée et l’entreprise présente ainsi GPT-4 Turbo, une évolution de GPT-4 présenté en mars dernier, mais rendu disponible dans le courant de l’été passé. Si cette mise à jour peut sembler mineure, elle apporte en réalité une nouveauté majeure pour ChatGPT : des connaissances plus à jour.

Capture vidéo OpenAI.

En effet, OpenAI a entraîné son grand modèle sur un corpus qui se termine en avril 2023, ce qui veut dire que ChatGPT aura des informations jusqu’à cette date. C’est un changement significatif par rapport à toutes les générations précédente de GPT, qui étaient entraînées sur des données de septembre 2021. Même s’il y avait des méthodes pour obtenir des données plus récentes avec le bot, cette mise à jour devrait apporter des réponses plus fraiches par défaut, sans toutefois pouvoir l’utiliser pour des actualités, puisque le corpus de base n’évoluera plus.

GPT-4 Turbo devrait aussi bénéficier d’une augmentation nette du nombre de « contextes », ce qui lui permet pour faire simple d’avoir une meilleure compréhension de la question et d’offrir des réponses plus adaptées. GPT-4 était limité à 8 000 ou 32 000 contextes selon les versions, GPT-4 Turbo dispose systématiquement de 128 000 contextes. Ces améliorations ne se font pas au détriment du prix, au contraire même, puisque ce nouveau modèle sera deux à trois fois moins cher que GPT-4. GPT-3.5 Turbo est dix fois moins cher et l’ancien modèle bénéficie d’améliorations techniques similaires, y compris une augmentation du nombre de contextes.

On ne sait pas encore quand ce GPT-4 Turbo sera disponible, mais cela devrait venir dans les prochaines semaines, d’après OpenAI. Et si cela ne vous suffit pas, l’entreprise a aussi annoncé la possibilité de créer ses propres modèles, ou plutôt des « GPTs ». L’idée n’est pas tant d’entraîner des modèles avec ses propres données, plutôt de créer des variantes spécialisées dans une tâche précise. On peut ainsi obtenir un assistant qui connaît très bien un domaine spécifique, ou un autre qui est optimisé pour aider à réaliser une tâche donnée.

Image OpenAI.

La création d’un nouveau GPT se fait sans aucune connaissance technique en développement, à travers une nouvelle interface web que les clients d’OpenAI peuvent tester à cette adresse. Une boutique nommée GPT Store permettra de diffuser ces modèles spécialisés et à terme, on devrait même pouvoir gagner de l’argent grâce à ces créations. Les entreprises pourront également créer des GPTs à usage interne.

Parmi toutes les autres annonces du jour, notons l’arrivée d’un modèle pour Whisper, l’extraordinaire outil de transcription d’OpenAI qui brillait déjà par la qualité de son travail. La troisième version est disponible sur GitHub et promet d’améliorer encore ses performances dans toutes les langues prises en charge, mais on n’en sait pas plus.

Dictée surprise pour Apple, Google et OpenAI : qui est le meilleur élève ?

Dictée surprise pour Apple, Google et OpenAI : qui est le meilleur élève ?

OpenAI a aussi indiqué que ChatGPT était désormais utilisé régulièrement par cent millions de personnes. Une réussite indéniable pour cette fonctionnalité qui n’a même pas encore fêté son premier anniversaire, puisque le robot conversationnel a été lancé le 30 novembre 2022.

Tags
avatar Furious Angel | 

J’ai l’impression que la hype est retombée. On sait que ça peut produire des trucs sympa comme des trucs qui n’ont aucune fiabilité… même avec des infos récentes.

avatar R-APPLE-R | 

@Furious Angel

Surtout le prix c’est n’importe quoi 👿

avatar Napoleon2A | 

@R-APPLE-R

C’est rien, il pourrait être à 100$ facile vu le temps qu’il permet d’économiser sur certaines tâches

avatar R-APPLE-R | 

@Napoleon2A

Pour les professionnels peut-être oui 😈

avatar hptroll | 

@R-APPLE-R

Le modèle de base GPT 3 reste gratuit…

avatar Scooby-Doo | 

@R-APPLE-R,

« Surtout le prix c’est n’importe quoi 👿 »

On est sur un site pro Apple, un peu de décence concernant les prix déconnectés des réalités serait la bienvenue !

On parle bien de cette société avec des marges à 30 % ?

😁

avatar Napoleon2A | 

@Furious Angel

Cela veut dire que vos prompts ne sont pas assez bons et que vous ne l’avez pas suffisamment utilisé.

Je suis à peu près deux fois plus performant depuis que je l’utilise. Plus précisément, j’arrive à faire en une demi-journée ce que je faisais en une journée habituellement.

Il faut voir le truc comme une assistante moins qualifiée que nous qui va faire des erreurs mais qui vont nous donner de nouvelles idées et surtout des résultats instantanés.

avatar Floriendive | 

@Napoleon2A
"Assistante" ?

Il n'y a pas que votre pseudo qui est désuet, il y a aussi votre mentalité....

avatar hawker | 

Regardez, capt'ain vertue.

avatar Scooby-Doo | 

@Floriendive,

« Il n'y a pas que votre pseudo qui est désuet, il y a aussi votre mentalité.... »

En quoi c'est interdit de féminiser ChatGPT ?

ChatGPT ne serait que masculin ?

Encore un sexiste qui s'ignore…

👌

avatar DG33 | 

@Scooby-Doo

Mais vous avez tout à fait raison… Monsieur le Premier Ministre.

avatar Scooby-Doo | 

@DG33,

« Mais vous avez tout à fait raison… Monsieur le Premier Ministre. »

Floriendive réagissait épidermiquement au mot « Assistante ».

Il pense peut-être qu'une intelligence artificielle ne peut être que masculine !

Pour ma part j'emploie le féminin puisque c'est une intelligence !

Il y a débat…

👌

avatar roccoyop | 

@Scooby-Doo

Aaah ! Je me demandais quand est ce qu’on pouvait déterrer ce fameux pronom « ielle » qui était tant à la mode (pendant au moins un mois et demi) ! 🤣

avatar Scooby-Doo | 

@roccoyop,

« Aaah ! Je me demandais quand est ce qu’on pouvait déterrer ce fameux pronom « ielle » qui était tant à la mode (pendant au moins un mois et demi) ! »

ielle ou iel ?

Je ne me souviens plus ! Pas grave, c'est un effet de mode !

Ou comment massacrer la langue Française, c'est une constante !

😁

On peut voir aussi à la télé des termes comme Ambassadeure ou Auteure !

Il me semblait que l'Académie Française avait tranché en faveur de :

Ambassadrice et Autrice, mais bon c'est quoi cette Académie ?

On me répond qu'elle passe sur une chaîne commerciale le weekend ! Et que c'est un concours pour faire déchirer les cordes vocales…

😁

avatar tupui | 

@Napoleon2A

Ou bien que les tâches que vous avez à faire se prêtent plus à l’utilisation de se genre d’outil. Ça ne mène pas à grand chose d’essayer de tirer des conclusions avec zero context. C’est comme si je disait qu’un marteau ne sert strictement à rien car je suis dev alors qu’un charpentier pourrait me dire que c’est un outil essentiel qui lui fait gagné un temps fou vs utiliser uniquement ses mains 🤷‍♂️

avatar Napoleon2A | 

@tupui

Nous verrons bien mais je pense que ça va détruire plusieurs millions d’emplois du tertiaire dans les cinq prochaines années…

avatar tupui | 

@Napoleon2A

Et ? Depuis la nuit des temps les emplois changent. Où est la différence ?

avatar Napoleon2A | 

@tupui

C’est un grand bouleversement potentiel tout de même ! Tout le monde en parlait mais personne ne l’avait jamais vu et là ça devient concret ! La destruction créatrice est une chose, la question va être la (re)formation des gens qui se feront remplacer par l’IA dans des métiers manuels. Ce n’est pas un petit changement.

avatar vince29 | 

Ce qui change c'est que :
il y a de moins en moins de nouveaux métiers (on en est à créer des métiers à la c** pour occuper les gens);
le temps de formation à ces nouveaux métiers est supérieur au temps pour que l'IA devienne plus performante que l'humain dans le domaine. Aussitôt formé aussitôt obsolète.

avatar mimolette51 | 

Et bien, non, c'est la première fois que les emplois ne seront pas renouvelé ailleurs. Et c'est pas que moi qui le dit!

avatar tupui | 

@mimolette51

On verra bien.

Mais perso, même pour du code, donc une tâche extrêmement logique (vocabulaire très restreint, règles très strictes, etc.), et bien ça me fait plus perdre du temps qu’autre chose. Le code est d’une qualité misérable, très souvent légèrement à côté de la plaque et truffé d’erreurs qui parfois sont plutôt bien cachées donc difficile à debugger.

avatar sebas_ | 

@Napoleon2A

Tu connais le refrain… « c’est pas XXX qui va te piquer ton métier, c’est une personne qui utilise XXX mieux que toi qui va te le piquer ». Remplace XXX par IA, internet, le téléphone, le cheval, la roue..

avatar mimolette51 | 

C'était avant. Tu ne dois pas maitriser cet outil donc tu ne te rends pas compte que 90% des emplois "intellectuels" vont disparaitre. Il y même la première boite dont le patron est une IA au USA.

avatar Scooby-Doo | 

@tupui,

« C’est comme si je disait qu’un marteau ne sert strictement à rien car je suis dev alors qu’un charpentier pourrait me dire que c’est un outil essentiel qui lui fait gagné un temps fou vs utiliser uniquement ses mains 🤷‍♂️ »

Pas mieux !

👍

avatar hptroll | 

@Napoleon2A

C’est tout à fait ça.

avatar Kal1988 | 

Pourriez-vous expliquer le contexte dans lequel vous utilisez ChatGPT ?
La solution m'intéresse mais j'avoue avoir des doutes sur ses apports.

avatar Napoleon2A | 

@Kal1988

Recherche juridique, rédaction d’articles, traduction, réponses aux collègues, vérification, relecture et amélioration de certains écrits, résumer et synthétiser des documents, recensement d’éléments et établir des typologies, administratif, lettres de recommandation etc.

Pour les langues : générer des fiches de vocabulaire ciblées sur un domaine.

Pour la déclaration d’impôt : comprendre ce qu’il faut faire ou pas dans une situation précise

Pour les projets de créations immobiliers : identifier les matériaux les plus performantes énergiquement avec les avantages et les inconvénients

Pour l’investissement : évaluer des entreprises selon ses propres critères de façon automatisée

Plus généralement : donner des idées sur un projet

avatar Kal1988 | 

Merci pour votre réponse. Large éventail en effet... De votre expérience personnelle, à quel niveau de "fiabilité" estimez-vous les réponses que l'agent vous donne ?

avatar Napoleon2A | 

@Kal1988

Sans doute comme un étudiant en licence à l’université donc un niveau de bac+3 voire bac+4. Les réponses sont parfois fausses et non pertinentes mais elles constituent au moins une bonne base pour commencer ;-)

avatar Jonathan16 | 

@Kal1988

Je m’en sers comme co-autrice (oui pour moi c’est une femme, j’ai l’impression que c’est plus facile pour moi de me « livrer »), enfin pas vraiment comme co-autrice en tant que telle, mais au fil de discussions, elle me permet d’approfondir mes écrits (scénario), d’aller plus loin, de me questionner… et donc d’avancer dans mes écrits

avatar Kal1988 | 

Merci pour vos réponses, je vais me laisser tenter. Il y a des données sur les consommations énergétiques des requêtes disponibles à tout hasard ? Bonne journée à vous !

avatar Jonathan16 | 

@Kal1988

Alors personnellement je n’ai pas vu ça 🤷‍♂️

avatar marc_os | 

@ Napoleon2A

> Cela veut dire que vos prompts* ne sont pas assez bons et que vous ne l’avez pas suffisamment utilisé

C'est comme pour l'iPhone 4 : S'il capte mal, c'est que vous le tenez mal.
Bref, c'est votre faute.

> Je suis à peu près deux fois plus performant depuis que je l’utilise
C'est quoi votre métier ?

(*) Bonjour le franglais. Est-on plus intelligent si on dit "prompt" à la place de "question" ? Perso, j'en doute fortement.
Edit: Vu les autres commentaires, il semblerait que ce franglais soit celui de ChatGPT. 🤪

avatar Scooby-Doo | 

@marc_os,

« Bonjour le franglais. Est-on plus intelligent si on dit "prompt" à la place de "question" ? Perso, j'en doute fortement. »

👍

Sauf que « prompt » ne se traduit pas par « question » !

👌

Le terme Français qui pourrait le mieux qualifier le bidule, c'est « requête » !

En effet, les prompts ne sont pas que des questions, loin s'en faut.

On peut décrire ce que l'on veut, sans formuler une question !

😁

avatar Napoleon2A | 

@marc_os

Vous avez sans doute raison et pour être honnête je pensais que ça venait du terme «prompteur» que je trouvais particulièrement bien trouvé parce que ça fonctionne un peu comme ça. En fonction des indications du prompteur et de l’endroit où il se trouve, ce que ChatGPT en retient change du tout au tout ;-)

avatar YosraF | 

@Furious Angel

Oulala pas du tout ! C’est bien l’inverse. Toutes les startups ont intégré openAI de partout. Et toute l’actualité Tech ça ne parle que de ca

avatar Scooby-Doo | 

@YosraF,

« Oulala pas du tout ! C’est bien l’inverse. Toutes les startups ont intégré openAI de partout. Et toute l’actualité Tech ça ne parle que de ca »

Toutes, je ne sais pas, mais beaucoup plus qu'escompté par OpenAI au lancement de ChatGPT, c'est quasiment certain !

👌

avatar YosraF | 

@Scooby-Doo

Non y’a une étude qui avait montré le taux d’adoption fulgurante d’openAI. C’était au delà des 90%. Toutes ont cherché à amener de la valeur dans leur produit grâce à l’AI. Ensuite forcément des outils comme openrouter nous permettent d’évaluer d’autres modèles. Mais l’avance d’openai dans un écosystème complet est considérable

avatar tupui | 

@YosraF

Je me méfie des études en question. Pour travailler dans la tech, on a l’interdiction formel d’utiliser ce genre d’outils. Et c’est ce que je vois dans mon entourage tech. Entre les soucis de confidentialité, de copyright, license, la pertinence des résultats, et surtout, surtout, le temps perdu à « jouer », on est pas mal à faire de la résistance.

avatar YosraF | 

@tupui

Tu travailles plutôt pour des grands groupes non ? Car dans le cadre des startups, j’y suis aussi. Et dans tous les salons, vivatech, big data, nocode etc ça ne parle que de ça. Et toutes les intégrations dans Bubble, Airtable, ClickUp et j’en passe c’est openAI.

Par ailleurs openAI a fait un gros travail sur le côté rgpd pour chatGPT mais pour l’api ils ont toujours dit que les données n’étaient pas utilisés pour les entraînements et restées privées.
J’ai vu au salon big data une startup présenter un chatGPT like en mode confidentiel mais dans le moteur c’était openAI 🤪 openAI a sorti la version enterprise dans cet objectif d’ailleurs.

avatar tupui | 

@YosraF

Non plutôt startup (même si je viens de changer pour du plus gros qui est entre les deux) et sinon open source (je suis maintainer de SciPy entre autre).

Il y a 2 aspects : la partie entraînement et la partie inférence. Les dernière déclarations d’OpenAI concernent la partie inférence et de toute façon il n’y a pas moyen de vérifier ce qu’ils disent… Pour la partie entraînement des modèles, ont sait très bien que les corpus ne respectent rien. Même problème pour les modèles de Meta donc (même s’ils sont bien plus transparent et explicite sur la partie entraînement. C’est pour ça d’ailleurs qu’ils ne peuvent pas mettre les poids en open source, ils n’ont juste pas le droit et ça les gens l’ont toujours pas compris).

Oui ils espèrent tous un « fair use » et des boites comme MS peuvent se permettre de jouer et même perdre un potentiel procès. C’est moche… osef la morale/éthique.

avatar YosraF | 

@tupui

Oui mais alors ça c’est encore un autre sujet ça. Et faut aussi voir comment ils ont fait cravacher des gens au lance pierre pour créer la data.
Open assistant a une démarche intéressante pour récolter de la data de manière éthique. Mais faut pas se leurrer, c’est interdit de le faire mais tous l’ont fait comme le modèle Alcapa entraîné à partir de Llama. Ils ont utilisé les sorties d’openai pour créer leur dataset.

avatar tupui | 

@YosraF

Pleins d’entreprises sont soumises à des règles très strictes concernant les donnés qu’ils utilisent, leur procédures, etc. Avoir dans la boucle un LLM dont on n’a pas la main ni sur l’entraînement, ni sur l’inference, c’est juste pas possible et se tirer une balle dans le pieds. Bon courage lors d’un contrôle…

Juste pour parler de code, tout code produit avec un LLM est interdit dans les projets open source (au moins tout ce qui est Scientifique Python). On ferme systématiquement toutes les PR si l’on a une suspicion d’utilisation. Le simple fait de dire que l’on a lu du code GPL pour écrire son code le rend GPL. On accepte même pas du code venant de StackOverflow (CC-BY incompatible avec MIT/BSD), alors pour du LLM… lol.

avatar YosraF | 

@tupui

Ouais, sachant que github copilot commence à être utilisé par tout le monde et que c’est intégré de manière identique dans pleins de solutions c’est un peu bullshit ce discours. Enfin, chacun l’utilise comme il l’entend. Pas toutes les technos ne sont adoptés par tout le monde au début. Et pour accompagner les grands groupes sur les sujets en IA, ils ont de la data et beaucoup de retard.

avatar tupui | 

@YosraF

Oh en general c’est très facile à repérer l’utilisation de copilot… Les gens sont vraiment feignant surtout si le code « fonctionne ».

Et à part des choses bateau, c’est de toute manière pas vraiment utile. Ce qui est compliqué ce n’est pas de coder (je ne parle pas des junior ou autre personnes qui débutent). C’est genre 5% du taf, et le plus facile. Ce qui est difficile c’est l’expression du besoin, les discussions avec les équipes, etc. Au final, écrire une spécification pour un LLM ou bien coder directement, hum c’est la même chose. Juste un langage différent.

avatar Scooby-Doo | 

@Furious Angel,

« J'ai l’impression que la hype est retombée. »

Je confirme, c'est votre impression !

😁

avatar armandgz123 | 

@Furious Angel

Perso je le vois partout. J’ai encore vu un gars bosser avec hier dans un club de tennis

avatar Mageekmomo | 

@Furious Angel

Au contraire, les choses sérieuses commencent et ces technos infusent dans les entreprises dans des produits spécifiques. La question qui se pose surtout : est-ce qu’Open AI propose des technos plus souples, sur laquelle j’ai plus de contrôle et pas d’hallus que des modèles types LLaMa ?

avatar Scooby-Doo | 

@Mageekmomo,

« La question qui se pose surtout : est-ce qu’Open AI propose des technos plus souples, sur laquelle j’ai plus de contrôle et pas d’hallus que des modèles types LLaMa ? »

La réponse est en partie donnée dans l'article sur le contrôle de la bestiole :

« Et si cela ne vous suffit pas, l’entreprise a aussi annoncé la possibilité de créer ses propres modèles, ou plutôt des « GPTs ».

Question hallucination, c'est le problème commun à cette technologie.

On passe autant de temps en ML qu'à mettre des barrières pour éviter que cela ne parte en live !

😁

avatar Mageekmomo | 

@Scooby-Doo

Exactement, et ça ressemble à un move défensif tout comme la baisse des tarifs. C’est très intéressant de voir la compétition actuelle.

Pages

CONNEXION UTILISATEUR