Bing, Bard : le futur de la recherche web va coûter cher aux entreprises

Félix Cattafesta |

Alors que les IA du style ChatGPT semblent bien parties pour être mises à toutes les sauces en 2023, la question du prix de cette nouveauté se pose. Microsoft et Google ont prévu d'intégrer rapidement des modèles similaires dans leurs moteurs de recherche, utilisés par des milliers de personnes quotidiennement. Or, chaque requête envoyée à une de ses IA coûte beaucoup plus cher qu'une simple recherche dans Bing ou Google.

Le nouveau Bing.

Les IA nécessitent en effet beaucoup de puissance sous le capot étant donné que la machine doit générer une réponse, là où un moteur plus classique va plus simplement aller chercher les résultats correspondants dans l'énorme liste de sites indexés. La mise sur pied des modèles est également très gourmande : l'entraînement de ChatGPT aurait demandé environ 10 000 cartes graphiques NVIDIA. C'est une aubaine pour le fabricant, son CEO ayant déclaré que l'utilisation de ses puces pour alimenter des services d'IA (comme les chatbots) avait « explosé au cours des 60 derniers jours ».

L

L'essor des IA pourrait créer une nouvelle pénurie de GPU

Le président du conseil d'administration d'Alphabet John Hennessy a expliqué à Reuters qu'un échange avec une IA coûterait probablement 10 fois plus cher qu'une recherche standard par mot clé. On estime que si Google devait recourir à des GPU pour répondre aux requêtes via l'IA, il faudrait un peu plus de 4 000 000 cartes graphiques A100, qui se négocient aux alentours de 20 000 € pièce. SemiAnalysis considère que l'ajout d'une IA de type ChatGPT à Google pourrait coûter 3 milliards de dollars à Alphabet. De son côté, le cabinet Morgan Stanley estime que Google verrait ses coûts augmenter de 6 milliards de dollars d'ici 2024 si seulement la moitié des recherches utilisateurs passent par Bard (avec des réponses de 50 mots). Ces frais se justifient par le besoin de puces, mais aussi d'électricité.

Pour répondre à cette problématique, Google envisage le déploiement de plus petits modèles d'IA dédiés à des tâches plus simples : c'est une version plus économe qui alimentera son chatbot Bard. Le président du conseil d'administration d'Alphabet a expliqué que les dépenses associées à la façon dont un bot génère des réponses étaient amenées à diminuer avec le temps, affirmant que c'était un problème « de quelques années dans le pire des cas ». Plusieurs astuces pourraient être employées pour limiter les coûts, comme la mise en cache de requêtes mêlées à l'utilisation du moteur de recherche pour les demandes les plus simples.

Plusieurs solutions sont à l'étude pour réduire les coûts. La directrice financière de Microsoft a déclaré que l'augmentation du nombre d'utilisateurs et des recettes publicitaires l'emportait pour le moment sur les dépenses liées au déploiement du nouveau Bing. Actuellement, Microsoft se contente de remonter ses réclames standards via le bot, mais envisage de mettre en place d'autres techniques sur le long terme. Il n’est pas difficile d’imaginer de nombreuses voies de monétisations plus précises.

Des pubs pour des hôtels pourraient par exemple apparaître en tapant la requête « quels sont les meilleurs hôtels de Mexico ? », a expliqué un cadre du groupe. L'entreprise a également fait grimper le prix de l'API de Bing, avec des tarifs étant parfois multipliés par 10. Cette interface peut être utilisée par certains services tiers pour extraire des données de Bing Search. La firme de Redmond justifie cette décision en expliquant que ce « nouveau modèle de tarification reflète plus fidèlement les investissements technologiques que Bing continue de faire pour améliorer la recherche ».

Tags
avatar David Finder | 

Tout cet argent, mais plus important encore, toutes ces matières et l’énergie qu’il faut pour les fabriquer et assurer leur fonctionnement, alors que la planète (l’espèce humaine et tout ce qu’elle détruit) est dans un état critique….pour parler à un bot ????? 😳

On vit dans un monde de fou.
Écologiquement parlant, c’est une hérésie !

Mais l’Homme est 🙈

avatar madaniso | 

C'est vrai que j'ai jamais entendu un écolo parler de la consommatioin des serveurs et d'internet en général... Ils doivent penser que c'est magique...

Quand on sait que Netflix et autre streaming c'est déjà 30% de la bande passante...

avatar David Finder | 

@madaniso

Je ne suis pas écolo. Je suis réaliste.
Je ne dis pas que Netflix ou autres ne consomment pas trop !
Je ne parle que du sujet : ChatGPT, le matos dont il a besoin et la consommation qui va avec. Le tout pour parler à un bot…..

Édit : le jour où un IA sera vraiment intelligente, soit elle s’autodétruira en voyant ce qu’elle consomme, soit elle mettra fin à la vie humaine en réalisant ce que nous avons laissé aux futures générations.

J’exagère bien sûr.
Je ne suis pas contre l’IA. Mais autant de ressources pour celle-ci en particulier ? Je n’en vois vraiment pas l’intérêt.

avatar Scooby-Doo | 

@David Finder,

« Je ne suis pas contre l’IA. Mais autant de ressources pour celle-ci en particulier ? Je n’en vois vraiment pas l’intérêt. »

Et pourtant cela ne vous gêne absolument pas que YouTube, Netflix et les autres se goinfrent de ressources informatiques et énergétiques pour que votre bon vouloir soit satisfait à l'instant !

L'Uberisation de la société passe aussi par les esprits !

Un esprit mou dans un corps mou !

Dring dring dring !

Ah c'est la malbouffe qui arrive par scooter et son livreur payé au lance-roquettes !

😁

Ça fait rêver !

😁

avatar David Finder | 

@Scooby-Doo

Mais tu ne sais rien de moi.
Qui te dit que ça ne me dérange pas ?

C’est dingue ces jugements à l’emporte-pièce, bien caché derrière un pseudo, parlant des autres sans en connaître quoique ce soit…

avatar Scooby-Doo | 

@madaniso,

« Quand on sait que Netflix et autre streaming c'est déjà 30% de la bande passante… »

30 % ? Vraiment ?

Vous êtes peut-être gros consommateur de SVOD pour minimiser à ce point l'impact environnemental de la SVOD !

😁

https://fr.statista.com/infographie/21207/repartition-du-trafic-internet-mondial-par-usage/

61 % me semble plus juste et encore !

😭

Et le pire, c'est qu'une bonne partie de ce trafic aurait pu être vu sur la TNT sans passer par des serveurs, ni des box TV et leur IPTV qui se goinfrent !

👌

avatar Korell | 

@Scooby-Doo

Le service n’est pas le même.

Est-ce qu’une technologie hertzienne « a la demande » ne consommerait pas autant que la SVOD et les serveurs clouds refroidies h24 ?

avatar Scooby-Doo | 

@Korell,

« Le service n’est pas le même. Est-ce qu’une technologie hertzienne « a la demande » ne consommerait pas autant que la SVOD et les serveurs clouds refroidies h24 ? »

Bonne question ! Je n'ai pas de réponse à vous donner !

Par contre effectivement le service n'est pas le même, mais la fonction c'est principalement de divertir !

La TNT permet cela en diffusant au plus grand nombre depuis un point unique (l'émetteur) des signaux hertziens reçus grâce à une antenne amplifiée.

Le bilan énergétique me semble néanmoins nettement moins grave que celui de la SVOD qui non content d'être un goinfre en bande passante (61 %) du trafic mondial, consomme une quantité d'énergie colossale en data centre et infrastructure !

Il me semble avoir lu il y a déjà plusieurs années de cela que les data centre avaient un bilan carbone / énergétique plus important que tout le transport aérien !

Le transport aérien sur lequel on tire à boulet rouge en permanence ne représentant plus que 3 % du total des émissions en co2 il me semble !

👌

avatar Korell | 

@Scooby-Doo

Bien d’accord !!

avatar Valiran | 

Après le "à la demande" n'est pas forcément obligatoire, c'est confortable et on y est habitué, mais bon...

avatar Scooby-Doo | 

@Valiran,

« Après le "à la demande" n'est pas forcément obligatoire, c'est confortable et on y est habitué, mais bon... »

Après je ne suis pas contre de nouveaux services ou conforts comme vous dites !

Prendre sa voiture pour aller acheter sa baguette de pain à la boulangerie située à moins de 500m, ben là tout le monde crie au scandale à juste titre !

Certains regardent le journal de 20 h à 20 h donc en direct sur de l'IPTV alors que s'ils avaient juste pris le temps de brancher le tuner TNT de leur télévision, cela revenait au même !

Sauf que la consommation du tuner TNT intégré dans le téléviseur ne consomme pas plus tandis que la box tv + le signal provenant de Paris et routé jusqu'à sa prise optique, ben c'est pas la même consommation qu'un émetteur TNT qui arrose à lui tout seul des centaines de milliers, voire des millions de téléviseurs dans le cas des grandes villes !

C'est la tendance actuelle, pourquoi faire simple, collectif et rationnel lorsque l'on peut faire compliqué, individuel et super consommateur en ressources !

😭

Mais dans ce cas, les pouvoirs publics ne font strictement rien !

😁

J'attends avec une impatience certaine la livraison par camion contenant un colis par destinataire !

Cela fera tellement tendance, so individuel, trop nouveau et infiniment personnalisé !

On a très bien vécu sans la SVOD ou l'IPTV, sans 300 chaînes plus quelconques les unes que les autres.

Une civilisation obnubilée par la quantité et l'individualisme…

Cela doit être cela être éco responsable ISO 14XXX !

😭

Des bornes de recharge partout, mais vraiment partout pour que tout le monde puisse recharger sa voiture la nuit ce qui est normal.

Pendant ce temps on pourrait faire son plein d'électricité liquide en moins de 2 mn pour une autonomie de 2000 km !

https://www.nanoflowcell.com/

Et pas besoin de bornes de recharge.

C'est compatible avec les stations services actuelles. Peu de modifications à effectuer !

Inducteur ionique d'une durée de vie de 10 millions de kilomètres !

Ben on va prendre les bonnes batteries au lithium qui polluent un max avec un durée de vie ridicule comparée à cette technologie qui utilise de l'eau de mer et du sel ordinaire ! Deux matières extrêmement difficile et rare à trouver sur Terre…

😁

1 m3 de lithium extrait = 1200 m3 d'eau gaspillés !

La plupart des mines de lithium sont dans des région en déficit hydrique !

Cherchez pas à comprendre :

C'est compliqué, polluant, consommateur en ressources comme jamais, donc c'est tendance !

CQFD

😁

avatar RonDex | 

@David Finder

Je suis d'accord. Mais, de toute façon, ça sera le futur des moteurs de recherche. Néanmoins, il ne s'agit pas forcément de discuter. Il y aura plein d'applications possibles: traduction, résumé d'un article, correction rapide du texte, etc., et encore d'autres applications qui seront à découvrir dans le futur.
Je pense que Google ou Microsoft vont chercher des astuces pour diminuer les coûts des requêtes... Mais, du point de vue financier, pas écologique ! Exactement comme le font les plates-formes de streaming, YouTube, etc. avec de nouveaux codecs qui demandent moins de bande passante, par exemple. Il y a eu un article sur ce site il y a quelques jours.
Il y a également les processeurs qui consomment et vont consommaient de moins en moins d’énergie tout en étant plus performant (Apple silicone par exemple).
Je n'ai plus le lien de la source en tête, mais il y avait eu un article sur la dépense énergétique d'une requête sur Google. C'était beaucoup plus important que ce qu'on pourrait penser.

avatar David Finder | 

@RonDex

Oui, je suis d’accord avec ce que tu dis.
Je n’ai pas pris la peine de chercher d’autres utilisations possibles de cette techno.
Je ne faisais que remarquer que, pour l’instant (?), tout ça…pour ça…

avatar valcapri | 

@David Finder

Il y a pire menace pour notre planète que ce que consomme les serveurs et autres et qu’on ne fait rien pour arrêter.

Dans la tech, il y a pas mal qui essaie de faire attention. Et on voit que notamment Apple a permis un recentrage vers la puissance au watts, ce qui est très intéressant pour tout (que ce soit la consommation, la chauffe,….). Et nul doute que l’on verra des puces hardware plus spécialisé en IA et avec certainement des modèles pré-établis dans le hardware. Et donc, qui permettront une consommation et un prix inférieur. Ici, c’est assez neuf et c’est la première fois que l’on voit vraiment une « IA » à l’œuvre.

J’ai bien plus peur niveau consommation du metaverse que des chatbot dopé à l’IA. Autant avec l’IA, techniquement parlant, on commence à avoir quelque chose au point. Au temps, pour le metaverse, c’est encore loin d’être le cas.

avatar raoolito | 

@valcapri

"Apple a permis un recentrage vers la puissance au watts"
bien vu, d'autant que niveau nvidia (ou meme amd) c'est PAS DU TOUT la priorité !!

avatar valcapri | 

@raoolito

Les dernières cartes graphiques RTX40xx sauf la RTX4090, ça va encore niveau consommation, c’est même mieux que les précédentes. C’est pire du côté des carte graphiques AMD qui sont plus énergivore lorsqu’il s’agit de bureautique et qu’elles sont au repos. Du moins, c’est ce que j’ai lu dans les tests.

On a grandement exagéré la consommation des dernières cartes graphiques car on a directement pris le fleuron de la gamme. En même temps, c’était ceux qui ont été commercialisés en premier, donc, je peux comprendre.

Maintenant, on dirait qu’Intel y travaille pour ses Core de 14ieme et 15ieme génération, ce qui est bon signe. J’espère que cela se vérifiera en action. Du côté d’AMD s’est moins pire niveau processeur et j’attends de voir ce que donneront déjà les Ryzen 7xxx 3D et leurs prochaines générations en espérant que l’on voit un gain aussi niveau consommation.

Il faut dire qu’AMD a aussi de très bon APU et processeur mobile/mini PC. Chez Intel, c’est moins le cas, surtout qu’ils ont une gamme moins lisible avec leurs Intel Processor.

Depuis que j’ai des Mac Apple Sillicon, j’ai retrouvé le silence sauf par de très rare moment et ça fait du bien de ne plus entendre un hélicoptère décoller lorsque l’on compile du code notamment. Et j’aimerais que ce soit un peu plus le cas dans les tours et PC portable. Un peu plus de sobriété dans la consommation, la chauffe et donc le refroidissement et le bruit.

avatar Gotmilker | 

Bah alors, il ne suffit pas de demander à ChatGPT une solution moins coûteuse et plus écologique ?

avatar Tom PostProd | 

On note dans l’article la dérive évidente des outils de recherche tels que Bing boosté à l’AI : cette dernière va être réglée pour privilégier les résultats sponsorisés (la pub, quoi).
C’est déjà le cas sur les moteurs de recherche classiques, bien sûr. Mais ce sera encore plus insidieux dans un retour de résultats fourni par l’IA (plutôt que l’actuelle liste de liens dont certains sont marqués comme sponsorisés).

avatar Baptiste_nv18 | 

@Tom PostProd

La loi reste la même, une pub doit être signalée comme telle.

avatar Olivier_D | 

C’est un peu limitant de réduire ça à « parler à un bot ». Mais il est vrai que les ressources déployés semblent démesurés. Cela dit, c’est un outil qu’on affectionne au taff et qu’on utilise facile 1 fois par semaine pour réduire le temps de résolution d’un soucis, plutôt que de se bouffer de la doc pendant 1h pour (peut-être) résoudre le soucie.

avatar Moebius13 | 

Je rêve où Google joue les économies pour 3 malheureux milliards de dollars ? Les mecs sont assis sur une montagne d’or et ça doit représenter 5% de ce qu’ils sont en capacité d’investir, on assiste à des rachats colossaux à plusieurs dizaines de millards de dollars et pour 3 milliard il faut chercher les économies….

Attention Google vous êtes entrain de vous transformer en Apple, si c’est pour pondre un ChatGTP aussi pertinent que Siri dans son domaine mieux vaut s’abstenir 😬

avatar Korell | 

@Moebius13

Les revenus d’Alphabet , notamment dans sa division Web et Cloud on été je crois en « manque  financier» pour 2022 de 17 ou 18 Milliards d’€.

Ça ferait trop peur aux actionnaires si il n’y avait pas cette volonté du petit pas.

avatar Korell | 

@Korell

Ps : également il semble avoir une coquille aussi dans l’article. 3/4 Milliard pour Microsoft en dépense… et vers 90 Millards pour Google.

avatar echarbon44 | 

N’y a t-il pas une erreur. De ce que j’avais compris c’est que cela coute 3 à 4 milliards à Microsoft, mais pour Google qui a plus de 90% de part de marché dans la recherche, cela coûterait 80 milliards…

avatar Scooby-Doo | 

@echarbon44,

« N’y a t-il pas une erreur. De ce que j’avais compris c’est que cela coute 3 à 4 milliards à Microsoft, mais pour Google qui a plus de 90% de part de marché dans la recherche, cela coûterait 80 milliards… »

C'est ce que j'avais compris, voire 100 milliards pour Google !

👌

Sur la recherche Internet de mémoire c'est :

Google : 92 % de PDM ;

Bing : 4,7 % de PDM.

Donc les investissements sont proportionnés aux PDM.

🤞

avatar marc_os | 

Oui mais on s'en fout de la consommation, il faut que Siri puisse répondre aussi bien que ChatGPT ! En attendant, ce qu'on entend c'est que Siri "est naze", trop nul en effet de ne pas balancer chaque requête sur le net pour demander la réponse hyper intelligente à un serveur comme ceux d'OpenAI.

avatar Scooby-Doo | 

@marc_os,

« Oui mais on s'en fout de la consommation, il faut que Siri puisse répondre aussi bien que ChatGPT ! »

J'en prends bonne note !

Mais la question ne serait-elle pas de se demander pourquoi utiliser Siri lorsqu'en se connectant à ChatGPT on peut obtenir une réponse utile à une question correctement formulée ?

Siri est un assistant vocal, un peu comme certaines fonctions de ma voiture qui sont activables / utilisables à la voix !

Je ne vais pas demander à ma voiture de me faire une explication de la physique quantique !

Juste de changer la chaine de radio ou de décrocher pour prendre un appel en main libre !

👌

Pourquoi vouloir absolument que Siri soit du niveau de Bing Prométhée ou OpenAI ChatGPT ?

Quel est l'intérêt ?

😉

avatar smog | 

@scooby-doo : c'est même la question centrale pour plein de choses en technologie : pourquoi avoir un outil "qui fait tout ce que l'on veut" alors que chacun a son rôle et est complémentaire d'un autre...
Effectivement, je ne vois pas le rapport entre Siri qui m'envoie un message à partir de données vocales dans ma voiture et ChatGPT qui a autre chose à faire que s'occuper de mes SMS...
Par ailleurs (c'est pas pour répondre, juste une remarque) : chaque fois que je vois parler de ChatGPT, je lis ou entends plein de trucs qui disent que c'est pas fiable parce que les résultats sont parfois loufoques. Oui, les exemples donnés en montrent les limites. Mais ce n'est que pointer ce qui n'est pas au point, parce que quand on en connait les limites et qu'on l'utilise pour ce pour quoi il est performant, c'est un outil magique.
Dernier exemple en date pour moi : give me an entire example of an MVC PHP website talking about cars.
Et bien le résultat m'a fait gagner un temps important pour un cours sur PHP objet/MVC en BTS ! Et tout fonctionne très bien, j'ai juste complété un petit peu.

avatar Scooby-Doo | 

@smog,

« c'est même la question centrale pour plein de choses en technologie : pourquoi avoir un outil "qui fait tout ce que l'on veut" alors que chacun a son rôle et est complémentaire d'un autre... »

👍

Merci de résumer exactement ma pensée au sujet des IA avec un pluriel !

Parce que si Siri est une IA du type assistant vocal spécialisé pour lancer une minuterie, enregistrer un rendez-vous dans mon agenda, ben Siri reste et doit rester cela !

Alexa ne fait pas la cuisine !

Et je confirme que ChatGPT peut être incroyablement efficace si on lui pose des questions pertinentes et que l'on précise le contexte !

C'est une IA généraliste qui je trouve s'exprime très bien en Français !

Surtout pour une première version je trouve.

Ces derniers mois, j'ai eu des conversations qui aurait pu faire des dizaines de pages A4 sans problème !

Après certains désirent l'impossible ou projettent leur propre peur ou fantasme alors que ce n'est qu'un logiciel, puissant certes, mais qu'un logiciel à base de ML et de RNN pour faire simple !

Mais que font nos enfants quand ils sont à l'école si ce n'est du ML pour simplifier.

Et quand nous réfléchissons à propos d'un problème, nous faisons référence à nos expériences passées, notre savoir acquis académiquement ou empiriquement.

Et ce savoir a besoin d'un contexte.

L'exemple des œufs de vache est un mauvais exemple puisqu'il ne précise pas le contexte : de quel animal parle-t-on ?

En effet, il existe une sous-espèce de requins ovipares qui s'appellent « requin-vache » ou tout simplement « vache » !

Quand on parle d'œufs de vache, il va se baser sur cette sous-espèce de requins.

Après, si on lui pose la question :

Les bovins sont-ils ovipares ?

ChatGPT va répondre par la négative !

Une question et sa réponse ont besoin d'un contexte, de précisions, pour limiter le champs des possibles.

Mais ce qui pose problème à ChatGPT est aussi vrai pour l'humain.

Une phrase sortie de son contexte peut avoir une connotation, un sens, totalement différent !

👌

avatar gillesb14 | 

Petit commentaire

On parle bien de Chat 🐈‍⬛ gpt..

Ayant vecu depuis trois ans chez une personne qui héberge deux chats, je comprends pourquoi ce bot est ainsi nommé.

Tout le monde prétend que les chats sont supérieurement intelligents car ils n’en font qu’à leur tête , on ne peut pas leur demander quelque chose etc…

En fait je ne connais pas d’animal plus débile.
Il suffit de le regarder se déplacer pour voir que ce nuisible (75 millions d’oiseaux tues par an en France) a le QI d’un aspirateur Roomba.

Donc il ne faut pas s’étonner qu’une « intelligence » qui porte le nom de cet estomac sur pattes (donc peut-être est il un gasteropode) pense que les vaches pondent des œufs !!!!

avatar Scooby-Doo | 

@gillesb14,

Mais les vaches pondent des œufs ! Elles sont ovipares et vivent notamment dans les fonds marins en Méditerranée !

https://fr.m.wikipedia.org/wiki/Hexanchus_nakamurai

Et pour sa classification dans les ovipares, c'est ici :

https://en.m.wikipedia.org/wiki/Bigeyed_sixgill_shark

😁

C'est la magie de l'ambiguïté d'une langue comme le Français !

Sans contexte, les mots peuvent vite devenir vide de sens.

🤞

« En fait je ne connais pas d’animal plus débile. Il suffit de le regarder se déplacer pour voir que ce nuisible (75 millions d’oiseaux tues par an en France) a le QI d’un aspirateur Roomba. »

Écrit par un supporter des énergies renouvelables éventuellement ?

Parce que l'hécatombe aviaire, y compris d'espèces en danger d'extinction, cela n'a pas trop l'air de les inquiéter !

Éoliennes tueuses d'oiseaux…

https://www.techno-science.net/actualite/eoliennes-sont-elles-grandes-tueuses-oiseaux-N20801.html

Bon c'est 230 000 oiseaux tués par an aux USA pour alimenter des data centre éco responsable !

😁

Par contre, les bâtiments sont en effet responsables d'environ 599 millions de décès d'oiseaux par an aux USA !

Et ce sont les chats, avec une moyenne estimée à 2,4 milliards de décès d'oiseaux par an aux USA !

Oui je sais ces chiffres donnent le vertige !

Mais les nombres ne disent pas tout aussi !

Les éoliennes tuent fort peu, mais ce sont des oiseaux de grandes envergures qui se font décimer !

Les chats, c'est plutôt de petits oiseaux !

Et il faudrait se renseigner sur l'histoire de France ou de l'Égypte pour comprendre que le chat n'est pas un nuisible !

Même avec un QI d'aspirateur Roomba !

À moins que vous soyez aussi un défenseur des rongeurs avec toutes les maladies qu'ils pouvaient / peuvent véhiculer !

Pour information, les oiseaux sont aussi un vecteur de propagation de maladies, le plus souvent virales.

🤞

Enfin, les poteaux métalliques à corps creux de France Télécom et la suppression des bocages lors de remembrements ont largement fait aussi beaucoup de dégâts !

😁

Des poteaux et des remembrements de la responsabilité des gouvernements de l'époque !

avatar PtitXav | 

Pour rentabiliser, toutes les réponses seront des liens vers des sites ayant payé 😈 plus vraiment un moteur de recherche, juste un moteur de recherche de pub.

avatar Antwan | 

Les CPU analogiques sont une réponse à la course à la puissance et l’energie que demande l’IA.

Je vous invite à regarder la vidéo de Derek Muller (Veritasium) sur le sujet qui l’introduit bien.
https://youtu.be/GVsUOuSjvcg

CONNEXION UTILISATEUR