Google aurait mis son éthique de côté pour ne pas se faire dépasser dans la course à l'IA

Félix Cattafesta |

Google aurait mis son éthique au placard pour sortir Bard au plus vite. Son chatbot lancé il y a un mois peine à convaincre les utilisateurs, et même les employés de Google ne seraient pas satisfaits du résultat. Bloomberg a pu discuter avec 18 anciens et actuels salariés, mais aussi accéder à des conversations internes ayant eu lieu peu avant la mise en ligne du projet. Certains chercheurs qualifiaient Bard de « menteur pathologique », là où un autre le décrivait comme « pire qu'inutile ».

Quelques semaines avant le lancement, Google a demandé à ses employés d'expérimenter chaque jour avec Bard pendant 2 h pour dénicher des bugs et autres limitations. Cependant, des salariés affirment que les retours auraient été en grande partie ignorés. Des failles majeures ont pourtant été relevées : un employé explique par exemple que lorsqu'il a demandé à Bard des conseils pour faire atterrir un avion, le bot a répondu avec des indications conduisant à un crash. Un autre lui a demandé des conseils pour de la plongée sous-marine, et s'est vu proposer une réponse « qui entraînerait probablement des blessures graves ou la mort ».

Un employé a carrément demandé à Google de repousser son projet dans une note interne. Celle-ci a été vue par 7 000 personnes, dont une grande partie a indiqué que l'outil était à côté de la plaque pour des questions factuelles simples. Ces critiques n'ont pas suffi à faire trembler Google, qui a tout de même mis en ligne Bard en version expérimentale.

Google a drastiquement changé de stratégie depuis le lancement de ChatGPT. Si l'entreprise était auparavant prudente sur ses expérimentations liées à l'IA, elle a désormais peur de perdre la course face à Microsoft. Une réunion aurait eu lieu en décembre, dans la foulée de « l'alerte rouge » lancée par Google face à la sortie du bot d'OpenAI : la direction aurait fait comprendre que les standards internes devront être revus à la baisse pour certains projets afin d'accélérer leurs sorties.

En interne, Google attribue un score sur 100 à ses produits pour juger de leur état de préparation avant la mise sur le marché. Si le but est d'avoir 100 % dans certains domaines spécifiques (par exemple ce qui est en lien avec les enfants), la direction aurait assuré qu'un seuil de 80-85 % était désormais acceptable pour certains projets. La situation ne s'améliore pas : deux employés affirment qu'aujourd'hui, les évaluations éthiques des services liés à l'IA sont faites de manière « presque entièrement volontaires au sein de l'entreprise ».

L'interface de Bard.

Le groupe s'occupant de la surveillance et de l'éthique chez Google serait aujourd'hui déresponsabilisé et démoralisé, expriment les employés. Les personnes en charge de la sécurité affirment avoir reçu l'ordre de ne pas entraver le développement des outils basés sur l'IA générative. Un ancien salarié aurait demandé à travailler sur la déontologie des modèles d'apprentissage automatique, mais aurait été découragé plusieurs fois, au point que cela a fini par toucher son évaluation de performances (et menacé son poste).

avatar Captain Bumper | 

Ce n'est guère étonnants, quoiqu'en pensent certains, les discours de soi-disant bienfaisance pour l'humanité de la part d'entreprises non régulées/réglementées (au sens de la loi) ne sont que de la communication... Au pire tant que ça n'impacte pas durablement les bénéfices, on peut derrière assurer un peu de pratique aux discours, mais sinon, à la moindre contrariété, la veste est retournée vite fait bien fait. Et cela est loin de ne concerner que les GAFAM, et même de manière général le monde des entreprises petites et grosses, c'est devenu aussi une méthode de faire de la politique d'une manière générale.

avatar shaba | 

Depuis quand ont-ils une éthique ?

avatar ddrmysti | 

@shaba

Mais si, tu sais ce que disent les fanboys, leur slogans a été « dont be Evil », c’est bien la preuve que Google est gentil. Et puis android c’est du libre tu comprend, le libre c’est génial, c’est gentil, tout ça. Pas comme ces vilaines entreprises qui utilisent du code propriétaire car ils sont très méchant.

avatar lmouillart | 

"Et puis android c’est du libre tu comprend, le libre c’est génial" : oui.
C'est basé sur Android, il n'y a pas le moindre élément lié aux services Google : https://e.foundation/ que Google soit "gentil" ou "méchant" peu importe c'est libre et l'utilisateur peut en faire ce qu'il souhaite et comme il souhaite du moment qu'il respecte la licence.

Faire un OS à la gloire de Satan : https://archiveos.org/ubuntu-satanic/ , développer avec le soutien du PCC des OS pour aller concurrencer les USA et leurs entreprises.

avatar MarcMame | 

« Google aurait mis son éthique au placard »
——-
Qu’est-ce que j’apprends ?
Google avait une éthique quelconque ?

avatar roccoyop | 

@MarcMame

Quel scoop ! Je savais ça depuis des décennies ! 😂

avatar Seb42 | 

Outre l’éthique, cela montre clairement à ceux qui pouvaient encore le croire ou l’ignorer (volontairement), que l’IA ne sera JAMAIS contrôlée et que l’on va voir surgir un tsunami que seul les Etats pourraient bloquer et encore… on va dire atteinte à la liberté .. dans un sens c’est pas faux mais l’IA ne peut pas s’autoreguler c’est impensable tant l’argent et le monopole mènent la baguette.

avatar didloan92 | 

@Seb42

+ 1000 👍

avatar marc_os | 

> Google aurait mis son éthique de côté

Ah bon, Google a ou a eu une éthique ? 😳
Première nouvelle.

avatar cecile_aelita | 

Article super intéressant qui montre bien que même avec des budgets pharaoniques (Google n’étant pas une petite boîte 😅)… l’argent ne fait pas tout … et que leur produit n’est pas encore au point 🙂.
Ça marche aussi chez Apple hein !!

avatar DG33 | 

Google et les TIC…

avatar Bigdidou | 

Ce qui m’étonne, c’est le coup des placards.

Pour avoir eu besoin de placards, ils ont forcément mis autre chose dedans que leur éthique.
Qu’est-ce qu’on va y retrouver ?

avatar Matlouf | 

Les Google Glass ?

avatar pat3 | 

@Bigdidou

Les cadavres de tous les projets avortés ?

CONNEXION UTILISATEUR