Meta aurait démantelé son équipe dédiée à une « IA responsable »
Les géants de la tech ont beau assurer dès qu'ils le peuvent vouloir prendre leur responsabilité par rapport aux IA génératives, la réalité est bien moins reluisante en coulisse. On sait par exemple que Google s'est séparé de spécialistes du sujet dès 2020 pour accélérer le développement de Bard, tandis que Microsoft a ignoré des avertissements l'alertant sur les potentiels dangers de son nouveau Bing. C'est désormais au tour de Meta de s'illustrer : l'entreprise aurait carrément dissout son équipe « IA Responsable », rapporte The Information.
Meta met régulièrement en avant ses efforts sur le plan de la sécurité et de la transparence de l'IA, la boîte disposant d'une page vantant les « 5 piliers d'une IA responsable ». Une équipe dédiée à ce sujet a été mise sur pied en 2019, ayant par exemple pour but de s'assurer que les modèles de l'entreprise aient été entraînés sur des contenus suffisamment variés pour ne pas avoir de biais sociaux. Elle avait également pour but d'anticiper les problèmes potentiels et de vérifier que la diffusion de l'IA était faite de manière correcte.
On se doutait cependant que les choses étaient compliquées en interne pour ce groupe : un article de Business Insider rapportait récemment que l'équipe avait été divisée par 2 depuis 2021 suite à différentes restructurations. Un employé déclarait alors que ce groupe n'était plus que « l'ombre de lui-même », et que sa mission était désormais de s'assurer que Meta ne transgressait pas de lois en déployant ses technologies. Les personnes interrogées expliquaient que l'équipe n'avait que peu de pouvoir sur les décisions du groupe, en plus de manquer de ressources et de se faire mettre des bâtons dans les roues par certains aspects bureaucratiques.
The Information affirme aujourd'hui que Meta aurait fait tomber le couperet sur cette équipe. La plupart des anciens membres rejoindront la division s'occupant des produits d'IA générative de l'entreprise, tandis que d'autres travailleront sur l'infrastructure d'IA. Un représentant de Meta aurait assuré vouloir « continuer de donner la priorité et d'investir dans un développement responsable et sûr de l'IA ». Selon lui, les personnes réaffectées « continueront à soutenir les efforts transversaux de Meta en matière de développement et d'utilisation responsables ».
La nouvelle tombe alors que Meta met les bouchées doubles sur l'IA depuis l'année dernière, celle-ci publiant par exemple des modèles de langage concurrençant ceux d'OpenAI. Le but est de s'imposer dans le domaine de l'open source, mais aussi d'intégrer de l'IA à ses services. L'entreprise a dans l'idée de déployer des chatbots basés sur des personnalités dans Messenger et WhatsApp. Elle a récemment lancé un générateur d'autocollants apportant son lot de problèmes.
> Une équipe dédiée à ce sujet a été mise sur pied
puis mise à pied ou 6 pieds sous terre. Logique.
https://www.youtube.com/watch?v=t4qrK6FO6b0
;-)
Ou : comment la montagne de sucre réfléchit avec ses pieds...
@vince29,
« puis mise à pied ou 6 pieds sous terre. Logique. »
🪦
Beaucoup trop conservateur comme fin !
6 pieds sous terre, cela demande trop d'effort physique !
Avec leur petits bras tout maigrelet à force de taper du code avec le bout de leur nez — les mains c'est lourd à déplacer — tels des poulets en batterie, ils picorent du code chez Meta !
Le niveau général est très bas, comme les catacombes sous le siège social ! C'est là en général que cela finit … mal !
Donc 6 pieds sous terre, c'est vraiment quand vous avez beaucoup de chance de vous en sortir si bien !
😁
@Félix Cattafesta,
« Meta aurait démantelé son équipe dédiée à une « IA responsable » »
🙃
Meta aurait démantelé son équipe dédiée à une éthique responsable car introuvable !
Et pourtant c'est pas faute d'avoir cherché tout un week-end !
😁
Qui aurait pu en douter....
@fredsoo,
« Qui aurait pu en douter.... »
👍
Seuls de jeunes inconscients écervelés auraient pu tomber dans le panneau de l'IA responsable de Meta !
Et ici, nous sommes sur un forum entre gros cerveaux pleinement conscients de nos insuffisances !
😁
Meta et responsable ? Ces deux mots vont-ils bien ensemble ?
@spockyss
Tu m'ôtes les mots de la bouche...
@spockyss,
« Meta et responsable ? Ces deux mots vont-ils bien ensemble ? »
👍
En effet, c'est un oxymoron !
😁
@Scooby-Doo
En ajoutant un soupçon d’IR entre deux, ça colle parfaitement : Meta IR responsable.
Il serait intéressant d’entendre à ce sujet Yann Le Cun, l’un des pères de l’IA aujourd’hui chez Meta.
https://media0.giphy.com/media/1fM9ePvlVcqZ2/giphy.gif?cid=5e214886b6b6b...
Y a pas encore assez de regulation autour de l’IA pour avoir des equipes dediees. Ca reviendra.
Meta aurait démantelé son équipe dédiée à une « IA responsable »
Ils ont réaffecté les effectifs dans l’équipe « IA irresponsable » pour être raccord avec leur politique d’entreprise!
En même temps ça veut rien dire...
@madaniso,
« En même temps ça veut rien dire »
🙃
Au contraire cela veut dire beaucoup !
L'équipe en charge de ce type de problèmes n'a pas réussi la conformation / modération du modèle.
En gros et pour faire simple, ils n'ont pas réussi à trouver au moins un modèle d'alignement de l'IA !
Et une IA sans alignement, cela dérape assez rapidement !
Ils doivent être juste incompétents !
👌
@Scooby-Doo
Ou c’est l’essence même d’une IA que de ne pas pouvoir être regulable / responsable / vertueuse etc.
Tres logique, les americains ne sont pas fous. Ils vont pas mettre des contraintes alors que les chinois y vont à fond les ballons sans contrainte.
Y a qu’en Europe ou on va réguler puis apres pleurer qu’il n’y a pas d’acteurs europeens, et ensuite se plaindre qu’il n’y a que des fournisseurs US.
C’est toujours la même chose
@ohmydog
et après il faut gérer les dégâts…
Donc ca sera une IA irresponsable c’est ca ?
@l3chvck,
« Donc ca sera une IA irresponsable c’est ca ? »
Au mieux inefficace, au pire irresponsable, voire même inefficacement irresponsable !
Meta IA, c'est la ouate que je préfère !
😁
Oui.
Elle sera pleine de biais sociaux et autres.
Par exemple, elle sera incapable de te parler de la théorie de la terre plate car elle n'aura pas été entraînée sur un jeu de données qui en parle.
Et aucun éthicien grassement payé ne se sera venu rectifier ce grave biais.
@vince29,
« Elle sera pleine de biais sociaux et autres. Par exemple, elle sera incapable de te parler de la théorie de la terre plate car elle n'aura pas été entraînée sur un jeu de données qui en parle. Et aucun éthicien grassement payé ne se sera venu rectifier ce grave biais. »
👍
C'est pour cela que c'est un doux rêve de vouloir parler d'éthique à propos des intelligences artificielles. Tout simplement parce qu'elles n'ont même pas conscience d'elles-mêmes et de notre environnement !
L'éthique est une discipline morale par essence. C'est particulièrement concret et abstrait en même temps ! Elle repose sur certaines normes sociales acceptées qui peuvent varier d'une société à une autre.
👌
J’ai hâte de voir ce que donnera une l’IA de Meta entraînée sur les data des converstations Whatsapp et autres posts Facebook.
- Meta, dis-moi, quel temps fera-t-il demain?
- Va pleuvoir c mouillé 🌧️ hahaha MDR
- Quelle pourcentage de probabilité ?
- C kompliké, hahaha MDR, ok c bon je te réponds c’est 110% va pleuv grav