Facebook manipule ses utilisateurs pour une étude : scientifique ou inquiétant ?

Mickaël Bazoge |

Tout ne serait qu’une histoire de « mauvaise communication » , comme l’a avoué Sheryl Sandberg, la directrice des opérations de Facebook à la presse indienne. Et pourtant, l’affaire des flux manipulés dans le cadre d’une étude scientifique risque bien de se transformer en véritable cauchemar, ternissant un peu plus l’image du réseau social.

En janvier 2012, Facebook a mené une expérimentation pour le compte de chercheurs des universités Cornell (Californie) et de San Francisco. Le réseau social a modifié l’affichage des statuts chez 689 003 utilisateurs choisis au hasard, sans rien leur révéler. Pendant une semaine, leurs flux d’actualité ont affiché des messages soit positifs, soit négatifs. Les scientifiques ont ensuite analysé les messages de ces cobayes afin d’en connaître la teneur émotionnelle.

L’objectif de l’étude était de savoir si l’humeur des utilisateurs de Facebook pouvait être influencée par les émotions exprimées de leurs correspondants. Les enseignements de cette enquête à grande échelle prouvent que oui… dans une certaine mesure : les sentiments sont bien « contagieux » par écran interposé (les utilisateurs bombardés de statuts négatifs postent ensuite des messages plutôt négatifs, et c’est l’inverse pour ceux qui ont reçu des statuts positifs). L’étude reste néanmoins contestée pour sa qualité scientifique, ne serait-ce que sur l’interprétation faite du terme « émotion » par les chercheurs, ou encore par l’environnement de l’utilisateur qui ne se limite pas au seul Facebook et dont l’influence est impossible à quantifier.

Mais au-delà des conclusions de cette enquête, ce sont surtout les conditions de sa réalisation qui font polémique, et le fait que Facebook n’ait prévenu personne de cette étude – et surtout pas les cobayes. La manipulation des flux d’actualités est avérée, ce qui pose de sérieuses questions sur l’influence que peut exercer le réseau social (avec en toile de fond, des accusations sourdes de « Big Brother »). Si Facebook peut disposer à sa guise des informations publiées par ses utilisateurs et organiser les flux d’activités suivant le bon vouloir de ses algorithmes, ce ne sont sans doute pas des raisons pour manipuler ainsi ses abonnés… même si l’on parle ici d’une étude scientifique sans but publicitaire.

Facebook s’est justifié en expliquant réaliser des recherches pour « améliorer » ses services en essayant de « comprendre » la réponse des utilisateurs à des contenus positifs ou négatifs. Adam D. I. Kramer, co-auteur de l’étude, a également minimisé la portée de l’étude en précisant que seuls 0,04% des utilisateurs du réseau social ont été ainsi « surveillés » tout en assurant qu’aucun statut ne leur avait été caché. Depuis 2012, Facebook a révisé ses pratiques en matière de recherches.

Ces explications n’ont pas suffi à calmer les inquiétudes. L’Information Commissioner’s Office britannique, équivalent de la Cnil française, va ainsi ouvrir une enquête et juger si Facebook a enfreint la législation sur le respect des données privées. L’excuse de l’« erreur de communication » avancée par Sheryl Sandberg risque de ne pas suffire.

Tags
avatar Powerdom | 

J'ai pas de compte FB. Mais si je comprends bien ils peuvent modifier a loisir le fil d'actualité qui s'affiche ?

avatar stiflou | 

C'est ça, c'est le principe de leurs algorithmes (presque nécessaires) de tri, pour que l'utilisateur ne soit pas submergés par les posts de leurs « amis ». C'est là qu'à eu lieu la manipulation, et pas dans la modification des posts (je profite que ce soit le premier commentaire pour que tout le monde le voit), voire mon post.

avatar Madalvée | 

Cette révélation présente sur de nombreux médias depuis plusieurs jours n'inquiètera que les utilisateurs naïfs de Facebook.
Personnellement, je l'utilise pour avoir des pub réellement ciblées et adaptées et force est de constater que le résultat n'est pas là. Proposer des sites de rencontre à un célibataire, c'est méconnaitre qu'il veut peut-être le rester, proposer des appareils de stomie à un obèse c'est ne pas connaître sa situation de santé. Bref, avant que je m'inquiète, il y a de la marge.

avatar joneskind | 

@Madalvée

Exagère pas non plus. Facebook sert avant tout à communiquer. Si j'envoie un message à quelqu'un je ne peux pas m'attendre une seule seconde à ce que son contenu soit modifié.

Par ailleurs, que les mass-médias classiques balancent des conneries à la télé c'est une chose, mais que quelqu'un ait le pouvoir de parler en mon nom pour en balancer c'en est une autre.

Sans tomber dans la paranoïa de base, on a un média qui a désormais des moyens de propagande inégalés. D'autant plus que les fameux messages trafiqués n'étaient pas visibles par l'utilisateur.

Je trouve ça vraiment super flippant.

avatar nono68200 | 

Un peu comme la télévision l'était en son temps non ?...
On a toujours eu un média avec des gros moyens de propagandes, avant la télévision, c'était les affiches, la radio, etc.
Donc rien de bien nouveau au fond.

avatar joneskind | 

@nono68200

Ce qui est nouveau c'est que ce n'est plus l'histoire d'un inconnu à la télé mais l'histoire d'un de tes proches. Et donc l'impact est très différent.

Après, le principe de la propagande, l'ORTF tout ça c'est pas nouveau oui. Et c'est bien pour ça qu'il faut prendre cette nouvelle au sérieux.

avatar stiflou | 

Facebook n'a pas modifié les posts, mais leur affichage (voire mon post, non modifié par Facebook non plus). Même si ça reste grave et malsain, ça l'est heureusement un peu moins ... (même si ça empire toujours, je te l'accorde, ne compte pas sur moi pour défendre cette mer** systémique !)

avatar joneskind | 

@stiflou

Ok merci pour les précisions. J'étais persuadé que les posts eux-mêmes avaient été manipulés.

avatar Yohmi | 

Branquignols…

avatar raf30 | 

Est-ce que c'est Facebook qui a communiqué après coup sur cette étude ou cela a été découvert par un tiers ? Si FB n'a rien dit sous prétexte que c'était une possibilité inscrite dans les CGU, alors oui, je pense que FB va perdre la confiance de certains de ses utilisateurs...

avatar FreeDa | 

@raf30 :
Les CGU de FB, de toutes façons, ça peut de résumer en une phrase : "on fait ce qu'on veut de votre compte et de vos données, et si ça vous plait pas vous pouvez aller voir ailleurs". Voila :-)

avatar nono68200 | 

On voit celui qui n'a jamais lu les CGU de FB... *Sifflote*

avatar stiflou | 

En les ayant lues, pourrais-tu nous donner une version différente mais vraie s'il te plaît ?

avatar nono68200 | 

Moi j'ai lu que si je supprime une donnée, celle ci n'est plus accessible, similairement au vidage de la corbeille de mon ordinateur. Donc en quoi Facebook a accès comme il veut à tes données ? Tu n'as qu'à publier ce que tu désires, et si tu ne le désire plus, tu supprimes la donnée.
Ce n'est pas pire que de créer un site web quoi. Si tu créer ton site web, y insère une photo, Google la référence dans ses images, mais si tu supprimes ta photo du site web, Google l'enlève.
Donc soit tu es contre l'internet en général, et je me demande pourquoi tu l'utilises vu que tu es sur ce forum, qui est recensé sur Google avec ton commentaire personnel et donc tes idées, soit tu n'es que contre Facebook, et dans ce cas, il ne faut pas s'en prendre qu'à eux.

avatar stiflou | 

Effectivement je l'ai lu aussi, tu as d'ailleurs repris l'image de la corbeille. Mais je ne trouve pas d'incohérence ni de faux dans le commentaire de FreeDa. Facebook fait bien ce qu'il veut d'un compte utilisateur, et le dit clairement (je ne cite pas les CGU, pour inciter tout le monde à les lire), libre à chacun de le modifier, mais pour ce qui concerne le compte en lui même (soit les données hébergées par Facebook, au gré de l'utilisateur), Facebook en dispose totalement.
Notre débat revient surtout à de la sémantique, mais je ne pense pas faire être dans le faux ou incohérent en disant cela. Certes, on choisit les données qu'on laisse hébergée — et faut pas être très futé, ou bien ignorant, pour le faire plus que de raison — et on peut les supprimer comme on veut (du moins, en théorie, car l'ampleur du partage de donnée nous échappe souvent, et entre ce que les entreprises disent et ce qu'elles font ... oui, je pourrais enchaîner avec la politique, c'est tellement lié ...), mais ces données hébergées ne nous appartiennent souvent plus, légalement dans le cas de Facebook, et dans les faits pour d'autres cas.
Je ne suis pas du tout contre Internet, au contraire, mais Internet n'est pas Facebook, Internet n'est pas Google, c'est bien plus que ça, et bien mieux que ça. Je trouve surtout que la manière dont marche les choses (comme c'est le cas pour nos pseudo-démocratie) n'est pas la bonne, ou peut être améliorée, parce que tout n'est pas noir non plus, et encore heureux (mais bon, en même temps, imposé tout de suite un truc carrément mauvais, c'est dur, mieux vaux y aller par étape ... Ah bah tiens, je retombe sur la politique ^^)

avatar patrick86 | 

"Internet n'est pas Facebook, Internet n'est pas Google, c'est bien plus que ça, et bien mieux que ça."

Exactement. Facebook et Google ne sont que des machines connectées au réseau Internet — bien que l'importance qu'ils prennent peut engendrer des accords particuliers avec les opérateurs.

--

C'est intéressant de lire les "Principes de Facebook" https://www.facebook.com/principles.php
notamment "Liberté de partager et de communiquer : Chacun devrait pouvoir être libre de partager les informations qu’il souhaite, sous la forme de son choix, avec qui il le souhaite – une autre personne, une entreprise ou un service – tant qu’ils acceptent tous deux cette connexion."

et

"Propriété et contrôle de l’information
Chacun doit rester propriétaire de son information. Chacun doit rester libre de la partager avec qui il le souhaite et en rester maître"

Ma réponse à ça est : utilisons Internet pour publier nos informations et contenus publiques sur nos sites web, hébergés chez nous.
Internet a été créé pour permettre cela, pas pour y faire du Minitel tout bleu.

Non seulement on garde une meilleure maitrise de ses données (je PEUX décider de ne plus partager tel fichier), mais on évite aussi, et ce n'est pas négligeable, la centralisation de quantités faramineuses de données de tout un tas de gens, qui sont alors beaucoup plus difficiles à utiliser à des faims de profilage, manipulation (publicitaire, sociale ou politique), voire espionnage.

--

Facebook est l'outil de collecte massive de données le plus puissant qui soit, le rêve de tous services de Renseignements Généraux. Il tient cette puissance par le simple fait que les gens remplissent eux-mêmes leurs propres profils, complètes ceux des autres utilisateurs et renseignent leurs liens sociaux (familiaux, amicaux, professionnels, etc.).

avatar iRobot 5S | 

Selon d'autres sources se serais que les utilisateurs britanniques qui auraient été visés.

avatar Istrydhil (non vérifié) | 

Je n'ai pas de compte Facebook et j'en suis ravi.
C'est une vraie mer.. ce réseau social (comme tous les autres d'ailleurs fonctionnant sur le même principe).

avatar BS0D | 

Et oui, ça a beau en choquer certains, quand on figure dans la base de donnée mondiale des plus grands et plus riches escrocs, on devient un cobaye.

avatar FreeDa | 

Au delà de la polémique, c'est totalement idiot cette étude... Si pendant une semaine je ne lis que des trucs négatifs, je ne risque pas d'être d'humeur super joyeuse.... Pas besoin de faire une étude sur 700000 personnes pour en arriver à cette conclusion...

avatar Philactere | 

@FreeDa :
J'espère que pendant une semaine tu lis également d'autres choses que des statuts Facebook... Et si en effet c'est ton seul lien avec le monde je veux bien te croire que tu sois d'humeur morose...

C'est en ça que cette étude peut être discutable, il n'y a pas que Facebook et les statuts affichés dans la vie qui influent sur l'humeur. Sauf si ta vie sociale se résume aux réseaux du même nom...

avatar joneskind | 

@Philactere

Ce qui me fait dire que le but de "l'étude" n'a jamais été d'observer l'humeur des utilisateurs mais de prouver qu'il était possible de les manipuler. C'est clairement un outil politique qui se met en place.

avatar syphocle | 

C'est regrettable. Cela aurait pu être une étude très intéressante.

avatar paddy57 | 

Bof... facebook, google, dans le même sac, avec les crottes du chien.

avatar vache folle | 

Tous les utilisateurs de FB, enfin, ceux qui ont 3 neurones, savent pertinemment se qu'il faut publier ou non.
Perso, je trouve qu'il remplace avantageusement les emails dans le cas d'organisation d'événements, par exemple.

avatar joneskind | 

@vache folle

Je sais pas si t'as bien lu l'article avant de monter au créneau pour défendre Facebook (j'avoue aussi que c'est super pratique pour organiser des évènements par ailleurs)

Facebook a régulièrement modifié les statuts de près d'un million d'utilisateurs à leur insu !

En gros, Facebook aurait écrit à ta place - sans que tu le saches - des trucs tristes ou des trucs joyeux...

Maintenant imagine qu'au lieu d'écrire "coucou les gens je suis super content aujourd'hui" Facebook ait écrit "des preuves que Paul Bismuth n'est pas celui qu'il prétend" ou "encore une vieille dame victime d'une agression" et ça prend tout de suite une autre ampleur.

L'enjeu de ce fait divers est considérable.

avatar stiflou | 

En fait, ce que tu dis est faux, mais c'est la faute de l'article qui est mal écrit/renseigné (voire mon post suivant)

avatar Stardustxxx | 

Facebook n'a pas modifé les statuts. Facebook utilise un algorithme pour décider ce qui est affiché sur ton news feed, tu ne vois pas toutes les modifications de statuts et les posts de tout le monde. Partant de la, ils ont modifié l'algo d'affichage, ils ont "choisis" les status. Certains se sont vu présenté des statuts plus déprimant et d'autre plus joyeux.
Mais si tu allais sur chaque page de tes contacts, tu trouveras tout ce qu'ils ont posté sur leur mur. Rien n'a été modifié, et rien n'est caché en fait.

avatar Mme Michu | 

Certaines personnes affirment "n'avoir rien à cacher"
Nous sommes ici aux prémices du cauchemar qui se profile.
Quel type de message faut-il privilégier pour faire élire tel partie au pouvoir.
Bien sur le plus sage serait d'ajuster la manipulation au plus près des fantasmes et angoisses de chacun, dans une "communication personnalisé". Chaque message deviendrait une création unique conçue pour un effet maximum.

avatar stiflou | 

Ça fait longtemps qu'on vous dit que Facebook, c'est mal ...

@tous
L'article n'est pas très bien écrit (même si quand on en sait un peu plus, on peut bien le comprendre), car FACEBOOK N'A PAS MODIFIÉ LE CONTENU DES POSTS de ses utilisateurs/cobayes. L'étude ne consistait pas en cela mais en une MANIPULATION DU FLUX D'ACTUALITÉ des cobayes, c'est-à-dire un filtrage des actualités affichées en gros sur la "page d'accueil", pour laisser transparaître une majorité de posts joyeux ou tristes . C'est cela qu'il faut comprendre par « modifier l'affichage des statuts ».
En effet, les « amis » (que j'aime, ironiquement, cet usage) des utilisateurs « produisent » trop de statuts pour tous les afficher lisiblement et ergonomiquement sur la page d'accueil (New Feed), Facebook emploie donc des algorithmes pour filtrer le tout et afficher les posts que l'entreprise juge/calcule comme étant les plus pertinents, susceptibles de nous intéresser. C'est dans ces algorithmes qu'est la grande faille/arnaque/manipulation du système, car c'est le système qui va guider son utilisateur comme il l'entend. D'ailleurs, le problème est le même avec Google ! À force de mieux en mieux nous connaître/espionner, le moteur de recherche va ajuster ces algorithmes en fonction de l'utilisateur, et les résultats d'une recherche dépendrons de celui-ci. Cela peut être utile, certes, mais cela nous fait passer à côté de beaucoup de choses, comme par exemple enfermer notre réflexion car on ne verra alors plus de choses avec lesquels nous sommes en accord, les dissidentes ayant été jugées impertinentes, et on peut encore élargir le débat ...
Bref, vive Facebook, vive Google, vive le système, vive le QWERTY pendant qu'on y est !
Source : http://www.pnas.org/content/111/24/8788.full.pdf (il me semble que c'est un document officiel)

avatar Orus | 

Toi si tu n'es pas ici sur ordre de Facebook, cela y ressemble.

avatar stiflou | 

Alors là, à part dire que tu n'es qu'un troll, ce que je ne ferais pas parce que j'aimerai au moins comprendre ce qu'il en est, je ne vois pas vraiment quoi répondre, si ce n'est que je ne vois pas, mais alors pas ce qui te permets d'écrire une chose pareille ! Je passe mon quotidien à les pourrir et à ouvrir les yeux de mon entourage sur la réalité de cette entreprise. Cependant, même si je les critique, je me refuse à mentir ou laisser passer des informations erronées.
Qu'y a-t-il de mal (car pour moi (tu es la plus belle, oh tu me donnes des ailes ...), défendre un truc pareil, c'est un peu ça) à expliquer, de manière neutre, le fonctionnement d'une entreprise, pour ensuite, de manière critique et ironique, en pointer les vices ? Je parle d'arnaque, de manipulation, d'enfermement de la réflexion, et tu me vois sous les ordres de Facebook !? Mais lis mes autres posts !
Non mais même en faisant des efforts, je ne vois vraiment pas comment on peut écrire une chose pareille, du coup, permets-moi de conclure : TU N'ES QU'UN TROLL.

avatar patrick86 | 

"permets-moi de conclure : TU N'ES QU'UN TROLL."

Tu peux faire cette conclusion sans grand risque d'être dans l'erreur. Les commentaires d'Orus sont la plus part du temps totalement dépourvus d'arguments et de réflexion sur les choses.

avatar joneskind | 

@Orus

Toi t'as surtout RIEN lu de ses commentaires à part les GROSSES LETTRES... Mais ça t'empêche pas de la ramener.

avatar Orus | 

Tout le monde cite Google, mais c'est bien Facebook le plus dangereux de tous.
Cette expérience "scientifique" ressemble fortement à ce qu'ont déjà expérimentées certaines agences comme la CIA.
Le plus amusant c'est que la plupart des gens ne voient pas le danger ou font semblant de rien voir, en nous racontant de belles fables digne d'un beau pays enchantés.

avatar joneskind | 

@Orus

Google a autant de pouvoir sinon plus que Facebook pour manipuler les données.

Google connait tout de tes gouts, de tes recherches, et pour peu que tu discutes politique par mail avec un compte gmail, de tes positions politiques.

Donc Google a tout pouvoir d'orienter les résultats de recherche dans le sens qu'elle désire. Et si l'appareil d'état décide de pousser les résultats du Figaro plutôt que du Monde, il suffit de signer un chèque.

avatar pierrus | 

Je ne vois pas trop le problème.

avatar manuinbangkok | 

Monstrueux.

Honteux.

Scandaleux.

C'est BIG BROTHER puissance 1000.

avatar JoTaPé | 

Pour les curieux, article "Experimental evidence of massive-scale emotional contagion through social networks" de PNAS en PDF téléchargeable: chercher "8788.full.pdf" sur Google.com (anglais).
note: on lit pas mal de commentaires sur Facebook, mais en haut de cette page : "Facebook likes= 0", bien, mais "Tweeter=30". Twitter ou Facebook ou n'importe quel autre soit-disant "réseau social", c'est PAREIL ! et quand on croise les data de chacun de ces réseaux, ça devient ENORME !

avatar stiflou | 

Je t'ai devancé ^^
Pour ceux qui veulent regardez mon post, le lien est dedans.

avatar Stardustxxx | 

"Si Facebook peut disposer à sa guise des informations publiées par ses utilisateurs et organiser les flux d’activités suivant le bon vouloir de ses algorithmes, ce ne sont sans doute pas des raisons pour manipuler ainsi ses abonnés… même si l’on parle ici d’une étude scientifique sans but publicitaire."

Le fait même d'écrire l'algo est de la manipulation des abonnés. Tu as forcement un parti pris, tu appliques un code moral pour décider de ce qui est un algo équilibré.

L'experimentation date de 2012, apparement personne n'a rien vu... Il faut attendre les résultats pour le savoir...

Les données scientifiques sont intéressantes, ca permet justement d'ameliorer les algorithmes. Si nous connaissons mieux la psychologie humaine de groupe, ca ne peut-etre qu'une bonne chose.

Mais cela n'empeche pas non plus qu'il ne faut pas être vigilant contre les abus, mais de telle experimentation si elles sont bien encadrée sont très utiles.

avatar JoTaPé | 

"Si nous connaissons mieux la psychologie humaine de groupe, ca ne peut-etre qu'une bonne chose."
Les rudiments de la dite psychologie sont connus ou, tout du moins, utilisés depuis la nuit des temps. L'une des dernières utilisations massive en a peut-être été celle faite par Hitler, Goebbels et compagnie de bien triste mémoire. Ça fait quand même réfléchir !

avatar Stardustxxx | 

Comme tu le dit les rudiments sont connus. Il s'agit d'aller plus loin dans la compréhension. Nous avons encore plein de chose a comprendre.

Car si tu veux combattre certaines choses, tu dois les comprendre avant. Donc si on veut eviter un nouveau Goebbels, il est important de bien de connaître la psychologie humaine.

avatar JoTaPé | 

La chose vue par The Voice of Russia:

Cependant, La Voix de la Russie (en français), très modérée, ne dit pas exactement la même chose:

et donc, les infos, "ça dépend" et côté manipulation, c'est pas mal non plus de ce côté là ... avec ou sans Facebook.

avatar Moonwalker | 

Facebook, boîte à cons.

avatar Istrydhil (non vérifié) | 

@stiflou :
'Facebook n'a pas modifié les posts, mais leur affichage (voire mon post, non modifié par Facebook non plus). Même si ça reste grave et malsain, ça l'est heureusement un peu moins ...

Ce n'est pas parce que cela ne se voit que c'est moins grave. Au contraire, cela reste TRÈS grave, surtout lorsque cela se passe à l'insu des utilisateurs.

avatar Stardustxxx | 

Qui te dit que l'algorithme actuel est mieux que celui qui a été testé.
Je suis sur que l'algorithme est au fur et a mesure changé, amélioré, modifié, ...
Donc il a changé plusieurs fois au cours de Facebook.
Le contenu qui t'est proposé est deja filtré par Facebook sur certains critères arbitraires.

Les algo de recherche de google, de bing qui changent a ton insu c'est grave ? Et ca arrive souvent.

Mais par contre Facebook devrait avoir un settings pour dire si on veut participer a ce genre d'experimentation. Et Facebook devrait prendre un nombre aleatoire de personne dans ce groupe pour faire ce genre d'experimentation.

avatar stiflou | 

Je n'ai pas dit que ce n'était pas très grave, mais il est clair pour moi que faire un truc pareil, c'est-à-dire la modification de son algorithme et l'observation de la réponse utilisateur dans le but de « l'améliorer », ce que l'entreprise fait d'ailleurs tous les jours, est clairement moins grave que de modifier les posts des utilisateur (qui serait alors pour toi TRÈS TRÈS grave si j'ai bien compris ^^). D'ailleurs, je n'ai absolument pas dit que c'était parce que c'était invisible que c'était moins grave

D'autre part, comme on te la rappelé, moi le second dans ce premier paragraphe, il faut savoir que Facebook et autres Google, et même Apple dans son domaine, procède tout le temps à des manœuvres de ce genre, qu'on pourrait d'ailleurs appeler une étude de marché, qui peut passer par « on modifie et on observe ». Vois-tu, si Facebook avait décidé de changer son algorithme pour n'afficher que des message positif, jugeant que ce serait mieux pour l'utilisateur, quel aurait été le problème ? Ceux qui ne serait pas content, on pourrait simplement leur répondre : « allez vous faire voir (postez un selfie ^^), on fait ce qu'on veut de notre algorithme, parce qu'on trouve que c'est mieux (ce qu'ils font tous), et si vous êtes pas content, allez chercher mieux ailleurs ! » ; au passage, si ça se trouve, il ont déjà modifié leur algorithme dans ce sens et tu ne t'en es pas rendu compte.
Cependant, dans cette histoire, ils ont modifié l'algorithme dans deux sens à la fois ... Et alors ? Cela reste la même chose.

Le seul vrai tort (EDIT : j'ai eu tort, Facebook a plus de torts, notamment sur l'aspect émotionnel des études, cf. les posts de joneskind) de la part de Facebook dans cette histoire, c'est que leur étude n'est pas resté interne mais a pris une tournure scientifique, et donc a quitté le temple de données que les utilisateurs avaient jugés bon garant de leur biens. Sur les closes de Facebook, c'est : « vous nous donnez vos données, et nous, on bosse avec pour “améliorer” nos services », pas « on publie vos données, ou nos études liées (ce qui y reviendrait en quelque sorte) ». Donc, sur cette affaire, c'est grave, mais pas tant que l'opinion, ignorant des mécanisme des entreprise et de Facebook, veut nous le faire croire. Il aurait suffit que Facebook dise : « Attention, on va modifier de manière imperceptible votre algorithme, comme on le fait d'habitude, mais cette fois, on publiera les résultats scientifique, parce qu'il y en a d'autres que ça intéresse » et ça serait passé comme une lettre à la poste, à raison.

Je crois que tu ne te rends pas compte d'à quel point des choses sont faites à l'insu de l'utilisateur, parfois pour son bien d'ailleurs (dans le cas de Facebook, c'est plus osé de dire ça, celui-ci ne contribuant pas vraiment au bien).
Mais, selon moi, le plus grand tort concernant Facebook, c'est que des utilisateur lui fasse confiance ! Après on pourrait partir dans une question d'éducation ou d'étude de comportements systémiques pour l'expliquer, mais je serais hors-sujet, et j'ai pas le temps.

Bref, pour résumer, moi aussi, après une lecture à chaud, je me disais que c'était scandaleux ce que Facebook était capable (au sens de oser, on le sais tous qu'il le peuvent) de faire. Puis en réfléchissant (attention, cette étape est IMPORTANTE !), en me renseignant plus sur les mécanismes en jeu, je me suis rendu compte que c'était bien moins démoniaque que ce que j'avais ressenti au départ – la faute est aussi un peu au média, qui cherchent à nous échauder, mais bon, c'est une autre histoire. C'est comme si tu lis un titre d'article sur « un tremblement de terre de magnitude 9 frappe la Chine », tu t'imagines des millions de morts etc... pour finalement lire qu'il a eu lieu dans l'Himalaya et que ton nombre de victime estimé est divisé par plus d'un million ; ça reste grave, mais ça l'est moins que s'il avait frappé la côte. Et encore une fois, le plus grand problème dans cette histoire, c'est que des utilisateurs fassent confiance à une entreprise comme Facebook.

EDIT : joneskind me l'a fait remarqué, je n'ai pas réfléchi assez bien, du coup, je présente mes excuses et édite mes posts ^^

avatar joneskind | 

@stiffou

Je comprends très bien ton raisonnement, et j'ai même été à deux doigts de le partager, mais réflexion faite, je ne suis pas tout à fait d'accord. Je m'explique.

Tu considères que ce qu'a fait Facebook n'est pas plus grave que ce qu'elle fait d'habitude. En effet elle a modifié les flux de statuts pour améliorer ses algorithmes, comme d'habitude.

Le problème ici n'est pas la forme, mais le fond. Améliorer des algorithmes pour les rendre plus pertinents par rapport à tes goûts n'a jamais fait intervenir l'affect. Et donc l'information reste totalement neutre de ce strict point de vue. Ce n'est plus du tout le cas quand l'information est ciblée en fonction de ton humeur. On entre là dans le lavage de cerveau. C'en est tout à fait le principe: on te met dans un état émotionnel particulier pour te faire réagir différemment à une information.

Je vais te donner un autre exemple. Imagine Pierre et Marie Curie tripotant leur radium pour essayer d'améliorer leurs connaissance du sujet, comme d'habitude. Un jour ils travaillent sur un réacteur nucléaire, le lendemain ils travaillent sur une bombe atomique. Leur travail n'a pas changé. Les expériences sont rigoureusement les mêmes et le but est toujours d'améliorer leurs connaissances pour contrôler la fission nucléaire.
Pourtant tu détectes très facilement la différence fondamentale qui existe entre les deux cas de figure.

avatar stiflou | 

@joneskind
J'ai approfondi ma réflexion entre temps, notamment par ma réponse à Oomu et ta réponse, et je suis d'accord avec toi, mais j'ai un peu la flemme d'éditer tous mes message ^^'
Je trouve juste que ton exemple, s'il est vrai, est mal choisi, car c'est juste une illustration de l'application d'un truc neutre, alors qu'il est question, selon toi, de briser la neutralité, et ce dans un domaine bien différent (entre l'affectif et le nucléaire, je vois mal le lien possible ^^)

Bon, j'édite, j'édite ...

Pages

CONNEXION UTILISATEUR