Les rétrospectives de Facebook font polémique
Facebook propose à ses utilisateurs de visualiser sur une page intitulée «Year in Review» leurs souvenirs marquants de l’année. Mais marquants ne veut pas dire heureux.
Les adeptes de Facebook ont sûrement déjà remarqué le billet «Year in review» qui trône sur leur timeline. Le réseau social de Mark Zuckerberg propose à ses utilisateurs de passer en revue leur année 2014. En un seul clic, un algorithme aligne sur une frise verticale les photos et les statuts les plus populaires disséminés sur leur profil. Au grand dam des usagers les plus infortunés, comme Eric Meyer dont l’expérience malheureuse fait le tour du Web.
Dans son billet de blog intitulé La cruauté malencontreuse des algorithmes, l’écrivain et développeur raconte comment une photo de sa fille de six ans décédée quelques mois plus tôt s’est retrouvée épinglée en haut de son mur. Sous-titrée «Eric, voici à quoi votre année se résume!», l’image présente en arrière-plan des personnages dansants bras en l’air. «Et il n’y avait aucun moyen d’arrêter ça», témoigne t-il.
Tribulations multiples
Le cas d’Eric Meyer n’est pas isolé. Les déconvenues se multiplient depuis l’ouverture du service. «La mienne (frise, ndlr) révèle l’annonce de ma grossesse et un peu plus loin la perte de notre bébé âgé de 23 semaines», témoigne incognito une femme sur le forum Reddit où de nombreux internautes critiquent l’automatisation du service.
L’expérience est «le résultat d’un code informatique qui fonctionne dans la majorité des cas, rappelant aux gens à quel point leur année a été géniale», explique Eric Meyer. «Mais pour ceux d’entre nous qui ont vécu le décès d’un être aimé, ou ont passé un certain temps à l’hôpital, ou ont été frappés par un divorce ou ont perdu leur emploi (…), il se pourrait que nous ne souhaitions pas revenir sur cette année écoulée», insiste-t-il.
Facebook privilégie le bonheur
Tout d’abord, réside la question du choix des photos, statuts qui apparaissent dans la frise. Les contenus sélectionnés par «Year in Review» sont ceux qui ont fait l’objet du plus grand nombre d’interactions – like, partages et/ou commentaires, explique au Washington Post Jonathan Gheller, manager de l’application. L’hypothèse sous-jacente à ce code informatique se résume à ce qu’un contenu largement diffusé est un souvenir marquant et donc heureux. Une bévue de Facebook qui aime privilégier le bonheur sur sa plateforme.
«Les actions sur Facebook tendent à se focaliser sur des interactions sociales positives», avait déjà souligné en 2013 un ingénieur de l’entreprise. Selon Facebook lui-même, ses utilisateurs pressent le bouton “J’aime” 4,5 milliards de fois par jour. «Certains ont demandé un bouton ‘J’aime pas’ parce qu’ils voulaient pouvoir dire ‘ceci n’est pas bien’. Ce n’est pas quelque chose que nous pensons bénéfique pour le monde», a surenchéri le numéro un du site à la mi-décembre 2014.
Facebook ne raffole pas des pensées négatives car non rentables. Le réseau social assisté de deux chercheurs américains ont mené une étude sur la contagion des émotions du 11 au 18 janvier 2012, une étude révélée fin juin 2014. La collecte secrète de données de 700.000 utilisateurs avait d’ailleurs fait grand cas. Facebook avait manipulé leur flux d’actualité pour observer l’influence que la tonalité des messages pouvait avoir sur leur comportement. Conclusion: les humeurs sont bel et bien épidémiques. «Nous nous inquiétions que l’exposition à la négativité de certains pousse les individus à ne plus consulter Facebook», justifie Adam Kramer, celui qui a dirigé une enquête pour Facebook sur la contagion des émotions. La plateforme fait donc tout pour nous rendre benoît.
L’algorithme qui veut comprendre les émotions
Le second problème est que les algorithmes de Facebook réduisent le monde à trois expressions: joie, «neutre» et tristesse. Pour évaluer le niveau de contagion des émotions, Facebook a dû les identifier. Les scientifiques ont utilisé le logiciel Linguistic inquiry and word count (L.I.W.C.) – enquête linguistique et compte des mots, en anglais -, là encore un code informatique censé déceler ponctuations, lexiques et smileys particuliers, ces icônes utilisées pour illustrer nos ressentis. Mais «comprendre une émotion est bien plus complexe que la recherche de simples mots clés», relève The New Yorker. Et la dichotomie manichéenne: heureux/malheureux de suffire pour nous décrire.
Reste qu’un algorithme réalise ce pour quoi il a été programmé. Alors, propose Eric Meyer, la bévue dont il a été victime aurait pu être évitée s’il existait une manière de freiner les notifications de «Year in Review». C’est le dernier point noir: le manque d’empathie des informaticiens qui n’ont pas prévu «le pire des scénarios», relève l’écrivain et développeur. «On peut faire mieux – je suis très reconnaissant que malgré sa peine il ait pris le temps d’écrire ce billet de blog», a reconnu le responsable de l’application, Jonathan Gheller. Eric Meyer suggère à Facebook pour l’année prochaine d’installer une option pour masquer voire refuser les incitations répétées de Facebook. Au cas où.