Internet nous enferme-t-il dans une bulle ?

Les résultats de recherche ou les contenus qui s’affichent dans le fil d’actualité d’un média social seraient tout sauf neutres et résulteraient d’une personnalisation mise en place à l’insu des internautes.

Développé depuis 2011 par Eli Pariser dans son livre « The Filter Bubble: What the Internet Is Hiding from You », le concept de bulle de filtres repose sur l’idée que les algorithmes, au cœur des moteurs de recherche et des réseaux sociaux, ne trient pas les informations présentes de la même manière pour tout le monde. 

En effet, les algorithmes ont été développés de manière à afficher seulement celles susceptibles de rencontrer les intérêts de l’utilisateur pour leur offrir en permanence des liens, des sites et des publicités, c’est-à-dire des contenus adaptés allant dans le sens de ses choix habituels : c’est la personnalisation algorithmique.

Dans le cas des moteurs de recherche, cette dernière se base sur la « prévision ». À partir des comportements passés, des habitudes de navigation, ou encore des données enregistrées par les cookies, les algorithmes dits «prédictifs» fournissent un ensemble de contenu qui va dans le sens de la personnalité de l’internaute. C’est grâce à cette méthode que Netflix propose des recommandations ou Amazon connait par avance le prochain achat.

D’après les analyses de Pariser, « nous pensons tous que quand nous googlons un même mot, tout le monde a les mêmes résultats […]. Avec la recherche personnalisée, vous obtenez en réalité le résultat que l’algorithme de Google pense être le plus adapté à vous en particulier – mais quelqu’un d’autre verra apparaître d’autres résultats. » 

Par exemple, pour le mot « pirate », alors que pour une personne n°1 Google affichera des résultats basés sur la piraterie en mer et des sites de voyages, pour une personne n°2, il affichera des résultats basés sur la piraterie informatique. 

  • Quelles en sont les conséquences ?

A première vue, ce phénomène semble être vertueux car les contenus qui ne plaisent ou n’intéressent pas l’utilisateur ne lui sont pas imposés. Toutefois, celui-ci est d’autant plus vicieux qu’il est invisible : ces systèmes de filtrage de l’information amènent avec eux plusieurs questions inquiétantes. 

En n’ayant accès uniquement aux informations conformes à leurs propres opinions, les internautes risquent de se confronter à un isolement idéologique et de se polariser en pensant que le reste du monde partage les mêmes points de vue qu’eux.

Autrement dit, l’effacement dans les résultats de recherche de toutes les idées, théories, documents, articles qui pourraient perturber leur vision du monde, risque de réduire leur champ informationnel en leur renvoyant l’extension de leurs propres idées. La sérendipité est donc en jeu.

Dominique Cardon appelle ceci « une société des comportements » : tout en prétendant donner aux individus « les moyens de se gouverner eux-mêmes », résume-t-il, l’effet miroir des algorithmes les réduit à leur seul « conformisme », « les assignant à la reproduction automatique de la société et d’eux-mêmes ». Ce « comportementalisme radical » les empêche de se déployer, de se diversifier, de s’ouvrir à d’autres univers, de se confronter aux positions communes ou contradictoires.

  • Bulle informationnelle : à qui la faute ?

Il est facile d’accuser les grandes entreprises et leurs algorithmes : Google, Facebook ou autre n’informent pas, ou pas assez, leurs utilisateurs sur la manière dont ce filtrage est effectué. Par ailleurs, ils ne donnent pas directement la possibilité de modifier ou de le désactiver. 

Néanmoins, les utilisateurs sont tout aussi responsables du contenu qu’ils reçoivent. Par exemple, sur le fil d’actualité d’un réseau social, les liens de publications les moins cliqués prouvent à l’avance un manque d’intérêt pour les rapports qui ne sont pas conformes à leurs opinions et sont donc de moins en moins montrés. L’algorithme poursuit et anticipe en présentant les contenus qui les intéresseront réellement : l’internaute lui-même provoquerait ainsi cet enfermement algorithmique.

  • Comment éviter l’effet de bulle ?

Certes la bulle est une réalité mais elle est très loin du scénario catastrophique où les internautes seraient des pions aveuglés. Ainsi, plusieurs initiatives ont été pensées pour aider ces derniers à atténuer au maximum les effets de la personnalisation.

Tout d’abord, la première solution concerne l’éducation. L’enseignement aux médias devrait se faire dès les plus jeunes âges pour permettre une meilleure compréhension et appréhension des outils numériques. 

De plus, il existe certains moteurs de recherche concurrents à Google comme Qwant qui suppriment la fonction de personnalisation. Idem en ce qui concerne les add-ons, qui aident à empêcher le suivi des historiques. 

Enfin, l’utilisateur lui-même doit être assez vigilant et curieux. Il doit remettre en question son propre comportement de navigation : sur les réseaux sociaux, pour ne pas être restreint à certains contenus. Il doit opter pour la diversité des pages auxquelles il s’abonne, il like, et il doit éviter de cacher les publications qui ne lui plaisent pas. Il faut qu’il sorte de sa zone de confort.

Pour Dominique Cardon « les citoyens pourraient guider les rêves des ordinateurs afin qu’ils ne deviennent pas nos cauchemars de demain » : l’objectif d’Eli Pariser n’était pas de dénoncer une situation existante mais de prévenir des conséquences désastreuses des bulles de filtres si aucune limite n’est fixée.

En réalité, qui décide de notre vie ? C’est l’une des questions primordiales posées par ces calculs omniprésents et neutres, en apparence seulement.

Sumeyye Asan

M2 Cyberjustice – Promotion 2020/2021

https://www.bilan.ch/opinions/david-delmi/comment-les-reseaux-sociaux-nous-enferment-dans-des-bulles-de-filtres

https://www.france24.com/fr/europe/20201019-sortez-de-votre-bulle

Image Credit : https://medium.com/@18639764/wait-im-in-a-filter-bubble-3e5be1325d1

Laisser un commentaire