Algorithmes et pluralité de l’information à l’ère du Covid-19

Dans un contexte de grande incertitude, comme actuellement avec la pandémie de Covid-19, la demande d’information des citoyen-n-e-s est forte : il s’agit, pour les gouvernements et les médias, de donner du sens à cette réalité en constante évolution. Dans les démocraties occidentales, la libre circulation d’information est assurée par la constitution, garante des principes de liberté de pensée, d’opinion et d’expression. Les choix politiques des citoyen-n-e-s sont basés sur cette pluralité d’information.

Les technologies numériques, et en particulier les réseaux sociaux, ont totalement transformé les conditions d’accès à l’information pour les citoyen-n-e-s. En effet, dans de nombreuses démocraties occidentales, les réseaux sociaux sont devenus au cours des années une source importante, sinon la source principale, d’information.[1] Au niveau individuel, chacun.e est à la fois consommateur.rice.s et producteur.rice.s d’information. En quelques clics, nous pouvons facilement et rapidement mettre en ligne une image, une vidéo, un audio ou un texte.

Face à cette avalanche d’information, un tri doit être fait et automatisé, afin de sélectionner les informations qui sont les plus susceptibles de nous concerner. C’est ici qu’interviennent les algorithmes. Un algorithme est une série d’instructions prédéfinies, qui permet d’automatiser une décision. Ainsi, l’algorithme de Facebook va choisir les informations que nous verrons dans notre flux d’actualités sur Facebook, selon des critères choisis par l’entreprise, et les données collectées à notre sujet. Il en va des même pour les algorithmes des autres réseaux sociaux.

Le fait que les algorithmes tentent en permanence d’adapter les informations à nos intérêts et croyances, conduit à limiter le contenu auquel nous avons accès, et à nous « enfermer » dans des formes de bulles individuelles[2], où ne filtrent que les informations qui renforcent nos convictions préexistantes. En conséquence, nous sommes de moins en moins confrontés à des vues divergentes.

De plus, le concept de chambre d’écho[3] met en lumière le fait qu’un contenu va être amplifié et partagé au sein de communauté d’utilisateur.rice.s qui ont les mêmes croyances. La fameuse étude des chercheurs du Massachusetts Institute of Technology (MIT),[4] a illustré ce phénomène, en démontrant que les principaux responsables de distribution de fausses nouvelles sur Twitter étaient les utlisateur-rice-s, et non pas les programmes informatiques « bots »[5]. En effet, sur les réseaux sociaux, ce ne sont pas les discussions approfondies et raisonnées qui deviennent virale, mais bien plutôt du contenu davantage sensationnaliste, d’opinion, extrême, et facilement digérable.

Ainsi, les réseaux sociaux ne favorisent pas la réflexion ou le débat raisonné. Certains chercheurs vont même jusqu’à affirmer que la circulation de l’information est plus importante que l’information elle-même. La professeure des médias Jodi Dean décrit ce phénomène comme le capitalisme communicatif. [6]  Le message fait simplement partie d’un flux de données en circulation : son contenu particulier n’est pas pertinent, qui l’a envoyé n’a pas d’importance, qui le reçoit n’a pas d’importance, et le fait qu’il faille y répondre n’a pas d’importance. La seule chose qui importe est la circulation d’information. Du point de vue des entreprises comme Facebook, c’est clairement le cas : plus de contenu et plus d’échanges signifient plus de données collectées et plus de temps d’attention disponible.

Dans ce contexte, les réseaux sociaux, ne favorisent ni l’ouverture aux pensées et avis divergents, ni la prise en compte du bien commun. D’une part, les algorithmes tendent à filtrer les informations les plus adaptées et qui confirment notre point de vue, et d’autre part ils favorisent les informations facilement digérables, au prix du débat public et des échanges nécessaires à toute démocratie libérale. Ils ne favorisent donc pas l’émergence de consensus autour du bien commun et des décisions collectives. Dans ce contexte, il est donc urgent que les gouvernements prennent des mesures pour mieux encadrer les algorithmes afin de les rendre plus transparents et plus responsables.

Références:

[1] Voir les récents Eurobaromètre sur l’utilisation des réseaux sociaux: https://ec.europa.eu/digital-single-market/en/news/final-results-eurobarometer-fake-news-and-online-disinformation

[2] Filter Bubble, voir Pariser, Eli. The filter bubble: How the new personalized web is changing what we read and how we think. Penguin, 2011.

[3] Echo chamber, voir Barberá, P., Jost, J. T., Nagler, J., Tucker, J. A., & Bonneau, R. (2015). Tweeting from left to right: Is online political communication more than an echo chamber?. Psychological science, 26(10), 1531-1542.

[4] Voir  MIT Study: On Twitter, false news travels faster than true stories. http://news.mit.edu/2018/study-twitter-false-news-travels-faster-true-stories-0308

[5] En informatique, un bot est un type de programme informatique qui effectue des tâches automatisées, comme par exemple « aimer », « commenter » ou « partager » automatiquement du contenu sur les réseaux sociaux.

[6] Dean, J., 2002. Publicity’s secret: How technoculture capitalizes on democracy. Cornell University Press.