Bulle de filtres

Vive les filtres ! Mais choisissons-les.

C’est la nouvelle antienne : Internet nous enferme dans une bulle informationnelle. Parce que nous nous informons de plus en plus via ce que nos « amis » postent sur Facebook, via ce que Facebook sélectionne pour le placer dans notre fil d’actualité, via ce que les gens que nous suivons sur Twitter tweetent ou retweetent etc. Bref, les « gate keepers » traditionnels que sont les médias et autres autorités perdent du terrain en faveur de processus plus horizontaux, qui mêlent le relationnel et l’algorithmique.

Tout cela est indéniable.

Il suffit de considérer l’évolution de Page Rank, l’algorithme du moteur de recherche de Google, pour constater que d’un modèle qui s’alignait sur celui du classement des revues scientifiques (l’article qui arrive en tête du référencement est celui qui est cité par le plus grand nombre d’articles eux-mêmes bien référencés), on est passé à un modèle de plus en personnalisé qui intègre d’autres paramètres comme le lieu géographique depuis lequel est effectuée la recherche, les recherches précédentes etc. D’où la dénonciation d’un Internet qui nous ne ramènerait qu’au même, qu’au proche, qu’à ce que nous connaissons, qu’à ce qu’on nous prête comme goût…

Mais est-ce pour autant un drame ?

D’abord, la déploration d’une époque révolue où l’information était plus sérendipitaire serait à tempérer. Certes, il fut un temps où le Web était moins dirigiste, mais qui le fréquentait ? Beaucoup moins de gens. Et ceux qui le fréquentaient – une avant-garde éclairée faite d’ingénieurs, d’universitaires et de curieux de tout poil – n’avaient sans doute pas besoin de lui pour varier leurs sources d’information. Le reste, dans sa grande majorité, regardait la télé, écoutait de temps en temps la radio et lisait son quotidien local, sans avoir accès à beaucoup d’autres sources d’information. Est-ce que c’était mieux ? Pas sûr. L’Internet d’aujourd’hui, même en voie de personnalisation, offre un éventail de sources inédit dans l’Histoire.

Et puis, est-ce que l’information nous est jamais arrivée d’elle-même ? Sans filtres ? Dans sa pureté originelle et sa magnifique pluralité ? N’y a-t-il pas eu des familles où on a lu Ouest-France – et que Ouest- France – pendant des générations ? D’autres où ce fut le combo France Inter-Télérama ? Le regret d’une information qui nous serait arrivée sans être sélectionnée, triée, transformée est sans doute celui d’une période qui n’a jamais existé.

Et puis il ne faut pas négliger l’immense confort de ces filtres. Parce que nous ne pouvons pas tout voir, et que nous ne voulons pas tout voir. Comme l’explique le sociologue Dominique Cardon, nous serions sans doute étonnés si on nous mettait face à ce que nous lisons vraiment dans un journal.

Et l’information qui nous arrive aujourd’hui subit toute une succession de filtres parmi lesquels il est bien possible qu’Internet et les algorithmes arrivent bien derrière ceux qui sont installés depuis bien longtemps et que les réseaux sociaux n’effacent d’ailleurs pas : socio-économiques, générationnels, culturels…

Néanmoins, il y a une différence essentielle, c’est la nature de ces nouveaux filtres. Ils sont algorithmiques, très souvent secrets, et à but marketing. Que ce soit pour nous garder plus longtemps dans la plateforme ou pour mieux cibler la publicité, ces filtres obéissent à une logique qui est, dans les faits, très économique – et donc politique.

Et ce qu’on peut regretter, c’est que cette dénonciation des filtres et de la sélection de l’information se fasse plus dans une défense philosophique – et presque poétique – d’une période où nous avions tout notre libre-arbitre et nous flânions dans l’immensité de la Babel informationnelle, qu’avec des arguments plus politiques et pragmatiques.

Pour le dire autrement, on pourrait exiger de choisir nos filtres, on pourrait exiger de connaître exactement la nature de ceux qui nous sont imposés et d’avoir la possibilité d’en choisir d’autres. Demander que ce soit exposés les algorithmes, qu’ils soient expliqués, traduits. On pourrait demander à ce qu’ils puissent être adaptés, pourquoi pas personnalisés (au lieu que ce soit, comme aujourd’hui, les algorithmes qui personnalisent). Ne pas personnaliser l’information donc, mais la manière dont elle arrive.

Le problème est moins la quête d’un libre-arbitre impossible que l’identification – et donc un début de maîtrise – de ce qui y fait obstacle.

Xavier de La Porte – Rédacteur en chef de Rue89

Eli Pariser nous met en garde contre « les bulles de filtres » en ligne

Alors que les compagnies internet s’efforcent d’ajuster leurs services à nos goûts personnels (y compris l’actualité et les résultats de recherche), une dangereuse conséquence, involontaire, émerge : nous nous retrouvons piégés dans une « bulle de filtres » et ne nous trouvons pas exposés à l’information qui pourrait remettre en question ou élargir notre perception du monde. Eli Pariser argumente avec force qu’au final cela s’avérera mauvais pour nous et pour la démocratie.

Qui de moi ou de l’algorithme filtre les posts de mes amis Facebook ?

L’algorithme de Facebook sélectionne-t-il, pour notre fil d’actualité, des posts qui nous confortent dans ce que nous pensons déjà ?

C’est ce que plusieurs chercheurs dénoncent depuis quelques années. Ils s’inquiètent de la personnalisation du Web et du rôle de filtre des algorithmes qui, en présentant des contenus toujours similaires à ceux que nous aimons déjà, favorisent une homogénéité nuisible à la vie publique.

Pour désigner le phénomène, l’activiste américain Eli Pariser a créé le terme de « bulle de filtres » (« filter bubble »), après avoir remarqué que « news feed » affichait de moins en moins d’articles postés par ses contacts conservateurs : « Ce qui se passait, c’est que Facebook observait les liens sur lesquels je cliquais, et avait remarqué que je cliquais plus sur les liens de mes amis libéraux que sur les liens de mes amis conservateurs. Et donc, sans me demander mon avis, ils avaient tout simplement supprimé ces derniers. »

Mais une étude, publiée jeudi dans le magazine Science, vient remettre en question cette théorie.

Israel, Gaza, la guerre & les datas

L’Armée de Défense d’Israël et le Hamas se font la guerre depuis des années dans un cycle de violence toujours plus intense. Tandis que la bataille se joue sur le terrain à Gaza et dans le ciel israélien, une autre bataille se joue dans les réseaux sociaux. (Article de Gilad Lotan, vu dans l’épisode 6 « Le Journal du moi ».)

Non, les réseaux sociaux ne nous enferment pas dans une « bulle »

Les réseaux sociaux nous confrontent-ils à la diversité des opinions, ou nous enferment-ils dans une bulle d’amis et de gens qui pensent comme nous ? Alors que les travaux récents ont surtout souligné le second phénomène, une étude de Pablo Barberá, doctorant en science politique à l’université de New York montre le contraire.

La poule de la bulle de filtre et l’oeuf de l’éditorialisation algorithmique

Très vieux débat. Le web nait en 1989, Google en 1998 et Facebook est lancé en 2004. Progressivement, les algorithmes ne se contentent plus de rendre accessible et de hiérarchiser le chaos des pages web mais ils guident de plus en plus nos choix. En 2011, Eli Pariser publie son livre « The Filter Bubble: What the Internet Is Hiding from You » et développe sa théorie de la bulle de filtre et de l’enfermement algorithmique. Le débat est lancé. Il ne fera que se complexifier et s’épaissir sans qu’aucune étude scientifique ne parvienne réellement à trancher le noeud gordien suivant : nous faisons des choix, les algorithmes font des choix, les choix que nous faisons se font dans un cadre algorithmique qui modifie ces choix en retour en en favorisant certains et en en minorant d’autres. Qui est la poule ? Où est l’oeuf ?

« Tu déconnes, Christophe… »

« Tu fais une petite erreur d’analyse », juge tranquillement Christophe Agnus, en s’adressant à Mark Zuckerberg. Je me permets de te retourner le compliment, Christophe. Et d’ajouter que ta « petite erreur » est le fruit d’un constat approximatif et d’une idée reçue.

« Tu déconnes, Mark… »

Le fondateur de Facebook, Mark Zuckerberg, projette de lancer un concept de « journal quotidien personnalisé » triant l’information en fonction du « profil » de chacun. Un danger pour la démocratie, plaide Christophe Agnus, journaliste et consultant spécialiste de la presse numérique.

Older Posts