La liberté d'expression à l'ère des plateformes "sociales"

Tout ce que vous dites pourrait n’être que de la vie publique…
·
Avatar de l’utilisateur
Message(s) : 143
Inscription : 10 Août 2014 08:36

La liberté d'expression à l'ère des plateformes "sociales"

Message par greg » 27 Fév 2018 11:25

Source: https://www.les-crises.fr/cest-lage-de- ... -tufeckci/

Je recopie le contenu ici, le site étant assez souvent hors ligne en ce moment :

Source : Wired, Zeynep Tufeckci, 16-01-2018

Dans la plus grande partie de l’’histoire moderne, la façon la plus simple de bloquer la propagation d’une idée était de l’empêcher d’être disséminée mécaniquement. Fermez le journal, faites pression sur le chef de la radio, installez un censeur officiel à la maison d’édition. Ou, si ça commençait à barder, posez un pistolet chargé sur la tempe du présentateur.

C’est arrivé une fois en Turquie. C’était au printemps 1960, lorsqu’un groupe d’officiers de l’armée venant de prendre le contrôle du gouvernement et des médias nationaux, imposa un black-out d’information pour supprimer la coordination de toute menace contre leur coup d’État. Mais malheureusement pour les conspirateurs, un match de football très attendu entre la Turquie et l’Écosse devait avoir lieu dans la capitale deux semaines après leur prise de contrôle. Des matchs comme celui-ci ont été retransmis en direct sur les ondes de la radio nationale, présentateur commentant le match dans tous les détails. Les gens de toute la Turquie se serraient autour de leurs postes de télévision pour applaudir l’équipe nationale.

L’annulation du match était trop risquée pour la junte, car cela pourrait susciter une protestation. Et si l’annonceur disait quelque chose de politique en direct à la radio ? Une seule remarque pourrait faire basculer le pays dans le chaos. Les policiers ont donc trouvé la solution évidente : ils ont pointé plusieurs armes à feu sur l’annonceur pendant les 2 heures et 45 minutes de la diffusion en direct.

C’était quand même un risque, mais un risque géré. Après tout, il n’y avait qu’un seul présentateur à menacer : un seul goulot d’étranglement pour contrôler les ondes.

Les variantes de cette stratégie générale pour la censure – trouver le bon point d’étranglement, puis serrer – étaient jadis la norme dans le monde entier. C’est parce que, jusqu’à récemment, la radiodiffusion et l’édition étaient des affaires difficiles et coûteuses, leurs infrastructures criblées de goulets d’étranglement et concentrées entre quelques mains.

Mais aujourd’hui ce type de méthode est tout simplement devenu obsolète. Quel gorge serrer quand n’importe qui peut créer un compte Twitter en quelques clics, et que presque n’importe quel événement est enregistré par des membres du public à l’aide de smartphones ? Lorsque des mouvements de protestation ont éclaté à Ferguson, Missouri, en Aout 2014, un seul internaute faisant du Live Streaming nommé Mustafa Hussein a apparemment gagné une audience comparable à celle de CNN pour un temps. Si un criminel de guerre Croato-bosniaque boit du poison dans une cour de justice, tout Twitter le sait en quelques minutes.

Dans l’environnement connecté d’aujourd’hui, où n’importe qui peut diffuser en direct ou envoyer ses pensées sur un réseau social, on pourrait penser que la censure est impossible. Que nous devrions être actuellement dans un âge d’or de la liberté de parole.

Et c’est assurément un âge d’or de la liberté de parole – si on peut croire nos yeux trompeurs. Est-ce que ce que je regarde est réel ? Cela a-t-il réellement été filmé au moment et au lieu indiqués ? Est-ce que cela a été partagé par des trolls d’extrême droite ou une armée de bots russes ? Et même est-ce que cela a pu être généré grâce à une intelligence artificielle ? (Oui, il existe des moyens de créer de fausses vidéos de plus en plus convaincantes).

Ou alors disons que vous êtes celui qui a posté la vidéo. Si c’est le cas, est-ce que des gens la regardent au moins ? Ou s’est-elle perdue dans la marées de posts créés par des centaines de millions de producteurs de contenu ? Est-ce qu’elle est mise en avant par l’algorithme de Facebook ? Est-ce qu’elle est recommandé par YouTube ?

Peut-être que vous êtes chanceux et que vous avez touché le jackpot dans la sphère publique algorithmique d’aujourd’hui : vous avez touché une audience qui soit vous aime soit vous déteste. Est-ce que votre post s’en sort au niveau des likes et des partages ? Ou ratisse-t-il grâce à d’autre formes « d’engagement » : avez-vous reçu des milliers de messages, de mentions, de notifications, et d’e-mails qui vous menacent ou se moquent de vous ? Avez-vous été attaqué par des hackers pour ce que vous avez fait ? Est-ce que des hordes invisibles et en colère ont commandé 100 pizzas pour chez vous ? Est-ce qu’ils ont appelé une équipe du SWAT – des hommes en noirs arrivant, l’arme à la main, au beau milieu du dîner ?

Debout là, les mains autour de la tête, vous vous êtes peut-être senti comme si vous vous confrontiez au pouvoir formidable de l’État en donnant votre avis. Mais vous avez juste énervé 4chan. Ou vous les avez amusés. Dans tout les cas, félicitations ; vous avez trouvé une audience.

C’est en réalité comme ça que l’âge d’or de la liberté de parole fonctionne : au XXIème siècle, la capacité à diffuser ses idées et à toucher une audience n’est plus limitée par le fait de disposer d’accès à des infrastructures de diffusion chères et coûteuses. Elle est maintenant limitée par la capacité à récolter et à distribuer l’attention. Et actuellement, le flux de l’attention mondiale est structuré, à un degré immense et écrasant, par quelques plateformes digitales : Facebook, Google (qui possède YouTube) et, à un degré moindre, Twitter.

Ces entreprises – qui adorent se présenter comme des monuments de la liberté d’expression – ont atteint une étendue incomparable au niveau historique et mondial ; elles en sont venues à dominer la distribution des médias de masse, et elles remplacent de plus en plus la sphère publique elle-même. Mais le cœur de leur business est banal. Ce sont des distributeurs de publicités. Elles vendent la capacité d’atteindre précisément vos orbites à virtuellement tous ceux qui sont prêt à les payer. Elles utilisent la surveillance de masse, que l’on soit en ligne ou pas, pour générer des prédictions de plus en plus exactes et automatiques de quelles publicités nous touchent le plus et de quels contenus sont les plus efficaces pour que nous continuons à cliquer, taper et descendre un fil sans fin.

Avec quoi la sphère publique algorithmique tend à nous nourrir ? En terme de technologie, Facebook et YouTube sont « optimisés pour l’engagement », ce qui veut dire pour leur défenseurs qu’elles nous donnent juste ce que nous voulons. Mais il n’y a rien de naturel et d’inévitable à propos des moyens que YouTube et Facebook utilisent pour capter notre attention. Les méthodes sont maintenant bien connues. Comme Buzzfeed l’a notamment rapporté en novembre 2016, « les fake news sur l’élection qui ont le mieux marché ont créé plus d’engagement sur Facebook au total que leur équivalent provenant de 19 diffuseurs d’actualités de premier plan. »

Les humains sont une espèce sociale, avec peu de défenses contre le monde naturel au-delà de notre capacité à acquérir du savoir et de rester en groupes qui fonctionnent ensemble. Nous sommes particulièrement susceptibles aux lueurs de la la nouveauté, aux messages partisans et aux messages insultants à l’encontre d’ennemis perçus comme tels. Ce type de messages est à notre société ce que le sel, le sucre et le gras sont à notre appétit. Et Facebook ne nous donne que ça – c’est ce que le premier président de l’entreprise Sean Parker appelait « une boucle rétroactive de validation sociale ».

Nous sommes certainement à un âge d’or de la liberté d’expression – si on peut croire nos yeux trompeurs.

Il n’y a en plus pas de label nutritionnel dans cette cafétéria. Pour Facebook, YouTube et Twitter, toute les paroles – que ce soit une nouvelle fracassante, une vidéo d’animaux mignons, un même antisémite ou une pub intelligente pour des rasoirs – ne sont que du « contenu », et chaque post une nouvelle part du gâteau sur le tapis roulant. Un avis personnel est présenté presque de la même manière qu’une pub, qu’un article du New York Times ou qu’un faux journal créé en un après-midi.

De plus, tout ce discours en ligne n’est plus public au sens traditionnel du terme. Bien sûr, Facebook et Twitter se sentent parfois comme des endroits où des masses de gens vivent des choses ensemble en même temps. Mais en réalité, les postes sont ciblés et délivrés en privé, écran par écran. La sphère publique fantôme d’aujourd’hui a été fragmentée et submergée dans des milliards de capillaires individuels. Oui, il est devenu plus facile pour tout le monde d’y participer, mais il est simultanément devenu un ensemble de conversations privées qui se déroulent dans votre dos. Derrière le dos de tout le monde.

Sans vouloir être trop pointilleux, tout cela invalide une grande partie de ce que nous pensons de la liberté d’expression – sur les plans conceptuel, juridique et éthique.

Aujourd’hui, les formes de censure les plus efficaces consistent à s’immiscer avec assurance et prudence, et non à museler le discours lui-même. Par conséquent, elles ne ressemblent pas du tout aux anciennes formes de censure.Elles ressemblent à des campagnes de harcèlement agressif ou organisé, qui exploitent la dynamique d’une fervente indignation pour faire peser un coût intolérable et disproportionné sur le fait de s’exprimer. Elles ressemblent à des épidémies de désinformation, censées miner la crédibilité des sources d’information fiables. Elles ressemblent à des campagnes de pêche à la diversion et à la confusion, ou à des fuites hétéroclites de matériaux piratés, destinées à submerger la vigilance des médias traditionnels.

En général, ces tactiques n’enfreignent aucune loi et ne déclenchent pas les alarmes du Premier Amendement. Mais elles ont toutes le même but que les anciennes formes de censure : elles sont les meilleurs outils disponibles pour empêcher les idées de se répandre et de gagner du terrain. Ils peuvent aussi transformer les grandes plateformes en un endroit déplorable pour interagir avec d’autres personnes.

Même lorsque les grandes plateformes elles-mêmes suspendent ou expulsent quelqu’un de leurs réseaux pour avoir enfreint les « normes communautaires » (un acte qui ressemble à la censure à l’ancienne ) ce n’est pas techniquement une atteinte à la liberté d’expression, même si c’est une démonstration de l’immense puissance des plateformes. N’importe qui dans le monde peut encore lire ce que le troll d’extrême droite Tim « Baked Alaska » Gionet a à dire sur Internet. Ce que Twitter lui a refusé, en le mettant à la porte, c’est l’attention.

Beaucoup d’autres des vieilles idées les plus nobles sur la liberté d’expression ne sont tout simplement pas applicables à l’ère des médias sociaux. L’idée de John Stuart Mill selon laquelle un « marché d’idées » favorisera la vérité est carrément démentie par la maladie des fausses nouvelles. Et le fameux proverbe américain qui dit que « le meilleur remède contre un discours nocif, c’est plus de discours » (une paraphrase du juge Louis Brandeis de la Cour suprême) perd tout son sens lorsque le discours est à la fois de masse et non public. Comment réagissez-vous à ce que vous ne voyez pas ? Comment pouvez-vous guérir les effets d’un « mauvais » discours avec plus de discours quand vous n’avez aucun moyen de cibler le même public que celui qui a reçu le message original ?

Ce n’est pas un appel à la nostalgie. Dans le passé, les voix marginalisées avaient du mal à toucher un public de masse. Elles n’ont souvent jamais dépassé les gardiens qui diffusaient les nouvelles du soir, qui travaillaient et vivaient à quelques pâtés de maisons les uns des autres à Manhattan et Washington DC. Le mieux que les dissidents pouvaient faire, était souvent de concevoir des manifestations publiques d’auto-sacrifice que ces gardiens trouveraient difficile à ignorer – comme les dirigeants des droits civiques américains l’ont fait lorsqu’ils ont envoyé des écoliers défiler dans les rues de Birmingham, en Alabama, faisant émerger les formes les plus nues de brutalité policière du Sud pour les caméras.

Mais à l’époque, tous les acteurs politiques pouvaient au moins voir plus ou moins ce que les autres voyaient. Aujourd’hui, même les élites les plus puissantes ne peuvent souvent pas réunir efficacement la bonne tranche de population pour contrer les messages dévoyés. Au cours de l’élection présidentielle de 2016, comme Joshua Green et Sasha Issenberg l’ont rapporté pour Bloomberg, l’équipe de campagne Trump a utilisé des posts appelés sombres (des postes non publics visant un public précis) pour décourager les Afro-Américains de voter dans les États les plus disputés. L’équipe de campagne de Clinton ne pouvait même pas suivre ces messages, encore moins les contrer directement. Même si Hillary Clinton elle-même s’était intéressée aux nouvelles du soir, cela n’aurait pas été un moyen d’atteindre le public touché. Parce que seule l’équipe de campagne Trump et Facebook savaient qui était le public.

Il est important de se rendre compte qu’en utilisant ces posts sombres, la campagne Trump n’a pas utilisé de manière déviante et guerrière un outil innocent. Il utilisait simplement Facebook exactement comme ce pour quoi il a été conçu. L’équipe de campagne l’a fait à peu de frais, avec l’aide d’employés de Facebook sur place au bureau, comme le fait la société de technologie pour la plupart des grands annonceurs et des campagnes politiques. Peu importe d’où vient le discours ou ce qu’il fait, du moment que les gens voient la publicité. Le reste n’est pas du ressort de Facebook.

Mark Zucckerberg reste ferme sur la mission de Facebook qui est de « connecter le monde » et de « rassembler le monde », comme preuve de la vertu civique de son entreprise. « En 2016, les gens ont eu des milliards d’interactions et de discussions ouvertes sur Facebook », a-t-il déclaré fièrement dans une vidéo en ligne, en se remémorant les élections américaines. « Les candidats avaient des voies directes pour communiquer avec des dizaines de millions de citoyens. »

Cette idée que plus de discours (plus de participation, plus de connexion) constitue le bien le plus haut, le plus authentique, est un refrain courant dans l’industrie de la technologie. Mais un historien verrait cette croyance comme une illusion. La connectivité n’est pas un gentil poney. Facebook ne fait pas seulement le lien entre les dissidents égyptiens épris de démocratie et les fans du jeu vidéo Civilization, mais il réunit aussi les tenants de la suprématie blanche, qui peuvent maintenant se réunir beaucoup plus efficacement. Il aide à relier les efforts des moines bouddhistes radicaux du Myanmar, qui disposent maintenant d’outils beaucoup plus puissants pour répandre l’incitation à la purification ethnique, alimentant ainsi la crise des réfugiés qui s’aggrave le plus rapidement dans le monde

La liberté d’expression est une valeur démocratique importante, mais elle n’est pas la seule. Dans la tradition libérale, la liberté d’expression est généralement perçue comme un véhicule – une condition nécessaire à la réalisation de certains autres idéaux sociétaux : pour créer un public averti ; pour susciter un débat sain, rationnel et éclairé ; pour tenir les personnes et les institutions puissantes responsables ; pour maintenir des communautés vivantes et dynamiques. Ce que nous constatons maintenant, c’est que lorsque la liberté d’expression est traitée comme une fin et non comme un moyen, il est tout à fait possible de contrecarrer et de déformer tout ce qu’elle est censée offrir.

Pour créer un public averti, il faut au moins quelques messages exploitables qui distinguent la vérité du mensonge. Favoriser un débat sain, rationnel et éclairé dans une société de masse exige des mécanismes qui montrent des points de vue opposés, de préférence dans leurs meilleures versions. Pour être clair, aucune sphère publique n’a jamais pleinement atteint ces conditions idéales, mais au moins elles étaient des idéaux inatteignables. Les algorithmes d’engagement d’aujourd’hui, en revanche, n’épousent aucun idéal en matière de sphère publique saine.

Aujourd’hui, les formes de censure les plus efficaces consistent à s’immiscer avec assurance et prudence, et non à museler le discours lui-même

Certains scientifiques prédisent qu’au cours des prochaines années, le nombre d’enfants souffrant d’obésité dépassera celui des enfants souffrant de la faim. Pourquoi ? Quand la condition humaine a été marquée par la faim et la famine, il était parfaitement logique de désirer des calories concentrées et du sel. Aujourd’hui, nous vivons dans un environnement de surabondance alimentaire et nous avons peu de défenses génétiques, culturelles ou psychologiques contre cette nouvelle menace pour notre santé. De même, nous avons peu de défenses contre ces menaces nouvelles et puissantes contre les idéaux du discours démocratique, même si nous nous noyons dans plus de discours que jamais.

Les enjeux ne sont pas minces. Dans le passé, il a fallu des générations pour que les humains développent des anticorps politiques, culturels et institutionnels contre la nouveauté et le bouleversement des précédentes révolutions en matière d’information. Si les films « naissance d’une nation » et « le triomphe de la volonté » sortaient maintenant, ils feraient un bide mais ils sont sortis tous les deux quand le cinéma en était encore à ses balbutiements, et l’utilisation novatrice de ce média qu’ils en ont fait a contribué à alimenter la renaissance de masse du Ku Klux Klan et la montée du nazisme.

À ce stade, nous en avons déjà vu assez pour reconnaître que le concept commercial de base sous-tendant les plateformes Big Tech (attirer l’attention avec une infrastructure de surveillance massive pour permettre une publicité ciblée et surtout automatisée à très grande échelle) est beaucoup trop conciliable avec l’autoritarisme, la propagande, la désinformation et la polarisation. Les anticorps institutionnels que l’humanité a mis au point pour se protéger contre la censure et la propagande jusqu’à présent (les lois, les codes de déontologie journalistique, les chiens de garde indépendants, l’éducation de masse) ont tous évolué vers un monde dans lequel le fait d’étouffer quelques gardiens et de menacer un petit nombre d’individus était un moyen efficace de bloquer la parole. Ils ne sont plus suffisants.

Mais nous n’avons pas à nous résigner au statu quo. Facebook n’a que 13 ans, Twitter 11 et même Google n’a que 19 ans. À l’époque de l’évolution de l’industrie automobile, il n’y avait toujours pas de ceinture de sécurité, d’airbags, de dispositifs antipollution ou de structures déformables obligatoires. Les règles et les structures incitatives qui sous-tendent le fonctionnement de l’attention et de la surveillance sur Internet doivent changer. Mais pour être juste envers Facebook, Google et Twitter, même s’il y a beaucoup de choses qu’ils pourraient faire mieux, les protestations du public qui réclament qu’ils règlent tous ces problèmes sont fondamentalement erronées. Il y a peu de solutions aux problèmes du discours numérique qui n’impliquent pas d’énormes compromis – et ce ne sont pas des choix que Mark Zuckerberg seul doit faire. Ce sont des décisions profondément politiques. Au XXe siècle, les États-Unis ont adopté des lois qui proscrivaient le plomb dans la peinture et l’essence, qui définissaient le degré de protection de la vie privée qu’un propriétaire devait accorder à ses locataires, et qui déterminaient la capacité d’une compagnie de téléphone à surveiller ses clients. Nous pouvons décider de la façon dont nous voulons gérer la surveillance numérique, la canalisation de l’attention, le harcèlement, la collecte de données et la prise de décisions algorithmiques. Nous devons juste commencer la discussion. Maintenant.

Zeynep Tufekci (@zeynep) est professeur agrégé à l’Université de Caroline du Nord et rédacteur d’opinion pour le New York Times.

Source : Wired, Zeynep Tufeckci, 16-01-2018

Retour vers Vie privée et bonnes pratiques numérique