Home Édition Abonné Facebook, le vrai Etat policier

Facebook, le vrai Etat policier

La loi, c'est lui

Facebook, le vrai Etat policier
Mark Zuckerberg auditionné par le Sénat américain, en marge du scandale Cambridge Analytica, Washington, 10 avril 2018. © Zach Gibson / Getty Images / AFP

Le réseau social Facebook prétend définir ce qui est autorisé et ce qui est interdit dans les contenus diffusés par ses utilisateurs. Cette ambition digne d’un Etat justifie une censure idéologique contraire aux libertés fondamentales. Enquête.


Fuite de données sensibles, lutte contre le terrorisme, censure de contenus politiques : les griefs à l’encontre de Facebook ne manquent pas. Au cœur d’une tempête juridico-médiatique, le réseau social aux 2,4 milliards d’utilisateurs (dont 85 % en dehors du territoire américain) s’est aliéné une partie de son audience. En situation délicate malgré le succès de sa gamme de produits mobiles, Facebook n’a donc plus le choix : il lui faut rassurer ou mourir. Les appels répétés de certains États à davantage de régulation, sous peine de démanteler le groupe, menacent purement et simplement sa survie.

Trop tentaculaire pour passer sous les radars des régulateurs nationaux, mais pas (encore) assez puissante pour se passer totalement de l’assentiment de la société civile et des bonnes grâces de la puissance publique, la firme de Mark Zuckerberg fait le dos rond. Quitte à changer radicalement de doctrine. À l’opacité et l’arrogance, caractéristiques de la première décennie d’expansion, succède l’ère du volontarisme et de la transparence tous azimuts, portée par un casting de choc. À ce titre, la récente embauche de l’ancien vice-Premier ministre britannique Nick Clegg est révélatrice de ce revirement tactique. Parachuté directeur des affaires publiques, l’ex-dirigeant libéral-démocrate suit un agenda au double objectif : rassurer et convaincre.

Big Brother devenu réalité

Parmi les plans de Facebook, le projet de monnaie virtuelle mondiale (baptisée Libra) hisse symboliquement le réseau à hauteur des États. Certes, le groupe ne dispose pas du droit d’exercer la violence légitime. Il n’en exerce pas moins un pouvoir régalien : en contrôlant l’émission et la diffusion d’information, il fabrique du droit. Sans posséder ni les compétences ni la légitimité pour exercer ce pouvoir régalien.

Depuis quelques années, le géant des réseaux sociaux est accusé de censure de la part d’individus et de groupes d’horizons politiques très divers, qui publient sur ses pages. Dernières victimes en date, des comptes issus de l’ultra-gauche pour qui l’été 2019 fut particulièrement sanglant. Au moins quatre pages liées à la mouvance ont été déréférencées et ont vu leurs audiences brutalement chuter à l’issue de la période estivale. Parmi les comptes concernés, celui du CAMÉ, collectif d’étudiants tendance « no border » de l’université du Mirail, à Toulouse. Dans une publication datée du 29 août sur sa page Facebook, le collectif explique que le phénomène s’est enclenché suite au traitement du contre-sommet du G7. Le partage d’un article concernant la découverte d’une policière infiltrée dans les mouvements contestataires aurait provoqué la sanction. « À la suite de ce post, on a vu clairement que nos publications ne touchaient plus grand monde », explique Léon, membre du CAMÉ, à nos confrères de France 3 Midi-Pyrénées. « On se demande si Facebook n’a pas utilisé la nouvelle loi sur les fake news pour désindexer notre page et celles d’autres collectifs, alors que les infos que nous publions sont certes militantes et engagées, mais toujours vérifiées. » Sollicité pour plus de détails, Facebook indiquait que seuls les administrateurs des pages concernées auraient droit, dans un délai inconnu, à une explication.

Depuis la présidentielle américaine de 2016 et l’affaire Cambridge Analytica – fuite de données organisée en faveur de différents groupes politiques pro-Brexit ou pro-Trump –, Facebook paie cher ses dérives. Le scandale s’est en effet soldé par une amende record de 5 milliards de dollars infligée en juillet dernier par le gendarme américain de la consommation FTC (Federal Trade Commission). Il s’agit donc de reprendre la main. Suppression de pages, minimisation de la viralité de certains contenus, désindexation ou simple rappel à l’ordre : le réseau social dispose d’un arsenal de sanctions qu’il déploie au gré de la gravité de l’infraction commise au regard de ses règles sacro-saintes – les fameux « Standards de la communauté », sorte de règlement intérieur rendu public en 2015. Ce texte décrit par le menu le type de publication proscrit par la plate-forme.

Discours de Mark Zuckerberg à la conférence annuelle de Facebook, San José, 1er mai 2018. © Marcio Jose Sanchez / AP/ SIPA
Discours de Mark Zuckerberg à la conférence annuelle de Facebook, San José, 1er mai 2018.
© Marcio Jose Sanchez / AP/ SIPA

Une telle modération a posteriori s’ajoute à une approche plus proactive qui consiste à débusquer des groupes exerçant des stratégies d’influence sur le site au moyen de fausses informations, le tout piloté en sous-main par des puissances étatiques. Facebook supprimait ainsi en début d’année près de 500 comptes supposément « coordonnés depuis la Russie et liés à des employés de l’agence de presse Sputnik », comptes suspectés de partager des « sentiments anti-OTAN » et favorables « aux protestations » selon Nathaniel Gleicher, responsable de la cybersécurité chez Facebook. En dépit des cris d’orfraie des victimes de la purge, le réseau social motivera cette décision par la volonté manifeste des administrateurs de dissimuler l’identité réelle du donneur d’ordre, contrevenant à l’article 17 d’un règlement intérieur aux allures de véritable code pénal numérique.

Pour contrer les accusations de censure arbitraire qui se multiplient, Facebook se livre depuis 2016 à un grand exercice de transparence sur les moyens qu’il met en œuvre pour la régulation des contenus. Le réseau revendique sans surprise l’usage d’un dispositif hybride composé d’algorithmes, de détection et de signalements de ses utilisateurs – entérinant au passage la culture de la délation comme élément cardinal de sa politique de sécurité. Une fois identifiés, les contenus problématiques sont traités via une chaîne de modération humaine assurée essentiellement par des sous-traitants. Certains de ces centres externalisés ont d’ailleurs accueilli quelques journalistes, invités à constater par eux-mêmes les efforts consentis pour relever le « formidable défi » d’une modération à cette échelle – ces mêmes journalistes qui ne manqueront d’ailleurs pas de noter l’extrême rudesse des conditions de travail de ces salariés du clic, dont la tâche consiste à trier les poubelles du réseau pour à peine quinze dollars de l’heure.

A lire aussi : Facebook, le déclin de l’empire américain

Dans la même veine, Facebook publiait en 2018, à grand renfort de publicité, une version étoffée de ses « standards » clarifiant un certain nombre de concepts clés et fournissant des exemples explicites de contenus non admis sur la plate-forme.

Il est certes bon que les internautes connaissent les règles et restrictions auxquelles leurs publications sont soumises. Toutefois, le problème fondamental de la concentration des pouvoirs reste irrésolu. En effet, comme le pointe l’excellent rapport de la mission de régulation des réseaux sociaux remis en mai dernier au secrétaire d’État chargé du Numérique [tooltips content=”Mission composée de représentants des régulateurs français, dont le Conseil supérieur de l’audiovisuel (CSA) et l’Autorité de régulation des communications électroniques et des postes, dont est issu le rapporteur du texte Benoît Loutrel.”](1)[/tooltips], les acteurs proposant un service de réseau social jouent tous les rôles simultanément : « Ils édictent leurs CGU [conditions générales d’utilisation], décident dans quelle mesure elles les lient, les modifient en tant que de besoin sans procédure publique, en assurent l’interprétation en première et dernière instances, rendent compte de leur mise en œuvre dans la forme et la périodicité qui leur semblent opportunes. » De quoi relativiser la portée des récentes annonces et soupçonner que la merveilleuse transparence relève de la seule communication. L’intensification des moyens ou l’introduction de nouveaux dispositifs – notamment la possibilité de faire appel d’une sanction – ne changent rien à l’affaire. Pire, ce débat permanent autour des ressources engagées par la plate-forme agit comme un écran de fumée qui entérine le principe fort discutable d’une régulation en vase clos.

Si rien ne filtre des arrière-cuisines de cette gigantesque machine à fabriquer du droit, on sait en revanche que la gestion d’une communauté aussi massive appelle nécessairement le traitement de gros volumes d’incidents. En dernière analyse, c’est une logique de quotas qui s’applique. Chaque modérateur – dont le profil s’apparente dans le meilleur des cas à celui d’un conseiller clientèle – traite en moyenne une centaine de contenus litigieux par jour, allouant entre vingt et cent vingt secondes à chaque signalement – là où un homme de loi prendrait sans doute plusieurs mois avant de rendre sa décision quant au caractère licite ou non dudit contenu. Le manque de temps et de recul face au contexte de la publication contraint des individus peu ou pas formés à produire de la jurisprudence à une cadence effrénée, avec pour effet collatéral la mise au ban de contenus à peine polémiques sur la base d’une interprétation souvent très contestable des règles en vigueur. Pour le dire autrement, des employés à peine plus qualifiés que des agents de call centers se transforment quotidiennement en juristes. D’où les dégâts qui s’ensuivent…

Un tel système s’appliquant instantanément à des milliards d’utilisateurs suscite un certain nombre de réserves. « Il est indispensable de prévoir un juste équilibre entre le recours aux mécanismes judiciaires, à la régulation et à l’auto-régulation, tout en s’appuyant sur les apports de la mission de régulation des réseaux sociaux pour réfléchir à de nouvelles formes de régulation », estime le Conseil national du numérique dans un communiqué récent. Avant d’enfoncer le clou en précisant que « l’appréciation du caractère “haineux” ou “injurieux” d’un discours ou d’une publication peut parfois, en fonction du contexte, être source de difficultés. [Ce] rôle appartenant traditionnellement au juge qui offre toutes les garanties de compétence et d’impartialité pour se prononcer sur le caractère illicite d’un contenu. » Une manière pudique de récuser la privatisation de missions de régulation historiquement dévolues à l’État.

Facebook juge et juré ?

Jamais à court d’initiatives pour contrer ce type d’accusation, Facebook a récemment avancé l’idée d’un comité de supervision indépendant pour trancher les cas de modération les plus litigieux. Une idée, certes louable, qui bute néanmoins sur le mode de fonctionnement quasi stalinien de cette pseudo cour suprême. « Facebook s’est engagé à ce que le conseil prenne des décisions “contraignantes” sur chaque contenu examiné, mais celui-ci ne devrait émettre que des recommandations sur le changement des règles. L’entreprise n’abandonne pas sa responsabilité », affirmait Nick Clegg au Monde. Autrement dit, quel que soit le degré d’efficacité ou de légitimité de ce « machin », l’entreprise restera maître du système.

On peut voir dans ce projet une manœuvre préventive destinée à limiter le risque d’intervention coercitive de la puissance publique. Mais la création de cette nouvelle instance légitimerait déjà de facto le principe d’une justice privée contre laquelle la Justice ne pourrait rien. Un tel schéma de gouvernance impliquerait en effet une délégation de pouvoirs quasi totale aux plates-formes dans le domaine de la régulation des contenus, entamant encore un peu plus le monopole des États sur leurs fonctions régaliennes.

Bien que ce modèle de justice privée n’ait rien d’inédit, le succès des grandes plates-formes numériques reposant précisément sur la gestion internalisée des litiges, il suscite à juste titre un certain émoi dans une partie de l’opinion. Cela se traduit par une réponse schizophrène de la part des autorités qui, tout en critiquant les GAFA, continuent à leur déléguer des responsabilités. Le mouvement a été lancé dès 2004 avec la transposition de la directive européenne « e-commerce » dans la loi pour la confiance dans l’économie numérique. Celle-ci prévoit un dispositif qui fait des hébergeurs et des fournisseurs d’accès à internet les juges en premier ressort du caractère illicite d’un contenu.

Échaudés par les prétentions d’un acteur privé qui produit du droit et s’apprête à battre monnaie, les États organisent la riposte

Ces sites sont en effet tenus de « disposer d’un mécanisme de signalement aisément accessible de ces contenus, informer les autorités publiques de leurs signalements, et rendre publics les moyens qu’ils consacrent à la prévention de leur diffusion », le manquement à l’ensemble de ces obligations étant pénalement réprimé. Un cadre légal qui s’en tenait jusqu’alors aux seuls contenus constitutifs d’infractions (apologie des crimes contre l’humanité́, provocation au terrorisme, incitation à la haine raciale…). Les récentes évolutions légales élargissent le domaine de l’interdit et renforcent sensiblement la responsabilité des acteurs. Votée au parlement en juillet dernier, la loi Avia – fortement inspirée du dispositif allemand NetzDG – prévoit un statut spécifique « d’opérateurs de plateformes en ligne » (réseaux sociaux et moteurs de recherche), ces derniers disposant désormais d’un délai de vingt-quatre heures pour se prononcer sur le caractère « manifestement » haineux ou injurieux d’un contenu et prendre toutes les mesures nécessaires sous peine de lourdes sanctions pécuniaires.

Interrogée par Causeur sur les possibles effets pervers d’une telle loi, Fabienne Colboc, députée LREM d’Indre-et-Loire et rapporteur pour avis du texte, tient à préciser que « le dispositif envisagé, qui ne vise que les contenus manifestement illicites (et non les contenus gris, sujets à interprétations) permettra par la suite soit un recours devant le juge, de la part de l’auteur du contenu s’il estime que sa publication a été abusivement retirée, soit des poursuites contre la plate-forme si elle n’a pas supprimé un contenu qui était manifestement haineux. C’est donc toujours le juge, indépendant et garant de la protection des libertés individuelles, qui sera compétent pour juger de la licéité des contenus et de la répression des auteurs. En aucun cas, il n’est demandé aux plates-formes de remplir ce rôle de juge. » Il y a au contraire lieu de penser que la combinaison d’un délai extrêmement court, du risque de sanction et des dommages éventuels en termes de réputation incitera les sites à jouer la prudence et à supprimer massivement et presque préventivement des contenus sujets à interprétation. Encore une fois, le rôle du juge de première instance est dévolu aux acteurs de l’internet.

Auditio de Mark Zuckerberg au Parlement européen, Bruxelles, 22 juin 2018. © AFP
Auditio de Mark Zuckerberg au Parlement européen, Bruxelles, 22 juin 2018.
© AFP

Explosion du volume de litiges à traiter, engorgement des tribunaux, moyens pléthoriques engagés par les plates-formes : on comprend que les États soient désireux de transférer une partie de leur pouvoir de police numérique, au risque d’aller vers toujours plus de « délégation de souveraineté », pour reprendre l’expression de Gilles Babinet, conseiller aux questions numériques à l’Institut Montaigne. Pour cet expert de la Toile, une autre régulation est possible : « Contrairement à ce que l’on entend, l’autorégulation n’est pas une fatalité. On pourrait imaginer une supervision directe des équipes de modération par les juges des pays concernés, dont le coût serait intégralement supporté par les plates-formes qui seraient ainsi contraintes d’assumer leur logique de développement tous azimuts. […] Un modèle de “cyberjustice étatique” commence d’ailleurs à voir le jour dans certains pays. Facebook, pour ne pas le citer, a d’ailleurs tout intérêt à adopter ce type d’approche, le risque de démantèlement n’ayant jamais été aussi prégnant qu’à l’heure actuelle. »

A lire aussi : Minorités lyncheuses, « fake news », Facebook: sale temps pour nos libertés !

Le temps de la bienveillance – voire de la naïveté – à l’endroit des « Big Tech » est révolu. Les États, au même titre que les individus, semblent avoir collectivement pris conscience de la menace incarnée par des acteurs privés omnipotents dont les velléités politiques traduisent un profond changement de nature. Conformément à l’idéologie libertarienne de la Silicon Valley, qui voit en l’État centralisateur l’ennemi à abattre, l’obsession de l’hypercroissance a fait place à celle de l’autonomie. Certains rêvent même de s’affranchir de toute contrainte à l’égard du législateur. Le cas de Facebook est emblématique : en à peine quinze ans, la jeune pousse adulée de tous s’est muée en une firme tentaculaire, multipliant les initiatives régaliennes dans un mouvement qui s’apparente, en dernière analyse, à une tentative d’ubérisation du politique. Le fait d’avancer à visage découvert ne rassure pas grand monde et démontre au contraire l’habileté tactique d’un mastodonte qui ne veut pas antagoniser l’adversaire.

Bonne nouvelle : les législateurs occidentaux, loin d’être dupes, semblent bien décidés à agir, comme en témoignent les récentes prises de position contre le projet Libra. Échaudés par les prétentions d’un acteur privé qui produit du droit et s’apprête à battre monnaie, les États organisent la riposte et peuvent compter sur un atout maître : le retournement de l’opinion publique. Reste à savoir s’ils ont encore les moyens de contrôler des monstres qu’ils ont contribué à créer.

Octobre 2019 - Causeur #72

Article extrait du Magazine Causeur


Previous article La gauche a perdu le peuple à cause de l’immigration
Next article Le voile islamique est l’expression d’un ordre social

RÉAGISSEZ À CET ARTICLE

Le système de commentaires sur Causeur.fr évolue : nous vous invitons à créer ci-dessous un nouveau compte Disqus si vous n'en avez pas encore.
Une tenue correcte est exigée. Soyez courtois et évitez le hors sujet.
Notre charte de modération