Quatre tweets ont cassé Facebook – une bonne nouvelle pour les régulateurs de l'UE

Quatre tweets ont cassé Facebook – une bonne nouvelle pour les régulateurs de l'UE

15 juillet 2020 0 Par Village FSE

Facebook encore une fois. Il semble que chaque année une nouvelle vague d'indignation pleuve la société.

À maintes reprises, l'entreprise a été accusée de faciliter le terrorisme, les discours de haine raciste ou la désinformation. À maintes reprises, Mark Zuckerberg reconnaît les problèmes, promet des améliorations et présente des données pour montrer les efforts de l'entreprise. La réputation de Facebook en souffre.

  • Democracy Reporting International, où je travaille, a montré que le discours de haine a peut-être facilité le nettoyage ethnique de la minorité Rohingya. Mais, le Myanmar semblait loin pour beaucoup de gens et ce n'est pas un marché important pour Facebook.

L'année dernière, elle a été retirée de la liste des dix marques mondiales les plus précieuses, mais ses bénéfices ont continué de croître.

Maintenant c'est différent. Des entreprises puissantes, comme Unilever, ont cessé d'acheter de l'espace publicitaire sur Facebook, exigeant que l'entreprise technologique fasse beaucoup plus « dans les domaines de la division et du discours de haine pendant cette période électorale polarisée ».

D'autres entreprises ont emboîté le pas. Les raisons invoquées ne sont peut-être pas authentiques, mais l'indignation du public l'est et elle a des conséquences financières.

Pourquoi est-ce arrivé maintenant? Après tout, Facebook a déjà été critiqué pour avoir fait trop peu contre les discours de haine extrêmement agressifs au Myanmar.

Democracy Reporting International, où je travaille, a montré que ce discours de haine accompagnait et pourrait avoir facilité le nettoyage ethnique de la minorité Rohingya.

Mais, le Myanmar semblait loin pour beaucoup de gens et ce n'est pas un marché important pour Facebook. Ses politiques de modération du contenu reflètent les sentiments américains: bien que la nudité soit strictement interdite, la liberté d'expression est très répandue.

Mais dans le tourbillon de la polarisation politique toujours croissante des États-Unis, toutes les règles de base de la démocratie sont devenues contestées, et la façon de traiter le discours est l'une des questions les plus en suspens de la démocratie.

Soudain, au lendemain du meurtre de George Floyd, de nombreux Américains trouvent inacceptable que les sociétés de médias sociaux ne freinent pas les discours racistes et violents en ligne.

Cet outrage n'est pas le résultat d'un nouveau rapport qui a révélé un niveau inconnu de discours de haine sur Facebook.

La paille qui a brisé le dos du chameau était que Twitter était un peu plus interventionniste et interférait avec les communications de Donald Trump: il a ajouté un avertissement que quatre de ses tweets semblaient glorifier la violence ou contenir de la désinformation.

Facebook n'a rien fait sur les messages similaires de Trump sur sa plate-forme, affirmant qu'il est important pour le public de voir ce que les politiciens disent. C'est alors que le sol a commencé à trembler.

Les employés de Facebook ont ​​protesté, certains ont démissionné et les annonceurs se sont retirés. Il semble que le cycle de reconnaissance du problème et des promesses d'amélioration soit rompu. Les annonceurs attendent quelque chose de plus tangible.

Ce moment pourrait être l'occasion pour les États-Unis et l'UE d'établir un terrain d'entente plus commun sur la réglementation des plateformes.

Des deux côtés de l'Atlantique, la réglementation repose sur l'idée que les entreprises qui ne font que transmettre du contenu, appelées intermédiaires, ne sont pas responsables du contenu.

Il existe des exceptions, mais le principe de non-responsabilité est maintenu.

Dans les deux juridictions, la question sous-jacente qui nécessite une nouvelle réponse est la suivante: pourquoi une entreprise comme Facebook bénéficie-t-elle encore – dans l'ensemble – de l'hypothèse qu'elle n'a rien à voir avec les messages qui sont publiés sur son service? Pourquoi est-il traité comme une compagnie de téléphone qui n'est pas responsable de ce que les gens disent lors de leurs appels?

«Classement» est en cours d'édition

Le chef des relations publiques de Facebook, Nick Clegg, a tenté de nous faire croire que cela était comparable à une compagnie de téléphone lorsqu'il a récemment déclaré que Facebook ne faisait que « tenir un miroir pour la société ». Rien ne pourrait être plus éloigné de la vérité. Son entreprise décide quels messages les utilisateurs voient. Il « classe » le contenu.

Une compagnie de téléphone ne décide pas qui est connecté à qui et avec quelle priorité, plutôt que de simplement laisser passer l'appel.

Les sociétés de médias sociaux ne créent pas de messages, mais elles décident quels messages nous voyons dans nos flux.

Ils ne créent pas les pixels, mais ils créent une grande image à partir de ces pixels. Ce n'est pas un miroir, c'est une peinture. Et la peinture est différente pour chaque utilisateur, dessinée par des algorithmes conçus pour le garder le plus longtemps possible sur la plateforme.

Zuckerberg l'a reconnu en disant que Facebook est quelque chose entre une compagnie de téléphone et un média.

En effet, ce n'est pas une compagnie de téléphone, mais ce n'est pas non plus un média.

Zuckerberg n'est pas le rédacteur en chef des 100 milliards de messages publiés ou envoyés sur Facebook chaque jour. Mais il n'est pas non plus un spectateur innocent, qui a simplement câblé les gens pour qu'ils soient mieux connectés.

Il n'y a pas de bonne comparaison de ce que fait Facebook. C'est nouveau. Les médias sociaux sont rapides et ont un volume de données inimaginable.

Facebook doit gérer 100 milliards de messages chaque jour, et ceux-ci ont le plus d'impact au cours des premières heures de leur publication.

Depuis une décennie maintenant, nous ne faisons qu'effleurer la surface de ce que cela signifie vraiment pour le discours et le discours démocratique en ligne.

Les régulateurs de l'UE travaillent actuellement à la refonte des lois qui régissaient ce service depuis deux décennies. Récemment, nous avons réuni des ONG européennes qui ont convenu que la transparence est essentielle pour faire face à cette nouvelle réalité.

Pour faire la prochaine étape, des entreprises comme Facebook ont ​​besoin de mécanismes d'audit externes approfondis et indépendants par des régulateurs puissants, au-delà de ce que la campagne «  Stop Hate '' exige et bien au-delà de l'audit des droits civiques qui a été entrepris.

La société a récemment annoncé la suppression de 41 comptes impliqués dans des «comportements inauthentiques coordonnés», mais quelle en est l'importance pour un réseau de 2,6 milliards d'utilisateurs?

Clegg a déclaré: « Lorsque nous trouvons des messages haineux sur Facebook et Instagram, nous adoptons une approche de tolérance zéro et les supprimons », mais quand l'entreprise trouve-t-elle des messages haineux? Comment essaie-t-il de les trouver? La «tolérance zéro» n'est qu'un extrait sonore dans une zone pleine de zones grises.

Nous devons avoir une compréhension détaillée du travail des algorithmes de classement et de la taille relative des interactions, au lieu de vagues déclarations d'entreprise.

Nous ne croyons pas aux déclarations de relations publiques des banques, nous les auditons.

La même chose doit arriver aux sociétés de médias sociaux. On peut applaudir les annonceurs qui se retirent de Facebook, mais les règles de la parole ne devraient pas être établies par les grandes entreprises.

Ils doivent être déterminés par des législateurs démocratiquement élus.

Alors que de nombreux Américains s'inquiètent de la compréhension très large de la liberté d'expression aux États-Unis, la crise de Facebook ouvre la voie à un avenir réglementaire dans lequel les États-Unis et l'UE peuvent s'aligner en proposant un modèle de réglementation démocratique qui équilibre la liberté d'expression avec un certain degré de protection des utilisateurs et du discours démocratique.