Le 5 mai 2021, le Conseil de Surveillance (Oversight Board ou FOB) de Facebook a rendu sa décision relative au bien-fondé de la suspension du compte de Donald Trump, décidée par la plateforme le 7 janvier, dans la foulée des événements du Capitole. Cette décision très attendue comporte des indications précieuses sur la manière dont cette instance inédite entend épauler Facebook dans ses pratiques de modération et contrôler les décisions prises. Elle a, toutefois, pour limite de ne pas régler la question au fond dans la mesure où elle se contente de donner à Facebook un délai de 6 mois pour prendre position sur la sanction définitive des agissements de Donald Trump. Le Conseil renvoie, en effet, à Facebook le soin de choisir entre la désactivation définitive de son compte ou une suspension temporaire qui permettrait à Trump de revenir, à terme, sur la plateforme. La décision illustre, par ailleurs, les difficultés suscitées par le statut de cette instance et par les normes qu’elle applique, qui méritent encore des clarifications. Elle montre, enfin, que l’Oversight Board (ou FOB) entend moins se poser en contre-pouvoir qu’en une instance garantissant la bonne application des conditions générales décidées par Facebook, le tout dans le respect de standards internationaux très généraux relatifs à la liberté d’expression.
Rappelons d’abord les faits. Le 6 janvier 2021, des militants souhaitant empêcher la certification de l’élection présidentielle de 2020 par le Congrès entraient par la force dans le Capitole des Etats-Unis, causant cinq morts et de nombreux blessés. Le même jour, Facebook décidait, après avoir supprimé plusieurs publications de Donald Trump, de l’empêcher pendant 24h de publier sur Facebook et Instagram. Le lendemain, 7 janvier 2021, Mark Zuckerberg annonçait la décision de suspendre, pour une durée indéterminée, le compte de Donald Trump sur Facebook et Instagram, au motif que le Président cherchait à empêcher la transition pacifique et légale du pouvoir à son successeur élu, Joe Biden : dans ce contexte, les risques générés par sa présence sur le réseau étaient trop grands. La décision de Facebook était suivie, le 8 janvier, par celle du réseau social Twitter qui choisissait de supprimer, à titre permanent, le compte de Donald Trump, estimant que ces tweets étaient susceptibles d’inciter d’autres personnes à reproduire les actes violents commis au Capitole.
A l’époque, la « déplateformisation » de Trump avait suscité de nombreuses réactions, entre soulagement et réticence. « On se souviendra de cet événement comme d’un tournant dans la bataille pour le contrôle de la parole numérique », twittait Edward Snowden, pendant qu’Alexey Navalny dénonçait « un acte de censure inacceptable » et que la chancelière allemande Angela Merkel y voyait « un acte problématique ». Quelques jours plus tard, Jack Dorsey, tout en regrettant l’impuissance du réseau à produire une conversation saine, avait simplement conclu: « Si les gens ne sont pas d’accord avec nos règles et leur application, ils peuvent simplement aller sur un autre service internet ». Deux mois plus tard, Dorsey était le seul à reconnaître clairement, devant le Congrès, le rôle joué par les réseaux sociaux dans les événements du Capitole. De son côté, Facebook avait pris, dès janvier, la décision de soumettre sa décision de suspension à son Conseil de Surveillance, l’Oversight Board(FOB).
Qu’est-ce que le Facebook Oversight Board ou FOB? Il s’agit d’une instance imaginée en 2018 par Noah Feldman, professeur de droit à Harvard, qui avait suggéré l’idée d’une « cour suprême ». Conçu pour trancher les contestations, l’Oversight Board de Facebook fait penser à une instance arbitrale, à ceci près que seule l’une des parties, Facebook, en a fixé la composition, les conditions de saisine et la procédure qui y est suivie. Le Conseil a un rôle quasi-juridictionnel dans la mesure où il examine les recours et rend des décisions obligatoires pour la plateforme mais il a également un (petit) rôle politique, car il peut formuler des recommandations générales à titre consultatif.
Constitué en mai 2020, le Conseil de Surveillance est composé de vingt membres recrutés parmi des personnalités particulièrement reconnues comme Helle Thorning-Schmidt ancienne première ministre du Danemark, Catalina Botero Marino, ancienne rapporteuse spéciale pour la liberté d’expression auprès de la Commission interaméricaine des droits de l’homme, Alan Rusbridger, ancien rédacteur en chef du Guardian, ou Tawakkol Karman, militante qui a reçu le prix Nobel de la paix en 2011 pour son rôle dans les manifestations du printemps arabe au Yémen. Cinq membres sur vingt sont américains, trois sont européens, les autres membres venant des quatre coins du monde. Depuis l’automne dernier, cette instance examine les recours contre les décisions de modération de Facebook et peut prendre des décisions que Facebook s’est engagé, par avance, à appliquer.
C’est dans ce cadre que la décision prise par Facebook le 7 janvier à l’égard de Donald Trump lui a été soumise. Plus précisément, Facebook a posé deux questions au Conseil. La première était relative à la décision de suspension adoptée le 7 janvier. La seconde revenait à interroger le Conseil sur la stratégie à adopter avec les comptes des dirigeants politiques en général. Si le Conseil a donné une réponse claire, quoique pas définitive, à la première question, il n’a répondu qu’imparfaitement à la seconde. Nous nous bornerons, dans cette note de blog, à quelques remarques d’ordre général sur cette décision très instructive. L’on pourra également se reporter au commentaire très informé d’Evelyn Douek, en anglais.
1. Première remarque : l’Oversight Board ne tranche pas au fond la question de la « déplateformisation de Trump » et renvoie le problème à Facebook
Le Conseil de Surveillance a décidé sans ambigüité de confirmer la décision prise par Facebook le 7 janvier 2021 de suspendre le compte de Donald Trump, en rappelant les risques de violence suscités par les publications de l’ancien Président. En revanche, le Conseil critique vertement Facebook pour avoir prononcé une sanction à durée indéterminée, ce qui n’est, souligne-t-il, pas prévu par les conditions générales de la plateforme qui prévoient seulement trois sanctions : la suppression des publications violant les conditions de Facebook, une suspension du compte limitée dans le temps ou la désactivation permanente de la page et du compte. En conséquence, le Conseil donne à Facebook un délai de 6 mois pour prendre une décision définitive concernant le compte de Donald Trump, qui devra, en tout état de cause, être justifiée.
Le Conseil de Surveillance renvoie donc à Facebook la responsabilité de se prononcer sur la question la plus épineuse : que faire de Donald Trump ? Et ce alors même que l’objet de la saisine du Conseil par Facebook était précisément de l’amener à se prononcer sur ce point ! On a l’impression que le Conseil n’a pas souhaité se risquer à prendre position sur un sujet si controversé. Paradoxalement ou non, il affirme, dans sa décision, qu’en décidant de saisir le Conseil après avoir pris une décision non répertoriée dans ses conditions générales, Facebook a cherché à échapper à ses responsabilités… On peut sans doute saluer le souhait du Conseil de raisonner de manière rigoureuse en examinant strictement l’application des conditions générales de Facebook. Mais l’on n’a, pour le reste, que peu d’indications quant à sa position sur l’éventuel retour de Donald Trump sur la plateforme. Certes, la décision donne quelques éléments sur les circonstances à prendre en considération pour justifier une éventuelle désactivation définitive du compte de Trump. Il est, par exemple, précisé que Facebook devra analyser le contexte à l’intérieur de Facebook et Instagram, mais aussi à l’extérieur, ce que Facebook a fait par le passé en exploitant les informations diffusées par le Department of Homeland Security (DHS) concernant les menaces terroristes. Plusieurs critères ont été évoqués par une minorité des membres du Conseil, comme le fait que Trump cesse de faire des affirmations infondées sur une prétendue fraude électorale (ce qui est actuellement loin d’être le cas!), qu’il reconnaisse les violations commises et s’engage à l’avenir à respecter les règles de la plateforme à l’avenir, ou qu’il cesse de soutenir les personnes impliquées dans les émeutes du Capitole. Ces considérations éparses paraissent toutefois largement indicatives. La responsabilité de décider du sort définitif du compte de Donald Trump est ici clairement renvoyée à Facebook, même s’il lui est demandé de justifier sa position.
2. Deuxième remarque : le Conseil s’en tient aux règles fixées par Facebook
Une chose est sûre : le Conseil de surveillance entend se livrer à un contrôle strict de l’application, par Facebook, de ses propres conditions générales, dans le cadre fixé par la plateforme. Non prévue par les conditions générales, la suspension « indéterminée » est donc qualifiée de « sanction vague et non standardisée », imposée par Facebook de manière « arbitraire ». En critiquant Facebook sur ce point, le Conseil fonctionne bien comme une juridiction qui se livre à une forme de « contrôle de légalité » et impose, ce faisant, un « principe de légalité » selon lequel les sanctions prononcées doivent être préalablement prévues par les règles de la plateforme. Le contrôle réalisé est également un contrôle de proportionnalité : le Conseil vérifie que la décision de Facebook constitue une réaction proportionnée compte-tenu des circonstances et des risques encourus. Le parallèle avec le contrôle réalisé par une juridiction est d’autant plus frappant que le Conseil réalise ici un « renvoi » à Facebook de la décision au fond, à l’image de notre Cour de cassation renvoyant un litige aux juges du fond après avoir opéré son contrôle. La présentation figurant sur le site de l’Oversight Board évoque d’ailleurs une « procédure d’appel » et vante un « jugement indépendant »
Le parallèle avec une juridiction traditionnelle doit pourtant être très fortement nuancé. Car la « légalité », la « norme » que le Conseil est ici chargé de faire prévaloir est constituée, avant toute chose, des conditions générales de cette entreprise privée qu’est Facebook. Le Conseil l’indique expressément : le contrôle de « légalité » se fait au regard des « normes communautaires de Facebook », ce qui a de quoi faire frissonner tout juriste habitué à voir dans la loi votée au Parlement la norme par excellence. Aucune norme étatique n’est vouée à s’appliquer ici, même si l’on trouve, dans la décision, mention du Premier Amendement à la Constitution américaine dont le contenu est jugé équivalent à celui de l’article 19 du Pacte international relatif aux droits civils et politiques. Mais l’on ne sort guère ici de l’ordonnancement créé et prévu par la plateforme. Facebook a, en effet, décidé, depuis l’origine (et assez logiquement), d’exclure les lois étatiques nationales des normes appliquées par le Conseil. La plateforme a toutefois fait aussi le choix de se soumettre aux normes internationales protégeant les droits de l’homme et la liberté d’expression, comme les principes directeurs relatifs aux entreprises et aux droits de l’homme. C’est ici la seule circonstance qui permet au Conseil de sortir de l’ordonnancement des règles de la plateforme pour vérifier que l’atteinte à la liberté d’expression résultant de la suspension du compte de Trump est conforme aux normes internationales applicables en la matière.
Il y aurait beaucoup à dire sur le choix de Facebook de se soumettre à des normes de droit international qui ont en principe pour destinataires les Etats. Ces principes internationaux constituent certes un socle commun de normes partagées par un grand nombre de pays mais sont-ils réellement adaptés ici ? Ne sont-ils pas trop vagues, trop généraux ? Correspondent-ils à la réalité du monde contemporain, à celle de ces immenses plateformes numériques transnationales au sein desquelles les discours de haine peuvent se répandre de manière virale ? On ignore, du reste, la place et la portée vraiment reconnues ici à ces principes de droit international et notamment si ces principes internationaux vont nécessairement l’emporter sur les conditions générales de Facebook. Certes, le Conseil critique, dans la décision, les règles de la plateforme au motif qu’elles manquent de la clarté requise par les normes internationales. Dans une autre décision récente, il juge qu’un standard de Facebook conduit à restreindre la liberté d’expression de manière non nécessaire et disproportionnée du point de vue du droit international (tout en précisant également -et c’est commode- que ce standard n’est pas non plus conforme aux « valeurs » de Facebook). Cependant, quelles que soient ses critiques, le Conseil n’a pas d’autre pouvoir que celui de trancher la contestation qui lui est soumise et de statuer sur l’éventuelle restauration de la publication litigieuse. Il ne peut, pour le reste, que recommander à la plateforme de modifier les standards qu’il juge incompatibles avec le droit international, recommandation que Facebook n’est pas tenu de suivre.
En l’espèce, le Conseil rappelle que si « le discours politique bénéficie d’une protection élevée en vertu du droit des droits de l’homme en raison de son importance pour le débat démocratique », les normes internationales en matière de droits de l’homme permettent des restrictions à la liberté d’expression en présence d’un risque sérieux d’incitation à la discrimination, à la violence ou à toute autre action illicite. Du point de vue du droit international, les règles restreignant la liberté d’expression, dit le Conseil, doivent répondre à trois exigences : elles doivent être claires et accessibles, viser un objectif légitime, et être nécessaires et proportionnées au risque de dommage. Le Conseil contrôle donc les conditions générales de Facebook et leur mise en œuvre à ces trois égards. Sur le premier, il juge que les règles de Facebook sont suffisamment claires mais critique le caractère vague et incertain de la sanction » indéfinie » prononcée à l’encontre de Trump. Sur le deuxième, il estime que les règles de Facebook poursuivent un but légitime. Sur le troisième (nécessité et proportionnalité), il s’appuie sur les critères retenus par le Plan d’action de Rabat, et notamment sur une grille d’évaluation en six points élaborée dans le cadre de ce plan d’action, pour évaluer la capacité d’un discours à créer un risque sérieux d’incitation à la discrimination, à la violence ou à toute autre action illicite. Il en conclut que la décision de Facebook était nécessaire et proportionnée compte-tenu des événements du 6 janvier, tout en précisant qu’une minorité de membre du Conseil juge approprié de s’inspirer également du comportement de Donald Trump au cours des mois ayant précédé sa suspension (comme cette phrase prononcée lors des événements ayant suivi la mort de George Floyd qui avait tant choqué et que Facebook avait refusé de supprimer : « When the looting starts, the shooting starts« ).
On peut certainement se réjouir que le Conseil contrôle, sur le fondement des normes internationales, la mise en œuvre, par Facebook, de ses conditions générales. Ce contrôle crée, cependant, une situation juridique étrange, inédite, un peu baroque, dans laquelle les conditions générales de Facebook sont appréciées comme si elles définissaient un ordre juridique étatique. La légalité sur la plateforme, déterminée par « les normes communautaires de Facebook et les lignes directrices communautaires d’Instagram », constitue une sorte d’horizon indépassable. En cela, la décision ne paraît pas seulement appliquer les garanties prévues par le droit international, elle consacre également cet ordonnancement un peu étrange, constitué par les règles de la plateforme. C’est d’ailleurs uniquement parce que Facebook l’a décidé que les normes internationales sont ici convoquées, comme si, pour le reste, la plateforme n’était soumise à rien.
3. Troisième remarque : le Conseil ne juge pas utile d’accorder un statut particulier aux responsables politiques
Le Conseil balaie bien rapidement, dans sa décision, la qualité particulière du demandeur, qui était encore, au moment de sa suspension, un dirigeant politique de tout premier plan. Peu de cas est fait ici du pouvoir écrasant des grandes entreprises technologiques, qui ont la possibilité de réduire au silence le Président des Etats-Unis sortant, venant de remporter 74 millions de suffrages, sur le seul fondement de leurs conditions d’utilisation. La chose se comprend : créé et désigné par Facebook, l’Oversight Board accepte d’emblée l’idée que la plateforme devienne, par sa politique de modération, un arbitre du débat démocratique en contrôlant ce qui peut être dit, publiquement, par des responsables politiques élus.
Facebook avait précisément demandé au Conseil de formuler des recommandations relatives à la politique à adopter à l’égard des dirigeants politiques, qu’il s’agisse des hauts fonctionnaires, des élus ou des candidats à une élection. Le Conseil se contente ici de recommandations très générales. Surtout, il ne croit pas utile de marquer une véritable différence entre d’un côté, les dirigeants politiques, et, de l’autre, les personnes particulièrement influentes sur les réseaux sociaux mais dépourvues de mandats politiques. Le raisonnement mené par le Conseil pour aboutir à cette conclusion est exclusivement fondé sur les risques : les personnes dotées d’une forte audience peuvent en effet, dit le Conseil, générer des risques sérieux, peu important qu’elles aient ou non des fonctions officielles. « Ce qui est important, c’est le degré d’influence ». Le Conseil insiste donc sur les risques et les nuisances générés par les discours des dirigeants politiques en balayant d’un revers de main leur légitimité ou la nécessité, pour les citoyens, d’avoir connaissance de leurs propos. En cas de risque de dommage au regard des normes internationales en matière de droits de l’homme, insiste le Conseil, Facebook doit suspendre le compte. Mais c’est à la plateforme d’apprécier, seule, le bien-fondé de la suspension! Le dirigeant politique concerné n’aura qu’à, dans un deuxième temps, s’adresser à l’Oversight Board…
Il est regrettable que le Conseil se refuse à tracer une différence entre les utilisateurs officiellement habilités à représenter l’Etat et les autres. Sa position est d’autant plus étonnante que Facebook, comme d’autres plateformes, a adopté des conditions particulières à l’intention des personnes influentes et des responsables politiques, vis-à-vis desquels existe une tolérance accrue au motif que leur parole est d’ « intérêt médiatique » (« newsworthiness« ). Il est d’ailleurs dit dans la décision que les comptes à forte notoriété font l’objet de « vérifications croisées » afin de minimiser les erreurs de modération. Ce qui n’empêche pas Facebook d’agir en présence de violations répétées de ses conditions générales : fin mars 2021, Facebook a décidé d’empêcher, pendant 30 jours, le Président vénézuelien, Nicolas Maduro, de publier ou commenter quoi que ce soit sur le réseau au motif que l’intéressé avait enfreint de manière récurrente les conditions générales en faisant l’éloge d’un médicament contre le covid-19 dont l’efficacité n’est pas démontrée. Dans de telles circonstances, l’on ne peut que déplorer le refus du Conseil de se prononcer de manière plus spécifique sur la conduite à tenir à l’égard des dirigeants politiques.
Restent quelques recommandations que l’on peut approuver. Le Conseil suggère, en effet, de confier le processus de modération des contenus à caractère politique à un personnel spécialisé et en mesure d’évaluer le contexte politique. Il incite, par ailleurs, à davantage de transparence concernant les règles applicables aux utilisateurs influents.
4. Quatrième remarque : Facebook a encore des progrès à faire du point de vue de la transparence
Le Conseil souligne à plusieurs reprises que les règles de Facebook manquent de clarté et que leur mise en œuvre n’est pas suffisamment transparente, notamment quant aux sanctions. L’on relèvera d’ailleurs que Facebook a refusé de répondre à certaines questions du Conseil, comme celles portant sur la configuration de la plateforme et son impact sur la visibilité des publications de Donald Trump ou sur la manière dont les dirigeants politiques sont généralement traités. L’on saluera, une fois de plus, les recommandations du Conseil en faveur d’une transparence accrue, même si ces recommandations restent très générales. L’on relèvera également que le Conseil demande une véritable investigation sur la contribution potentielle de Facebook aux accusations de fraude électorale et aux tensions qu’elles ont suscitées.
5. Cinquième remarque : le Conseil apparaît moins comme un contre-pouvoir que comme un organe chargé de garantir la mise en œuvre satisfaisante de la politique de la plateforme
Dans sa décision, le Conseil s’en tient à son mandat, tel qu’il a été défini par Facebook. Il contrôle les décisions de la plateforme au regard de ses propres conditions générales et des normes internationales auxquelles Facebook a choisi de se soumettre. Mais ce contrôle reste des plus limité, restreint à un « ordre juridique » dont les contours sont définis par Facebook et dans lequel aucun droit étatique ne peut pénétrer. Aucune norme constitutionnelle ou législative n’a ici vocation à être prise en compte, en sus des règles de Facebook et de principes internationaux très généraux dont on ignore encore s’ils vont vraiment prévaloir sur les règles de la plateforme. Tout ceci est-il suffisant pour garantir les droits des personnes évoluant sur le réseau ? Si l’on peut saluer l’initiative de Facebook et la manière dont le Conseil entend, tant bien que mal, s’acquitter de sa mission, il reste que la plateforme n’est pas un Etat. Le mécanisme de contrôle quasi-juridictionnel ici mis en place s’exerce à l’égard et dans le cadre d’une entreprise privée qui n’obéit à aucun contrôle démocratique et ne répond pas de ses actes devant le peuple. De ce point de vue, il est difficile à l’observateur français de voir dans la décision du Conseil, un équivalent à la décision Marbury v Madison, comme certains commentateurs l’ont écrit. Reste à voir si, dans la durée et dans le périmètre limité qui est le sien, le Conseil parviendra à faire prévaloir ces garanties fondamentales que sont la transparence, l’intégrité et la liberté. Telle est la condition à remplir pour que le Conseil puisse assoir son autorité et traiter un jour, comme il le souhaite, des contestations portées devant les autres réseaux sociaux.
Il ne faut, enfin, pas oublier que la légitimité du Conseil pose question. Il est composé de membres exclusivement nommés par Facebook, selon des critères qui lui appartiennent, et rémunérés, fût-ce indirectement, par la plateforme (au moyen d’un trust dans lequel Facebook a placé 130 millions de dollars). A ce problème d’indépendance s’ajoute la question de la représentativité des membres du Conseil, qui comprend un nombre important (excessif?) d’américains (cinq). Peut-on, dans ces conditions, espérer que des principes globaux relatifs aux discours en ligne puissent être dégagés ou s’agira-t-il simplement ici d’appliquer les conceptions occidentales, et notamment américaines, relatives à la liberté d’expression ? L’on pourrait tout aussi bien voir dans ce Conseil de Surveillance un organe chargé de conforter Facebook dans sa stratégie originelle, particulièrement favorable à la liberté d’expression. C’est d’ailleurs cette crainte qui a conduit à la création, par un groupe d’experts, d’une instance informelle et concurrente, le « Real Facebook Oversight Board« », où l’on trouve, par exemple, l’ancien président estonien, Toomas Henrik Ilves, la professeure Shoshana Zuboff, et Derrick Johnson, le président du NAACP.
En réalité, l’importance donnée outre-atlantique au Conseil de Surveillance et à sa fonction quasi-juridictionnelle découle largement du vide juridique créé par l’impossibilité, pour les utilisateurs américains, d’invoquer le Premier Amendement à l’encontre des décisions de modération ou de mettre en jeu la responsabilité des plateformes du fait de l’immunité garantie par la section 230 du Communications Act of 1934. Ce vide, qui explique l’objectif affiché par Facebook de construire un corpus de précédents (Charte du FOB, article 2 section 2), n’est pas ressenti à l’identique en Europe et en France, où des textes législatifs en cours d’élaboration s’apprêtent précisément à accorder de nouvelles garanties aux utilisateurs. La proposition de Règlement Européen Digital Services Act (articles 17 et 18) et le projet de loi français confortant le respect des principes de la République et de lutte contre le séparatisme (article 19 bis) renforcent, en effet, les possibilités de recours internes et externes à l’encontre des décisions de modération, qui peuvent s’exercer devant des organismes de règlements alternatif des litiges ou devant les tribunaux. Nul doute, d’ailleurs, que les décisions du Conseil de Surveillance pourront, un jour ou l’autre, être contestées devant les juridictions nationales compétentes.
Quoi qu’il en soit, la balle est, désormais, dans le camp de Facebook qui devra, d’ici au 4 juin, divulguer sa position quant aux recommandations politiques non contraignantes du Conseil, puis, d’ici 6 mois, prendre enfin sa décision définitive concernant le compte de Trump.
Merci de cette contribution très intéressante Florence. En lien avec cet article, mais au delà de Trump, captivée par la régulation privée et les nouvelles formes de justice non étatique. Se dessine un double système, inquiétant pour la souveraineté des Etats, mais aussi la protection des particuliers.