Ni opérateur téléphonique ni média : Facebook imagine sa « troisième voie »

En déplacement à Bruxelles, Mark Zuckerberg a présenté les grandes lignes de sa vision pour une régulation « équilibrée » des contenus sur les réseaux sociaux.

Par Publié le 17 février 2020 à 17h46 - Mis à jour le 18 février 2020 à 10h45

Temps de Lecture 4 min.

Le fondateur de Facebook, Mark Zuckerberg, à Bruxelles lundi 17 février.
Le fondateur de Facebook, Mark Zuckerberg, à Bruxelles lundi 17 février. KENZO TRIBOUILLARD / AFP

« Il me semble que nous devrions avoir plus de responsabilités que n’en ont les opérateurs mais, d’un autre côté, nous ne pouvons pas non plus être traités comme des médias. Il y a plus de 100 millions de messages qui sont publiés quotidiennement sur Facebook ; le modèle des médias serait inapplicable. » De passage à Bruxelles lundi 17 février, où il devait rencontrer plusieurs commissaires européens, le fondateur de Facebook, Mark Zuckerberg, a rapidement présenté sa vision d’un nouveau cadre pour les entreprises comme la sienne, et de leur responsabilité concernant les contenus qu’elles hébergent. Critiqué de toute part, alternativement pour une modération jugée trop laxiste ou trop sévère, trop permissive ou attentatoire à la liberté d’expression, le réseau social en appelle à un « nouveau modèle ».

Peu de régulateurs contrediront M. Zuckerberg sur ce point : depuis plusieurs années, la taille atteinte par quelques entreprises comme Facebook et Google a bouleversé la classique distinction entre les « hébergeurs » de contenus, aux responsabilités limitées, et les « éditeurs » de contenus, responsables de tout ce qu’ils publient. Au niveau européen, le sujet est au cœur des discussions sur la future directive e-commerce. Mais si le fait que Facebook ou Google méritent un statut hybride fait presque l’unanimité en Europe, reste à le définir.

Obligation de moyens

C’est, en creux, l’objectif d’un « livre blanc » – document de réflexion – rendu public par Facebook ce 17 février. Sur une dizaine de pages, le texte détaille les principales questions qui se posent, selon Facebook, pour définir la responsabilité de ces grands acteurs dans un certain nombre de cas. Sur l’équilibre à trouver entre modération effective et protection de la liberté d’expression, Facebook plaide ainsi pour une obligation de moyens : « Ce que nous proposons, c’est un nouveau modèle, avec une approche systémique », a détaillé M. Zuckerberg ce lundi.

En pratique, Facebook plaide pour que « les entreprises d’Internet aient l’obligation de mettre en place certaines procédures et systèmes », précise le document. Dans cette approche, les géants du Web devront « atteindre certains buts chiffrés dans la lutte contre les contenus qui ne respectent pas leurs règles ». Facebook souhaite également que soient clairement définies « les formes spécifiques de discours qui, sans être illégales, peuvent être interdites en ligne ». Et rappelle en préambule que l’application de règles de modération « ne pourra jamais être parfaite », en raison des complexités du langage humain.

Automatisation de la modération

Cette approche reflète précisément celle mise en place par Facebook, en interne, depuis plusieurs années. Le réseau social a lourdement investi dans les outils automatisés, avec pour but d’effacer des contenus illégaux avant même qu’ils n’aient été vus par des utilisateurs humains. L’entreprise affirme désormais supprimer la quasi-totalité des messages de propagande de l’organisation Etat islamique de cette manière. Mais pour d’autres types de contenus, comme les appels à la haine ou les incitations au harcèlement, pour lesquels le contexte est très important, les chiffres sont bien moindres, mais en constante progression, affirme Facebook, qui recourt par ailleurs à des dizaines de milliers de modérateurs humains.

Lire aussi Facebook, Google et Twitter lancent une structure indépendante de lutte contre l’extrémisme

La généralisation de cette approche soulèverait cependant plusieurs difficultés. D’une part, les chiffres présentés par Facebook – et d’autres réseaux sociaux ayant la même vision – ne sont audités par aucune source extérieure, faisant de Facebook son propre examinateur. Dans une tribune publiée par le Financial Times ce lundi, M. Zuckerberg reconnaît que Facebook pourrait avoir besoin de « plus de supervision ». Par ailleurs, les obligations de moyens pourraient être jugées par certains régulateurs comme une entrave à la libre concurrence – il a fallu à Facebook beaucoup de temps et d’investissements pour mettre au point la technologie de modération que l’entreprise utilise actuellement, et il serait difficile pour un nouveau concurrent de l’imiter rapidement.

« Début d’une discussion »

Surtout, l’obligation de moyens préconisée ne tranche pas vraiment l’épineuse question de ce qui constitue un appel à la haine ou à la violence, par exemple. « Nous sommes une entreprise privée, ce n’est pas à nous de décider ce que, par exemple, les candidats et candidates à une élection ont le droit de dire », a dit M. Zuckerberg ce lundi à Bruxelles, reprenant un argument qu’il a répété à de multiples reprises ces derniers mois. C’est aux législateurs de créer les règles, estime Facebook, tout en leur recommandant dans son « livre blanc » de « créer des règles qui sont applicables, y compris à grande échelle, même lorsque le contexte est limité ».

Le document pose beaucoup de – bonnes – questions mais n’apporte finalement que peu de réponses, comme le reconnaît sa conclusion, intitulée « c’est le début d’une discussion ». La discussion n’est cependant pas tout à fait nouvelle, et certains législateurs ont déjà tranché, sur certains points, dans un sens différent de ce que préconisait Facebook. En France, la loi Avia sur les messages haineux en ligne prévoit notamment une obligation pour les grandes plates-formes de supprimer les messages illégaux sous vingt-quatre heures. Facebook, de son côté, estime que le délai de modération est un mauvais critère, et que c’est avant tout la viralité d’un message qui le rend dangereux. Un argument qui n’a pas convaincu les parlementaires français, malgré un travail collaboratif inédit entre le réseau social et des députés, en préparation du texte.

Les arguments du réseau social porteront-ils davantage au niveau européen ? A la sortie d’une réunion avec Mark Zuckerberg, lundi, Thierry Breton, le commissaire européen à l’industrie, s’est félicité d’avoir eu un « très bon dialogue » avec le patron de Facebook. Tout en menaçant les plates-formes de prendre des « mesures contraignantes » si l’autorégulation échouait – sans préciser lesquelles.

Lire aussi « Taxe GAFA » : Mark Zuckerberg soutient la réforme de l’OCDE même si Facebook doit « payer plus d’impôts »
Contribuer

Dans la même rubrique

Services

Lecture du Monde en cours sur un autre appareil.

Vous pouvez lire Le Monde sur un seul appareil à la fois

Ce message s’affichera sur l’autre appareil.

  • Parce qu’une autre personne (ou vous) est en train de lire Le Monde avec ce compte sur un autre appareil.

    Vous ne pouvez lire Le Monde que sur un seul appareil à la fois (ordinateur, téléphone ou tablette).

  • Comment ne plus voir ce message ?

    En cliquant sur «  » et en vous assurant que vous êtes la seule personne à consulter Le Monde avec ce compte.

  • Que se passera-t-il si vous continuez à lire ici ?

    Ce message s’affichera sur l’autre appareil. Ce dernier restera connecté avec ce compte.

  • Y a-t-il d’autres limites ?

    Non. Vous pouvez vous connecter avec votre compte sur autant d’appareils que vous le souhaitez, mais en les utilisant à des moments différents.

  • Vous ignorez qui est l’autre personne ?

    Nous vous conseillons de modifier votre mot de passe.