La Fondation Wikimédia, l’organisation à but non lucratif qui gère Wikipédia, salue les efforts des décideurs européens pour rendre la modération de contenu plus responsable et transparente. Cependant, certaines des dispositions actuelles de la DSA et des amendements proposés incluent également des exigences qui sont susceptibles de menacer le modèle collaboratif et à but non lucratif de Wikipédia.
Le système collaboratif ouvert de Wikipédia permet un partage des connaissances à l’échelle mondiale depuis plus de 20 ans. C’est l’un des sites web les plus appréciés au monde, ainsi que l’une des sources les plus fiables pour obtenir des connaissances actualisées sur le COVID-19. Tout ceci ne peut être possible que grâce aux lois qui protègent son modèle basé sur le bénévolat. Mais aujourd’hui, ce modèle alimenté par les utilisateurs est pris entre les feux croisés des amendements de la DSA.
Le cadre actuel de la DSA est conçu pour traiter les modèles d’exploitation des grandes plateformes technologiques. Mais un grand nombre de sites web, dont Wikipédia, ne fonctionnent pas de la même manière que les plateformes technologiques à but lucratif. Appliquer une solution unique au problème complexe qu’est le contenu illégal en ligne pourrait étouffer un écosystème diversifié, florissant et non commercial constitué de communautés et de plateformes en ligne.
Nous appelons les législateurs européens à adopter une approche plus nuancée de la réglementation de l’internet. internet ne se résume pas aux plateformes des géants du web dirigées par des multinationales. Nous demandons aux législateurs de protéger et de soutenir les projets d’intérêt public à but non lucratif et gérés par des communautés, comme Wikipédia, alors que la DSA est en cours d’examen au Parlement et au Conseil européens.
Nous sommes prêts à travailler avec les législateurs pour modifier les textes de la DSA (La législation sur les services numériques) afin qu’ils permettent et protègent la capacité de tous les Européens à collaborer dans l’intérêt général.
Protégez Wikipédia, protégez l’internet grand public.
Voici quatre aspects que les décideurs devraient connaître avant de finaliser la législation sur les services numériques (DSA) :
- La DSA doit s’attaquer aux systèmes algorithmiques et aux modèles commerciaux qui sont à l’origine des préjudices causés par les contenus illégaux.
Les dispositions de la DSA restent trop axées sur le retrait du contenu par le biais de processus normatifs de retrait du contenu. En réalité, supprimer tout contenu illégal de l’internet dès son apparition est une tâche aussi ardue que de prévenir et d’éliminer tout crime dans le monde réel. Étant donné que l’Union européenne s’est engagée à protéger les droits de l’homme en ligne et hors ligne, les législateurs devraient se pencher sur la première cause des multiples préjudices en ligne : les systèmes qui amplifient et diffusent les contenus illégaux.
Un internet plus sûr n’est possible que si les dispositions de la DSA s’attaquent au modèle commercial de la publicité ciblée qui favorise la diffusion de contenus illégaux. Comme l’a souligné la lanceuse d’alerte de Facebook, Frances Haugen, dans son récent témoignage à Bruxelles, les algorithmes qui génèrent des profits pour les placements publicitaires sont également à l’origine du problème que la DSA cherche à résoudre. La nouvelle réglementation devrait se concentrer sur ces mécanismes qui maximisent la portée et l’impact des contenus illégaux.
Mais les législateurs ne devraient pas se concentrer excessivement sur Facebook et les plateformes similaires. En tant que site web à but non lucratif, Wikipédia est accessible gratuitement à tous, sans publicité et sans suivi du comportement des lecteurs. Notre modèle collaboratif de production et de gouvernance du contenu, dirigé par des bénévoles, contribue à garantir la neutralité et la fiabilité du contenu de Wikipédia. Des milliers d’éditeurs délibèrent, débattent et travaillent ensemble pour décider quelles informations sont incluses et comment elles sont présentées. Cela fonctionne très différemment des systèmes centralisés qui s’appuient sur des algorithmes pour partager les informations de manière à maximiser l’engagement et pour modérer les contenus potentiellement illégaux ou nuisibles.
“Wikipédia a démontré qu’il est possible de créer des environnements en ligne sains qui résistent à la désinformation et à la manipulation. Grâce à la nuance et au contexte, Wikipedia propose un modèle qui fonctionne bien pour résoudre les subtilités requises dans la modération de contenu. Il peut certes y avoir des désaccords parmi les volontaires sur la façon de présenter un sujet, mais ce débat génère de meilleurs articles, plus neutres et fiables. Ce processus est ce qui lui a permis d’être l’un des modèles de modération de contenu les plus réussis de nos jours et de nos temps.”
Brit Stakston, Stratège média et membre du conseil d’administration de Wikimedia Sverige
- Les conditions de service doivent être transparentes et équitables, mais les régulateurs ne doivent pas être excessivement normatifs dans la détermination de la manière dont elles sont créées et appliquées.
Actuellement, l’article 12 du projet de la DSA stipule qu’un fournisseur en ligne doit divulguer ses conditions de service – ses règles et outils de modération de contenu – et qu’elles doivent être appliquées « de manière diligente, objective et proportionnée ». Nous convenons que les conditions de service doivent être aussi transparentes et équitables que possible. Cependant, les mots « objectif » et « proportionné » laissent place à une interprétation ouverte et vague. Nous comprenons l’intention, qui est de rendre les processus de modération de contenu des entreprises moins arbitraires et opaques. Mais obliger les plateformes à être « objectives » en ce qui concerne les violations des conditions de service aurait des conséquences imprévues. Une telle terminologie pourrait potentiellement conduire à une application qui rendrait impossible pour des plateformes administrées par des communautés comme Wikipédia d’utiliser des processus collaboratifs dirigés par des bénévoles pour créer de nouvelles règles et faire appliquer les règles existantes qui prennent en compte de manière appropriée le contexte et l’origine de tout contenu.
Les règles de gestion du contenu et de conduite sur Wikipédia sont élaborées et appliquées par les personnes qui contribuent à Wikipédia elles-mêmes. Ce modèle permet aux personnes qui connaissent un sujet de déterminer le contenu qui devrait exister sur le site et la manière dont ce contenu devrait être maintenu, sur la base de la neutralité de point de vue et de sources fiables établies. Ce modèle, bien qu’imparfait, permet à Wikipédia de rester neutre et fiable. Plus il y a de personnes qui s’engagent dans le processus éditorial de débats, de vérification des faits et d’ajout d’informations, plus les articles de Wikipédia ont tendance à devenir plus neutres. Plus encore, les délibérations, les décisions et les mesures d’application des bénévoles sont publiquement documentées sur le site web.
Cette démarche de création de contenu et de gouvernance est très éloignée de la structure de pouvoir hiérarchique descendante des plateformes commerciales que les dispositions de la DSA ciblent. La DSA devrait protéger et promouvoir les espaces sur le web qui permettent une collaboration ouverte au lieu de forcer Wikipédia à se conformer à un modèle descendant.
- Le processus d’identification et de suppression des « contenus illégaux » doit inclure les communautés d’utilisateurs.
L’article 14 stipule que les plateformes en ligne seront responsables de la suppression de tout contenu illégal qui pourrait être téléversé par les utilisateurs, une fois que les plateformes auront été informées de ce contenu illégal. Il stipule également que les plateformes seront responsables quant à la création de mécanismes permettant aux utilisateurs d’alerter les fournisseurs de plateformes en cas de contenu illégal. Ces dispositions ont tendance à ne toucher qu’un seul type de plateforme : celles dotées de systèmes centralisés de modération du contenu, où les utilisateurs ont une capacité limitée à participer aux décisions prises concernant le contenu, et où la modération a plutôt tendance à incomber à un dispositif unique géré par la plateforme. Il n’est pas clair comment les plateformes qui ne font pas partie de cet archétype seront affectées par les versions finales de ces dispositions.
Le modèle Wikipédia accorde aux bénévoles qui éditent le contenu de Wikipédia le pouvoir de supprimer le contenu en fonction d’un ensemble de règles mutuellement approuvées. Ainsi, si la Fondation Wikimédia traite certaines demandes d’évaluation de contenus illégaux, la grande majorité des contenus qui ne respectent pas les normes de Wikipédia sont traités par les bénévoles avant même qu’une plainte ne soit portée à la Fondation. Dans ce cas, une mesure unique ne convient tout simplement pas à tous.
Nous redoutons qu’en plaçant la responsabilité légale de l’application de la loi uniquement sur les fournisseurs de services et en exigeant d’eux qu’ils respectent des normes strictes pour le retrait du contenu, le texte de loi décourage les systèmes qui reposent sur des modérateurs communautaires et des processus délibératifs. En fait, il a été prouvé que ces processus fonctionnent très bien pour identifier et supprimer rapidement le mauvais contenu. Le résultat serait un monde en ligne dans lequel les fournisseurs de services, et non les gens, contrôlent les informations disponibles en ligne. Nous craignons que cette disposition ne fasse exactement le contraire de l’intention de la DSA en donnant plus de pouvoir aux plateformes, et moins aux personnes qui les utilisent.
- Les humains ne peuvent être remplacés par des algorithmes lorsqu’il s’agit de modérer du contenu.
Les meilleures parties du contenu sur internet sont alimentées par les utilisateurs, et non pas en dépit d’eux. Les articles 12 et 14 obligeraient les opérateurs de plateformes à prendre le contrôle de toutes les décisions relatives à la modération du contenu, ce qui inciterait, voire exigerait, l’utilisation de systèmes de détection automatique du contenu. Si ces systèmes peuvent soutenir la modération des contenus par la communauté en signalant les contenus à examiner, ils ne peuvent pas remplacer les humains. En effet, les recherches ont mis en évidence des préjugés systémiques et des taux d’erreur élevés qui sont trop souvent associés à l’utilisation d’outils automatisés. Ces algorithmes peuvent donc aggraver le dommage causé par l’amplification. Les outils automatisés sont limités dans leur capacité à identifier les contenus marginaux qui peuvent être extrêmes, mais qui ont néanmoins une valeur d’intérêt public. Un exemple de ce type de contenu est constitué par les vidéos documentant les violations des droits de l’homme, dont il a été démontré qu’elles sont rapidement supprimées. Ces exemples ne font que souligner la nécessité de donner la priorité au contexte humain plutôt qu’à la rapidité.
Par conséquent, les législateurs européens devraient éviter de trop se baser sur le type d’algorithmes utilisés par les plateformes commerciales pour modérer le contenu. Si la DSA force ou incite les plateformes à déployer des algorithmes pour juger de la valeur ou de la nature illicite d’un contenu, nous passons tous – en tant que citoyens numériques – à côté de l’opportunité de façonner ensemble notre avenir numérique.
Sur Wikipédia, les outils d’apprentissage automatique sont utilisés pour faciliter, et non pour remplacer, la modération humaine des contenus. Ces outils fonctionnent de manière transparente sur Wikipédia, et les bénévoles ont le dernier mot sur les actions que les outils d’apprentissage automatique pourraient suggérer. Comme nous l’avons vu, le fait de confier davantage de pouvoir décisionnel aux lecteurs et aux éditeurs de Wikipédia rend le site plus solide et plus fiable.
« Il est impossible de faire confiance à un “algorithme parfait” pour modérer le contenu en ligne. Il y aura toujours des erreurs, par malveillance ou autre. Wikipédia a du succès parce qu’elle ne suit pas un modèle prédéfini ; elle s’appuie plutôt sur les discussions et le consensus des humains au lieu des algorithmes. »
Maurizio Codogno, Bénévole italien de longue date sur Wikipédia
Nous invitons les décideurs politiques à réfléchir à la manière dont de nouvelles règles peuvent contribuer à remodeler nos espaces numériques afin que les plateformes collaboratives comme la nôtre ne soient plus l’exception. La réglementation devrait permettre aux gens de prendre le contrôle de leurs espaces publics numériques, au lieu de les confiner dans un rôle de récepteurs passifs des pratiques de modération des contenus. Nous avons besoin de cadres politiques et juridiques qui permettent aux citoyens de façonner l’avenir de l’internet, plutôt que de forcer les plateformes à les exclure davantage.
Notre communauté d’intérêt général est là pour s’engager auprès des législateurs afin d’aider à concevoir des réglementations qui donnent aux citoyens les moyens d’améliorer ensemble nos espaces en ligne.
« Le savoir de l’humanité est, le plus souvent, encore inaccessible à beaucoup : qu’il soit stocké dans des archives privées, caché dans des bases de données peu connues ou perdu dans la mémoire de nos aînés. Wikipédia vise à améliorer la diffusion des connaissances en numérisant notre patrimoine et en le partageant librement pour tous en ligne. La pandémie de COVID-19 et l’infodémie qui a suivi ne font que nous rappeler l’importance de la diffusion de la connaissance libre. »
Pierre-Yves Beaudouin, Président de Wikimédia France
Comment joindre les experts en politique de Wikimédia ?
- Pour les demandes des médias concernant la position de Wikimédia sur la DSA, veuillez contacter press@wikimedia.org
- Pour les députés européens et leur personnel, veuillez contacter Jan Gerlach, Public Policy Director, jgerlach@wikimedia.org