Les propositions des écologistes pour la loi sur les services numériques

Le groupe Vert/ALE a travaillé à une proposition de procédure contraignante de « notification et d’action » et de modération des contenus par les plateformes en ligne à intégrer dans la prochaine loi européenne sur les services numériques (Digital Service Act – DSA).

Travailler à cette proposition n’a pas été simple car il n’y a, pour le moment, aucune règle claire sur le fonctionnement des plateformes en ligne comme YouTube, Twitter, Facebook, Instagram et les autres, ni pour réguler la façon dont elles doivent traiter les réclamations, les signalements de contenus illégaux et comment elles doivent intégrer la question de la modération dans leurs conditions d’utilisation.

La loi sur les services numériques (Digital Service Act – DSA) est l’occasion de bâtir un meilleur internet, plus démocratique et plus sûr. Nous devons nous assurer que les contenus illégaux soient retirés tout en protégeant notre liberté d’expression. Avec cette proposition de loi, le groupe Verts/ALE propose le premier cadre global pour un mécanisme européen, publié par la Commission le 15 décembre et qui servira de base à notre travail législatif sur la DSA.

Ce projet de texte a été ouvert au public du 1er octobre au 1er novembre. Nous avons ensuite travaillé à une version qui prend en compte tous les commentaires que nous avons reçus (dans la mesure du possible).

En tant qu’écologistes, nous pensons que la collaboration et les processus participatifs peuvent permettre aux législateurs de faire de meilleures lois qui reflètent l’état de la réflexion des ONG, des chercheuses et des chercheurs, des industriel·le·s et des expert·e·s de renommée internationale. Si nous ne prétendons pas avoir toutes les réponses, notre proposition contient une première série de solutions adaptées.

Nous avons bénéficié de l’apport de la société civile, de l’industrie, de chercheuses et de chercheurs et d’expert·e·s internationales/aux de renom que nous ne remercierons jamais assez pour leurs précieuses contributions.

Règlement pour une procédure de “notification et d’action” et de modération des contenus

Quel est le but de notre proposition ?

Internet est un outil puissant qui nous permet de communiquer avec le monde entier, de nous rencontrer, de construire des réseaux, de collaborer, d’accéder à l’information et à la culture et d’exprimer et de propager des opinions politiques.

Malheureusement, des plateformes comme YouTube, Instagram, Twitter et TikTok filtrent et modèrent les contenus d’une manière qui entraîne de nombreux dommages collatéraux. Trop souvent, des contenus haineux, qui visant spécifiquement des groupes minoritaires, restent en ligne. En revanche, des messages légaux, des vidéos, des comptes et des publicités sont supprimés et les plateformes rendent toute contestation difficile. Cela a des répercussions sérieuses sur la liberté d’expression en ligne. Pour qu’internet soit plus sûr et plus démocratique, nous avons besoin de règles claires sur la manière dont les plateformes doivent gérer les contenus pour mieux protéger nos droits fondamentaux en ligne. De nouvelles règles de procédure pourraient permettre de s’assurer que les contenus illégaux soient supprimés tout en gardant les contenus légaux en ligne.

Le texte des Verts/ALE propose le premier ensemble complet de règles pour les plateformes en ligne. Il indique comment elles doivent gérer les contenus illégaux et introduit des garde-fous pour la modération des contenus dans les conditions d’utilisation des plateformes. Cette proposition, qui a été écrite en collaboration avec des experts et des organisations de la société civile, correspond à ce que nous souhaiterions voir dans la loi européenne sur les services numériques à venir.

Parmi les solutions que nous proposons, nous souhaiterions que soit introduits un droit de signalement, un droit de recevoir un contre-signalement, des mécanismes de réclamations et de réparation spécifiques, des obligations de transparence plus fortes et un nouveau mécanisme indépendant de règlement des conflits de modération des contenus.

Cadre

Cette proposition devra s’appliquer aux plateformes en ligne qui fournissent des services numériques à destination du marché de l’Union européenne. Elle ne sera pas liée à l’endroit où l’entreprise est enregistrée ou à la localisation de son siège social. Les services non commerciaux ou qui ont moins de 100 000 utilisateurs actifs et utilisatrices actives par mois seront exemptés.

Points clefs

Les droits des citoyennes et des citoyens

La proposition offre de nouveaux droits aux citoyennes et aux citoyens et leur donne plus de contrôle sur les contenus en ligne. Parmi ces droits :

  • Un nouveau droit de signalement : signaler un contenu présumé illégal doit être facile.
  • Un nouveau droit d’information pour la personne qui fait le signalement et pour celle qui a produit le contenu : les entreprises devront informer les personnes qui ont produit le contenu de l’existence d’un signalement. Elles devront également informer la personne qui a fait le signalement de la suite qui y a été donnée.
  • Un nouveau droit de contre-signalement : à la réception du signalement, la plateforme devra informer les personnes qui ont produit le contenu de la possibilité de faire un contre-signalement et leur donner la marche à suivre pour faire une réclamation. Elle devra également informer chacune des parties de la marche à suivre pour faire appel de la décision auprès de l’autorité compétente.
  • Seul·e·s les juges sont en capacité de décider si un contenu est illégal ou non : les plateformes ne doivent pas décider de ce qui est autorisé ou non sur internet, c’est le rôle des juges.
  • Un droit à une procédure indépendante de résolution des conflits lorsqu’un contenu est supprimé selon les conditions d’utilisation de la plateforme : lorsque les grandes plateformes suppriment des contenus parfaitement légaux, c’est une atteinte à la liberté d’expression. Mais, en même temps, un contenu toxique peut être blessant ou traumatisant tout en étant légal. Dans ces cas précis, les utilisatrices et les utilisateurs devraient être en capacité de saisir une institution indépendante qui décidera de ce qui doit être fait avec le contenu.

Règles s’appliquant aux entreprises

Notre proposition impose un certain nombre d’obligations telles que :

  • L’obligation de désactiver tout contenu illégal : lorsqu’un signalement est fait, le fournisseur de service devra suspendre l’accès à tout contenu manifestement illégal. Une fois que l’autorité compétente aura statué, le fournisseur de service devra retirer au plus vite le contenu illégal.
  • Exigences pour les conditions d’utilisation : les conditions d’utilisation doivent être justes, accessibles, prévisibles, non discriminatoires, transparentes et conformes à la Charte sur les droits fondamentaux.
  • Des règles normalisées pour le signalement des contenus qui pourraient violer les conditions d’utilisation : les fournisseurs de service devront mettre en place des mécanismes pour garantir que les utilisateurs et les utilisatrices puissent effectuer des signalements précis et qui respectent un certain nombre de règles.
  • Obligations de transparence : les fournisseurs de service devront fournir une information claire sur les signalements et la façon dont ils sont traités.
  • Obligation de mettre en place un mécanisme de plainte : cela permettra à la personne qui fournit du contenu et à la personne qui effectue un signalement de déposer une plainte auprès du fournisseur de service.

Pour aller plus loin :

Lire la proposition complète du groupe Verts/ALE (en anglais)

Partager cet article

Les commentaires sont fermés.