Les députés ont donné ce jeudi matin leur aval à ces nouvelles règles consistant à obliger les réseaux sociaux à faire œuvre de transparence sur le fonctionnement de leur modération et mieux encadrer cette dernière. Un amendement avait été déposé par le gouvernement reprenant les grandes lignes du Digital Services Act européen. Il a été adopté à 98 voix pour et 2 contre.
La Commission européenne a présenté le texte européen en décembre mais il doit désormais être débattu par le Parlement européen et le Conseil, pour une adoption espérée courant 2022. Le gouvernement français a choisi de prendre de vitesse Bruxelles en « transposant par anticipation » un règlement encore non débattu, en expliquant que la régulation de la haine en ligne ne peut attendre. L’article 19 bis contient une clause indiquant qu’il deviendra caduc en 2023, afin d’être remplacé par le règlement européen.
L’article 19 bis introduit une liste d’obligations pour les réseaux sociaux et les moteurs de recherche à partir d’un certain seuil d’audience qui sera fixé par décret. Il cible une liste précise de contenus illicites : l’apologie des crimes, des crimes de guerre, des crimes contre l’humanité et de l’esclavage et également les provocations à la haine contre les personnes en raison de leurs origines, de leur religion, de leur orientation sexuelle ou de leur handicap. La pédopornographie, les contenus terroristes, le proxénétisme, le harcèlement sexuel sont aussi visés et le fait de « donner accès aux mineurs à des messages violents ou pornographiques ».
Les nouvelles obligations entendent contrôler toute la chaîne de modération des contenus et introduisent de nouveaux droits et devoirs. Une personne signalant à un réseau social un contenu problématique doit être, par exemple, informée des suites de la procédure et doit pouvoir faire un recours si rien ne se passe. De l’autre côté de la barrière, un utilisateur qui voit une de ses publications être dépubliée doit en être informé par le réseau social qui doit expliquer sa décision. L’internaute doit, ici, pouvoir aussi faire appel.
Les plateformes ciblées par l’article 19 bis devront nommer un représentant légal en France qui sera l’interlocuteur privilégié des forces de police et de justice et des pouvoirs publics. En effet, certains réseaux renvoient les autorités françaises à leurs bureaux irlandais ou américain qui ne répondent pas toujours aux requêtes de la justice pour identifier un utilisateur. Des plaintes déposées pour harcèlement ou appel à la violence n’aboutissent donc pas, faute de coopération. Début février, trois victimes de cyberharcèlement ont déposé plainte contre Twitter pour « refus de déférer à une demande d’une autorité judiciaire » et « complicité des délits d’injure publique ».
L’article 19 bis oblige les plateformes à enfin ouvrir grand les portes de leurs services de modération au CSA qui devient leur régulateur. La transparence sera exigée sur le fonctionnement des algorithmes de modération des contenus pour que le CSA puisse évaluer leur efficacité. Également, le régulateur devra connaître le nombre de modérateurs alloués à la France pour chaque plateforme et, si besoin, exiger que leur nombre soit augmenté.
source : https://www.observateurcontinental.fr/
Source : Lire l'article complet par Réseau International
Source: Lire l'article complet de Réseau International