Abstract 2018-2 p. 616

La lutte contre l’utilisation des réseaux sociaux par les terroristes est devenue une préoccupation majeure au sein de la politique intérieure des États. Dans cette perspective, la Commission européenne a proposé un règlement visant à lutter contre les contenus terroristes en ligne dans lequel il délègue aux opérateurs privés la tâche de détecter ces contenus au moyen d’outils automatisés et de les supprimer. Cet article démontre que cette proposition, dans sa formulation actuelle, entraîne une ingérence injustifiée au droit à la liberté d’expression à la lumière des critères dégagés par la Cour européenne des droits de l’homme. D’abord, la capacité d’un algorithme de distinguer les propos bénéficiant de la protection du droit à la liberté d’expression de ceux qui incitent à la haine et à la violence est mise en doute. Ensuite, la difficulté de traduire en langage informatique les éléments de définition des « contenus à caractère terroriste » ainsi que le manque de fiabilité de l’intelligence artificielle risquent de conduire à une suppression des contenus au-delà du nécessaire. Enfin, la délégation du contrôle des contenus à ces opérateurs privés entraîne un risque de censure excessive compte tenu de l’évolution du régime de responsabilité applicable à ces derniers.

 

The fight against the use of social networks by terrorists has become a major concern in the domestic policies of states. In this context, the European Commission has proposed a regulation to combat online terrorist content in which it delegates to private operators the task of detecting such content by using automated tools and removing it. This article demonstrates that this proposal, in its current wording, entails an unjustified interference with the right to freedom of expression in the light of the criteria established by the European Court of Human Rights. First, the ability of an algorithm to distinguish between discourses that are protected by the right to freedom of expression and hate speech is questioned. Secondly, the difficulty of translating into computer language the elements of the definition of “terrorist content” and the unreliability of artificial intelligence may lead to the deletion of content beyond what is necessary. Finally, the delegation of content control to private operators also entails a risk of excessive censorship given the evolution of the liability regime applicable to them.

 
Dernière actualité

Le numéro 2020/1 de la Revue belge de droit international est paru.

Lire la suite

 

Partagez

Bookmark and Share