26 Oct 2021
Intermédiaires techniques et retrait des contenus illicites
Pour agir efficacement contre les contenus dits « manifestement illicites » sur la toile, il convient non pas de mettre en œuvre une solution unique, mais un ensemble de mesures cohérentes et complémentaires. Dans cette lutte, l’implication et la responsabilité de tous les acteurs doivent être recherchées, avec l’objectif de faire cesser les atteintes sans forcément uniquement sanctionner les responsables. Les intermédiaires techniques ont ainsi un rôle important à jouer dans le retrait de ces contenus.
Pour agir efficacement contre les contenus dits « manifestement illicites » sur la toile, il convient non pas de mettre en œuvre une solution unique, mais un ensemble de mesures cohérentes et complémentaires. Dans cette lutte, l’implication et la responsabilité de tous les acteurs doivent être recherchées, avec l’objectif de faire cesser les atteintes sans forcément uniquement sanctionner les responsables. Les intermédiaires techniques ont ainsi un rôle important à jouer dans le retrait de ces contenus.
Le développement d’internet, en tant que réseau de communication accessible à tous, a suscité de nombreux débats notamment en ce qui concerne l’application du droit pour la poursuite des auteurs d’infraction qui s’apparente à un acte vain du fait de leur localisation dans le monde entier et de leur anonymat. L’Union européenne s’est alors tournée vers les personnes qui proposent des services dans la société de l’information afin qu’ils fassent directement cesser les atteintes.
Un régime de responsabilité spécial dérogeant au droit commun pour « toute personne physique ou morale qui fournit un service de la société de l’information » est prévu dans la directive 2000/31/CE du 8 juin 2000 relative « à certains aspects juridiques des services de la société de l’information, et notamment du commerce électronique, dans le marché intérieur » a prévu. Qui sont ces intermédiaires ? Ce terme recouvre divers acteurs de la société de l’information : les fournisseurs d’accès à Internet, les fournisseurs de cache et les hébergeurs de contenus.
Bien que ces activités soient susceptibles de se superposer, les acteurs ne doivent pas intervenir sur le contenu afin de bénéficier de ce régime de responsabilité. Ces derniers collaborent aux demandes de retrait de contenus illicites qui sont adressées par les ayants droit. Néanmoins, la réapparition potentielle du contenu retiré rend cette lutte loin d’être parfaite.
Besoin de l’aide d’un avocat pour un problème de contenu illicite ?
Téléphonez-nous au : 01 43 37 75 63
ou contactez-nous en cliquant sur le lien
Le filtrage ou le blocage demeurent, toutefois, des solutions permettant un contrôle sur les contenus postés sur la toile. Toutefois, la conciliation de ces mesures avec l’interdiction d’imposer une surveillance générale aux intermédiaires techniques s’impose. La directive du 8 juin 2000 a été transposée en droit français par la Loi pour la confiance dans l’économie numérique du 21 juin 2004 qui permet aux tiers (notamment aux titulaires de droits de propriété intellectuelle) de faire valoir leurs droits tout en préservant les intérêts des intermédiaires techniques de l’Internet.
Une notification présumant la connaissance par les hébergeurs de faits litigieux sur les sites qu’ils hébergent est prévue par cette loi. Or, le modèle économique de ces acteurs repose essentiellement sur la monétisation de ces contenus. Une surveillance trop accrue porterait nécessairement atteinte à leur activité et instaurerait une certaine forme de censure.
En outre, deux projets de règlements à savoir le DMA (Proposition de Règlement relatif aux marchés contestables et équitables dans le secteur numérique, COM (2020) 842 final) et le DSA (Proposition de Règlement relatif à un marché intérieur des services numériques et modifiant la directive 2000/31/CE, COM (2020) 825 final) publiés par la Commission européenne, le 15 décembre 2020, ambitionnent de rendre l’Union européenne mieux armée pour l’ère numérique.
Le DSA préserve l’interdiction d’imposer des obligations générales de contrôle aux plateformes et vise à ce que les services d’intermédiations régulent davantage leur activité. Cette régulation diffère selon qu’il s’agit de prestataires de services intermédiaires ou des grandes plateformes en ligne. Cette dernière est plus précise et contraignante lorsqu’il s’agit des grandes plateformes en ligne et elle est souple pour les prestataires de services intermédiaires. (2)
Ainsi, il faut concilier les différents intérêts en présence. Quelles sont les prérogatives des intermédiaires techniques dans le retrait des contenus illicites ?
I- La prévention des atteintes par les intermédiaires techniques
Si la mise en place de mesures de surveillance ciblée peut paraître commode en pratique, elles ne sont pas sans susciter un certain nombre de critiques et controverses (A), mais l’absence d’obligation générale de surveillance des intermédiaires à l’égard des contenus qu’ils traitent opère un tempérament à ces mesures de filtrage (B).
A) Le filtrage des contenus
Ces mesures visent à identifier des contenus et à déterminer s’il y a lieu ou non de les bloquer, c’est-à-dire d’empêcher leur circulation ou leur accessibilité. Les sites du Web 2.0 tels que YouTube ou Dailymotion sont fondés sur l’apport de contenu par leurs membres.
Ce développement de masse du contenu mis en ligne appelle les intermédiaires techniques à recourir à des solutions techniques afin de mener des politiques de filtrage. Ainsi, ces mesures peuvent être ordonnées par le juge ou être le fait volontaire des intermédiaires techniques.
S’agissant de la première hypothèse, la directive Commerce électronique prévoit la possibilité pour les autorités nationales de mettre en place des obligations de surveillance applicables à un cas spécifique. Les acteurs visés aux articles 12, 13 et 14 de la directive peuvent ainsi se voir imposer une telle obligation sans que cela ne puisse porter préjudice à leur activité.
Quant à la deuxième hypothèse, de plus en plus de dispositifs de filtrage ont été mis en place à l’initiative des intermédiaires techniques eux-mêmes. La directive Commerce électronique semble par ailleurs encourager ces initiatives (considérant 40) : « il est dans l’intérêt de toutes les parties qui participent à la fourniture de services de la société de l’information d’adopter et d’appliquer » des « mécanismes rapides et fiables permettant de retirer les informations illicites et de rendre l’accès à celles-ci impossible ».
Toutefois, la question posée est de savoir si la mise en place de ces mesures, qu’elle soit volontaire ou forcée, ne risque pas de priver les intermédiaires techniques du bénéfice du régime spécial de responsabilité qui leur est reconnu en vertu de la directive.
En effet, la neutralité de ces acteurs, leur caractère purement technique, automatique et passif, est le fruit d’une construction jurisprudentielle initiée par la CJUE (CEDH 23 mars 2010 Vuitton c/Google Adwords ) et reprise par les juridictions nationales. Il est difficile de répondre dans la mesure où les juges n’avaient pas apporté plus de précisions quant au sens à donner à cette neutralité.
Le principe de neutralité oblige les fournisseurs d’accès à internet à garantir le traitement de manière égale de tous les contenus par les mesures de gestion de trafic des services d’accès à internet. Ce principe a été consacré par le paquet Telecom puis par le règlement 2015/2120 du 25 novembre 2015 « établissant des mesures relatives à l’accès à un internet ouvert et modifiant la directive 2002/22/CE concernant le service universel et les droits des utilisateurs au regard des réseaux et services de communications électroniques » cjue et, en France, complétée notamment par les articles 40 à 47 de la loi n° 2016-1321 du 7 octobre 2016 pour une République numérique.
Le principe de neutralité a été consacré pour la première fois dans un arrêt de la Cour de Justice de l’Union européenne rendu le 15 septembre 2020 (CJUE 15 sept. 2020, Telenor, aff. jtes C-807/18 et C-39/19) où elle en précise la signification ou la portée. (3)
Mais il convient d’énoncer une distinction déjà opérée par la doctrine : Monsieur Ronan Hardouin distinguant « la neutralité technique » de « la neutralité intellectuelle ». Les mesures de filtrage-blocage permettraient une connaissance technique, mais non un contrôle intellectuel sur le contenu. Le régime de responsabilité des intermédiaires est donc maintenu.
B) Pas d’obligation générale de surveillance
La maîtrise de la masse de données traitée par les intermédiaires est extrêmement difficile. La directive Commerce électronique pose comme principe d’interdiction d’imposer aux intermédiaires techniques une obligation de surveillance : « les États membres ne doivent pas imposer aux prestataires, pour la fourniture des services visée aux articles 12, 13 et 14, une obligation générale de surveiller les informations qu’ils transmettent ou stockent, ou une obligation générale de rechercher activement des faits ou des circonstances révélant des activités illicites ».
Ce sont des considérations d’ordre économique et juridique qui justifient cela. En effet, l’objet premier de la directive est la réalisation du marché intérieur avec la libre circulation des services de la société de l’information. De plus, cette interdiction doit également s’observer comme le corollaire du régime de responsabilité allégé dont bénéficient les intermédiaires techniques sachant qu’ils « ne peuvent voir leur responsabilité engagée dès lors qu’ils s’en tiennent à [leur] rôle, et ne sont pas à l’origine de la circulation de contenus illicites, ou n’en ont pas le contrôle, ou encore font de leur mieux pour les retirer dès qu’ils en ont connaissance ».
La neutralité effective des intermédiaires est donc le gage de la libre circulation des communications électroniques qui ne font l’objet d’aucune discrimination .
Cette menace a été considérée par un arrêt Google c/Bach Films qui a énoncé que le fait d’imposer à un moteur de recherche de prévenir la réapparition dans son service d’images qualifiées d’illicites revenait à lui imposer une obligation générale de surveillance. Un tel dispositif ne peut être valable que limité dans le temps. Pour autant, les hébergeurs sont tout de même tenus d’apporter leur concours pour la mise en œuvre du retrait des contenus illicites.
Dans un arrêt de la Cour de justice de l’Union européenne, rendu le 3 octobre 2019 (Facebook Ireland Limited c/Eva Glawischnig-Piesczek), il s’agissait de la publication d’un article sur la page d’un utilisateur de Facebook. Cette publication avait la photo d’une personnalité politique pour vignette et contenait un commentaire dont les propos étaient jugés injurieux et diffamatoires par les tribunaux.
La question qui se posait était de savoir si l’injonction du juge de cesser la diffusion du contenu illicite pouvait s’étendre aux contenus équivalents ou identiques, ainsi que la portée territoriale de cette injonction.
La Cour de justice avait jugé que les réseaux sociaux doivent procéder au blocage de l’accès à tout contenu qui serait identique ou équivalent à un contenu précédemment jugé illicite par les tribunaux et que l’obligation pouvait être étendue au niveau mondial. (1)
II- La cessation des atteintes par les intermédiaires techniques
Les hébergeurs, n’étant pas soumis à une obligation générale de surveillance, prennent connaissance de l’existence de contenus illicites par le biais d’une procédure de notification (A). Une fois cette procédure mise en œuvre, il leur faut alors procéder au retrait desdits contenus (B).
A) La procédure de notification
L’ignorance du contenu illicite hébergé se trouve au cœur du régime spécial de responsabilité. Or, dès l’instant où cette connaissance est effective, les intermédiaires techniques sont tenus d’agir promptement (https://www.murielle-cahen.com/publications/p_mise.asp) pour retirer le contenu ou en rendre l’accès impossible (article 6-I-2 de la loi du 21 juin 2004).
En vertu des dispositions de l’article 6-I-5 de la LCEN, la procédure de notification est mise en place en disposant que la connaissance des faits litigieux est réputée acquise par les prestataires techniques dès lors que les éléments prescrits par la loi sont notifiés.
Quels sont ces éléments ? Il s’agit de la date des faits, d’une copie de la correspondance adressée à l’auteur ou l’éditeur des informations par laquelle il est demandé leur interruption, leur retrait ou leur modification, ou justification de ce que l’auteur ou l’éditeur n’a pas pu être contacté.
De plus, les tiers informent l’hébergeur notamment sur la description des faits litigieux et leur localisation précise dans les sites hébergés. A la suite de cette notification, les intermédiaires techniques sont dans l’obligation de retirer le contenu en menant promptement les actions qui s’imposent. À titre d’exemple, la société eBay a été condamnée par la justice pour un retrait tardif.
En effet, le site de vente aux enchères avait attendu la saisine du tribunal par le demandeur, qui avait pourtant envoyé plusieurs notifications, pour retirer promptement des propositions de revente de billets de concert à des prix supérieurs à ceux proposés par les points de vente. La même solution a été retenue à l’encontre de Dailymotion le 11 juin 2010. Ainsi, il apparaît que la jurisprudence pousse les hébergeurs à adopter une politique préventive et à retirer les contenus dans tous les cas.
B) Le retrait du contenu
Bien que, en principe, les intermédiaires techniques n’ont pas intérêt et ne souhaitent pas retirer les contenus qui alimentent leurs services ; afin de voir leur régime de responsabilité préservé, ils sont tenus de ce retrait. Ainsi, est-ce que la notification d’un tiers à l’hébergeur d’un contenu qu’il juge illicite engage la responsabilité de l’intermédiaire faute d’avoir retiré promptement ces informations ou d’en avoir rendu l’accès impossible ? La réponse relève de l’appréciation du caractère « manifestement illicite » du contenu. Les auteurs s’accordent à définir cette expression par « les contenus d’une gravité avérée et dont le caractère illicite ne semble pas discutable ».
Dans le silence des textes, c’est la jurisprudence qui a eu à apprécier ce concept. Après avoir adopté une conception restrictive du principe, elle semble finalement trancher pour une approche extensive de la notion.
Dans un arrêt rendu au 12 septembre 2007 Google Inc. et Google France à Benetton Group et Bencom, la Cour d’appel a estimé que lorsqu’un certain nombre d’éléments de preuve ont été apportés par un ayant droit sur la titularité de sa marque et sur le fait que la personne exploitant la marque n’en a pas obtenu l’autorisation, alors l’information est manifestement illicite.
Néanmoins, la notion de contenu à caractère manifestement illicite semble inopérante pour tout ce qui a trait à un cas de diffamation (CA de Paris, ordonnance de référé, avril 2013).
Dans un arrêt de la cour d’appel de Versailles, rendu le 13 octobre 2020, il était question de l’application des deux critères de l’engagement de responsabilité prévus par l’article 6, I-2 de la loi pour la confiance dans l’économie numérique (LCEN).
En l’espèce, il s’agissait d’un hébergeur qui a refusé de rendre inaccessible en France un site proposant des prestations d’entremises entre des mères porteuses étrangères et des clients en mal d’enfant.
La Cour avait estimé que le caractère manifestement illicite du site était évident puisque celui-ci portait atteinte aux dispositions de l’article 16-7 du Code civil et l’article 227-12 du Code pénal prohibant la gestation pour autrui.
L’hébergeur avait été informé du caractère illicite de son site par le biais d’une notification adressée par une association de défense de l’intérêt des enfants et de protection de l’enfance le 13 juin 2016. La Cour a estimé que ce dernier a engagé sa responsabilité puisqu’il n’a pas empêché l’accès au site et l’a condamné aux versements de dommages et intérêts pour préjudice moral. (4)
Pour lire une version plus complète de cet article sur les contenus illicites, cliquez
Sources :
-
- : https://www-dalloz-fr.ezproxy.univ-paris13.fr/documentation/Document?id=DIPIT/CHRON/2021/0389
- https://www-dalloz-fr.ezproxy.univ-paris13.fr/documentation/Document?id=RTDEUR/CHRON/2021/0113
- https://www.dalloz-actualite.fr/flash/neutralite-du-net-cour-de-justice-rend-son-premier-arret#. YXLQxV5R2Uk
- https://www.lexis360.fr/Document/internet_obligation_de_prompt_retrait_du_contenu_manifestement_illicite_dun_site_heberge_zoom/JYg918PHdU-CHsuz83DIg3lnoxqb5JoTP92ipJGlf741?data=c0luZGV4PTEmckNvdW50PTI1ODgm&rndNum=6362212871&tsid=search2_