hébergeurs

Est-il possible de demander le retrait d’une vidéo sur YouTube ?

Dans un monde où les plateformes numériques et les réseaux sociaux occupent une place prépondérante dans la diffusion de l’information, la question du retrait de contenus, notamment de vidéos sur des sites comme YouTube, suscite des débats juridiques de plus en plus complexes.
NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire !

L’émergence de ces nouveaux canaux de communication a profondément modifié la manière dont l’information est produite, partagée et consommée, tout en soulevant des problématiques cruciales concernant la liberté d’expression et la protection des droits individuels.

Ces droits, qui incluent le droit à l’honneur, à la réputation et à la présomption d’innocence, deviennent des enjeux centraux dans le paysage juridique du XXIe siècle, où les frontières entre l’information et la diffamation peuvent être floues. Une illustration saisissante de cette dynamique a été fournie par l’affaire portée devant la Cour de cassation française le 26 février 2025.

Ce litige oppose plusieurs personnalités, dont un avocat, un magistrat et un ancien ministre, à Google Ireland Limited, la société mère de YouTube. Les plaignants ont demandé le retrait de six vidéos diffusées sur la chaîne YouTube « Les dossiers de Monaco », lesquelles les accusaient de faire partie d’un réseau de corruption au sein de la Principauté. Ces allégations, jugées diffamatoires par les intéressés, ont conduit à une demande de suppression des vidéos, sur la base d’une atteinte présumée à leur honneur et leur dignité professionnelle.


Besoin de l’aide d’un avocat pour un problème de diffamation ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien


Cette affaire s’inscrit dans le cadre de l’article 6-I.8 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN), qui établit un cadre procédural pour la gestion des contenus diffamatoires en ligne. Elle soulève des questions fondamentales concernant le régime de responsabilité des hébergeurs, comme YouTube, et les obligations de modération qui leur incombent. En effet, la jurisprudence actuelle doit prendre en compte l’équilibre délicat entre la liberté d’expression, protégée par des conventions internationales telles que la Convention européenne des droits de l’homme (CEDH), et la nécessité de protéger les droits individuels des personnes mises en cause dans des contenus potentiellement nuisibles.

La Cour de cassation, en examinant ce dossier, se confronte également à des défis contemporains liés à la viralité des réseaux sociaux. Dans un environnement où l’information peut se propager instantanément et largement, la mise en œuvre de régulations ex post peut sembler insuffisante pour traiter les préjudices causés avant qu’un litige ne soit résolu. Ce constat remet en question l’efficacité des mécanismes juridiques traditionnels et appelle à une réflexion sur la manière dont les plateformes numériques peuvent être tenues responsables des contenus qu’elles hébergent.

Par ailleurs, cette affaire met en lumière les enjeux d’extraterritorialité qui se posent dans les relations entre les États et les acteurs numériques. Google Ireland Limited, en tant qu’entité européenne opérant YouTube, illustre l’asymétrie de pouvoir persistante entre les juridictions nationales et les grandes entreprises technologiques.

La réponse de la Cour de cassation à ces questions déterminera non seulement la manière dont les droits fondamentaux seront protégés dans le cadre de la liberté d’expression, mais aussi la capacité des juridictions nationales à établir des normes éthiques dans un environnement dématérialisé, où l’immédiateté et la viralité peuvent souvent éclipser la rigueur factuelle.

Ainsi, l’analyse de cette décision judiciaire ne peut se limiter à une simple évaluation des faits. Elle doit intégrer une compréhension multidimensionnelle des enjeux juridiques, en prenant en compte les spécificités du droit français en matière de diffamation, ainsi que les obligations résultant du droit de l’Union européenne, y compris la directive sur le commerce électronique et le RGPD.

En définitive, cette affaire se pose comme un véritable révélateur des tensions inhérentes à notre époque, interrogeant la compatibilité entre la liberté d’expression et les droits individuels dans un monde où l’information, souvent non vérifiée, circule librement et sans entrave.

 

I. Le cadre juridique et procédural du retrait de contenus en ligne : entre obligations des hébergeurs et droits des utilisateurs

A. Les obligations de modération des plateformes numériques sous l’empire de la LCEN.

  1. Le statut d’hébergeur et la limitation de responsabilité conditionnelle (Art. 6-I.2 LCEN)

La loi du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN) pose les fondements du régime de responsabilité des intermédiaires techniques, en distinguant clairement les éditeurs de contenus, responsables a priori de leurs publications, des hébergeurs, dont la responsabilité est conditionnée à une connaissance effective des contenus illicites.

L’article 6-I.2 LCEN, transposant la directive européenne sur le commerce électronique (2000/31/CE), définit l’hébergeur comme une entité stockant des données « pour le compte de tiers », sans en contrôler a priori la légalité.

Cette distinction est cruciale : elle libère les plateformes comme YouTube d’une obligation générale de surveillance, conformément au principe de neutralité technologique. Toutefois, cette immunité relative n’est pas absolue. Elle est subordonnée à deux conditions cumulatives :

– L’absence de connaissance effective du caractère illicite du contenu.

– L’action prompte pour retirer ou rendre inaccessible le contenu dès que cette illicéité est portée à leur connaissance. La Cour de justice de l’Union européenne (CJUE) a précisé, dans l’arrêt Google c/ González (2014), que cette connaissance ne peut résulter d’une notification vague ou générique, mais doit être « suffisamment précise et motivée » pour permettre une appréciation concrète. Dans l’affaire MM. U., G., I. et E., la qualification de YouTube en tant qu’hébergeur est donc un préalable essentiel : si la plateforme avait exercé un contrôle éditorial sur les vidéos (modification, catégorisation active), elle aurait pu être requalifiée en éditeur, engageant sa responsabilité de plein droit.

  1. L’obligation de retrait prompt des contenus illicites : portée et limites de l’article 6-I.8 LCEN

L’article 6-I.8 LCEN instaure une procédure de signalement accéléré permettant à toute personne s’estimant victime d’un contenu préjudiciable d’exiger son retrait. Ce mécanisme, souvent invoqué dans les affaires de diffamation, repose sur un équilibre délicat :

– L’obligation de réactivité : Dès réception d’une notification valide, l’hébergeur doit agir « promptement » pour retirer le contenu ou en bloquer l’accès. La notion de promptitude, laissée à l’appréciation des juges, varie selon la gravité des allégations et leur viralité. Dans une affaire, un délai de 48 heures a été jugé raisonnable pour des propos haineux.

– Les limites procédurales : L’hébergeur n’a pas à statuer sur le fond du litige ; son rôle est purement réactif. Cependant, une application trop zélée de cette obligation pourrait conduire à une censure privée excessive, contraire à la liberté d’expression. La CJUE, dans l’affaire Glawischnig-Piesczek c/ Facebook (2019), a ainsi rappelé que les mesures de retrait doivent être proportionnées et ciblées géographiquement.

Dans l’espèce, Google Ireland Limited, en refusant de retirer les vidéos malgré les notifications des plaignants, a invoqué le caractère insuffisamment précis des signalements et la nécessité de préserver le débat d’intérêt public sur la corruption. La Cour de cassation devra donc vérifier si les notifications remplissaient les critères de l’article 6-I.8 LCEN et si le refus de retrait était justifié au regard des impératifs de liberté d’expression.

B. La procédure accélérée au fond : un mécanisme adapté aux exigences du numérique ?

  1. L’urgence caractérisée par la viralité des contenus diffamatoires

La viralité des réseaux sociaux, où un contenu peut atteindre des millions d’utilisateurs en quelques heures, rend obsolètes les procédures judiciaires traditionnelles. L’article 6-I.8 LCEN, en prévoyant une procédure accélérée, répond à cette nécessité d’urgence.

Toutefois, cette célérité soulève des questions :

– La preuve de l’urgence : Les plaignants doivent démontrer un préjudice actuel et irréversible. Dans l’affaire Cour d’appel de Paris, la simple possibilité d’un préjudice réputationnel a été jugée insuffisante pour activer la procédure.

– L’effet Streisand : Une demande de retrait trop médiatisée peut amplifier la diffusion du contenu incriminé, aggravant le préjudice. Les juges doivent donc évaluer si le retrait est réellement protecteur ou contre-productif.

  1. Les garanties procédurales pour les parties : équilibre entre célérité et droits de la défense

La procédure accélérée ne doit pas sacrifier les droits de la défense, garantis par l’article 6 de la Convention européenne des droits de l’homme (CEDH). La Cour européenne a rappelé, dans l’affaire MGN Limited c/ Royaume-Uni (2011), que les mesures provisoires doivent respecter le principe du contradictoire.

Dans le cas des vidéos de « Les dossiers de Monaco », YouTube et les créateurs de contenus ont-ils été entendus avant le retrait ? La Cour de cassation examinera si le juge des référés a correctement pondéré les intérêts en présence, notamment en vérifiant :

– La motivation détaillée de la décision.

– L’existence d’un débat contradictoire, même succinct.

– La proportionnalité de la mesure (retrait total vs. Restriction géographique ou temporelle).

 

II. L’arbitrage jurisprudentiel entre liberté d’expression et protection des droits individuels

A. La qualification des propos diffamatoires : critères et enjeux pour les professions réglementées

  1. L’appréciation in concreto du caractère injurieux ou diffamatoire (Art. 29 loi de 1881)

La diffamation, définie par l’article 29 de la loi du 29 juillet 1881, suppose l’allégation ou l’imputation d’un fait précis portant atteinte à l’honneur ou à la considération.

La jurisprudence exige une analyse contextuelle :

– La distinction entre faits et opinions : Les juges distinguent les assertions factuelles (vérifiables et potentiellement diffamatoires) des opinions, protégées par la liberté d’expression.

– La preuve de la mauvaise foi : En matière de diffamation envers des personnalités publiques, la Cour européenne exige que les plaignants démontrent que l’auteur a agi avec « négligence fautive » (CEDH, Pedersen et Baadsgaard c/ Danemark, 2004).

Dans l’affaire des « Dossiers de Monaco », les vidéos dénoncent un réseau de corruption en citant des noms et des fonctions. La Cour devra déterminer si ces allégations relèvent de l’investigation journalistique (protégée) ou de la diffamation. La charge de la preuve incombe aux plaignants, qui doivent démontrer le caractère mensonger des faits énoncés.

  1. La prise en compte du statut des plaignants (ministre, magistrat, avocat) et de l’intérêt public du débat

Les personnalités publiques, en raison de leur exposition médiatique, bénéficient d’une protection atténuée de leur vie privée (CEDH, Axel Springer c/ Allemagne, 2012).  Cependant, cette tolérance varie selon leur fonction :

– Le ministre : Son action étant d’intérêt général, les critiques à son encontre sont largement admises, sauf en cas de propos excessifs ou mensongers.

– Le magistrat : La défense de l’autorité judiciaire justifie une protection renforcée, car les accusations de corruption peuvent ébranler la confiance publique dans l’institution.

– L’avocat : Son honneur professionnel est protégé, mais les critiques sur son exercice doivent être permises si elles participent d’un débat légitime.

La Cour de cassation évaluera donc si les vidéos, en visant ces trois professions, ont franchi la frontière entre le droit à l’information et l’abus de liberté d’expression. Elle s’appuiera sur la jurisprudence CEDH, Morice c/ France (2015), qui exige une « contribution pertinente au débat d’intérêt général ».

B. Les implications de l’arrêt de la Cour de cassation sur la gouvernance des plateformes

  1. Vers une responsabilisation accrue des hébergeurs dans la modération des contenus ?

La décision pourrait marquer un tournant dans l’interprétation des obligations des hébergeurs :

– Un standard de diligence renforcé : Si la Cour estime que Google aurait dû retirer les vidéos malgré des signalements partiels, cela créerait une obligation proactive de modération, contraire à l’esprit initial de la LCEN.

– L’impact du RGPD et du Digital Services Act (DSA) : Le règlement européen de 2022 impose déjà aux très grandes plateformes (comme YouTube) des mesures de transparence et d’audit. Un arrêt sévère contre Google anticiperait l’application stricte du DSA, qui prévoit des amendes pouvant atteindre 6 % du chiffre d’affaires mondial.

  1. L’impact sur la liberté d’expression et le rôle des lanceurs d’alerte dans les affaires de corruption

En condamnant Google, la Cour de cassation risquerait de créer un effet dissuasif pour les lanceurs d’alerte et les médias investigatifs, déjà fragilisés par les lois anti-fake news.

À l’inverse, un arrêt favorable à la plateforme pourrait encourager la diffusion non contrôlée de calomnies. Pour éviter cet écueil, la Cour pourrait :

– Exiger un encadrement procédural : Créer des mécanismes de contre-expertise (ex : avis d’un comité d’éthique) avant le retrait.

– Distinguer les cas selon la nature des contenus : Une accusation de corruption, si elle s’appuie sur des indices sérieux, devrait bénéficier d’une protection accrue au nom de l’intérêt public (CEDH, Steel et Morris c/ Royaume-Uni, 2005).

L’arrêt de la Cour de cassation du 26 février 2025 s’annonce comme un marqueur essentiel de l’évolution du droit numérique français. En arbitrant entre la protection des droits individuels et la liberté d’expression, il devra concilier des impératifs contradictoires : la rapidité nécessaire face à la viralité, le respect des procédures équitables, et la préservation d’un espace public numérique libre mais responsable. Au-delà de l’affaire monégasque, c’est l’équilibre même de la démocratie à l’ère digitale qui se joue dans cette décision.

Pour lire une version plus complète de cet article sur la possibilité de demander le retrait d’une video sur Youtube, cliquez

Sources :

  1. Demande de retrait de vidéos à caractère diffamatoire publiées sur Youtube selon la procédure accélérée au fond – Communications électroniques
  2. Loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique (1). – Légifrance
  3. Directive – 2000/31 – EN – EUR-Lex
  4. EUR-Lex – 62012CA0131 – FR – EUR-Lex
  5. EUR-Lex – 62018CJ0018 – FR – EUR-Lex
  6. CEDH, Cour (Quatrième Section), AFFAIRE MGN LIMITED c. ROYAUME-UNI, 18 janvier 2011, 39401/04
  7. CEDH, 17 décembre 2004, n° 49017/99 | Doctrine
  8. CEDH, AFFAIRE AXEL SPRINGER AG c. ALLEMAGNE, 2012, 001-109035
  9. CEDH, AFFAIRE MORICE c. FRANCE, 2015, 001-154264
  10. AFFAIRE STEEL ET MORRIS c. ROYAUME-UNI

 

Responsabilité des Plateformes de Commerce : Intermédiaires ou Vendeurs ?

Avec l’avènement de l’ère numérique, les plateformes en ligne ont connu une croissance exponentielle, offrant aux utilisateurs un accès sans précédent à l’information, aux services et aux interactions sociales. Cependant, cette expansion rapide soulève des questions importantes quant à la responsabilité des plateformes et à leur rôle dans la société.

NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire !

Les plateformes en ligne jouent un rôle central dans la diffusion de contenus et la facilitation des échanges entre utilisateurs. Leur capacité à influencer les opinions, à façonner les comportements et à diffuser des informations est devenue immense. Cependant, cette puissance accrue soulève des inquiétudes quant à leur responsabilité envers les utilisateurs et la société dans son ensemble.

L’un des principaux défis auxquels les plateformes sont confrontées est la modération du contenu problématique. Avec des milliards de publications quotidiennes, il devient difficile de filtrer les discours de haine, les fausses informations, le harcèlement et d’autres contenus nuisibles. Les plateformes sont souvent critiquées pour leur réponse inadéquate à ces problèmes, ce qui soulève des questions sur leur devoir de protéger les utilisateurs et de maintenir un environnement en ligne sain.

Les algorithmes utilisés par les plateformes pour recommander du contenu et personnaliser l’expérience de l’utilisateur suscitent également des interrogations. Les décisions algorithmiques peuvent avoir un impact significatif sur les informations auxquelles les utilisateurs sont exposés, ce qui soulève des préoccupations quant à la manipulation, à la bulle de filtre et à la polarisation des opinions. Les plateformes sont de plus en plus appelées à être transparentes quant au fonctionnement de leurs algorithmes et à assumer la responsabilité des conséquences de leurs recommandations.


Besoin de l’aide d’un avocat pour un problème de contrefaçon ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien


La responsabilité des plateformes en ligne est un défi majeur de notre époque numérique. Alors qu’elles jouent un rôle de plus en plus central dans la vie quotidienne des individus, il devient essentiel de mettre en place des mécanismes solides pour garantir leur responsabilité envers les utilisateurs et la société. La modération du contenu, la réglementation appropriée, la transparence algorithmique et le dialogue entre les parties prenantes sont autant d’aspects à considérer pour trouver un équilibre entre la liberté d’expression et la protection des utilisateurs.

En outre, les plateformes en ligne ont révolutionné la façon dont nous achetons, vendons et interagissons avec les produits et services. Cependant, avec cette évolution, se pose la question de la responsabilité des plateformes et du rôle joué par les intermédiaires et les vendeurs.

Dans cet article, nous explorerons les défis liés à la responsabilité des plateformes en ligne et l’importance des intermédiaires et vendeurs dans ce contexte.

I. Les plateformes de commerce en tant qu’intermédiaires

En tant qu’intermédiaires, les plateformes de commerce fournissent une infrastructure technologique permettant aux vendeurs et aux acheteurs de se connecter. Elles facilitent les transactions en ligne, mais n’ont pas la propriété des produits vendus. En tant qu’intermédiaires, leur responsabilité est généralement limitée. Elles bénéficient souvent de protections légales, telles que la Directive sur le commerce électronique de l’Union européenne, qui les exonèrent de la responsabilité pour les contenus illicites ou les actes illicites commis par les utilisateurs (La directive 2000/31/CE (directive sur le commerce électronique) couvre la responsabilité des fournisseurs (établis dans l’Union) de services en ligne, de transactions électroniques en ligne et d’autres activités en ligne, telles que la fourniture d’informations, de bases de données et de services financiers, de services professionnels, de services de divertissement (vidéo à la demande), de services de marketing direct et de publicité et d’accès à l’internet.)

En tant qu’intermédiaires, les plateformes de commerçants sont souvent protégées par des dispositions légales telles que la directive européenne sur le commerce électronique ou la section 230 de la Communications Decency Act aux États-Unis. Ces lois les protègent généralement contre la responsabilité pour le contenu publié par les vendeurs tiers et pour les produits ou services vendus par ces derniers.

Il convient de noter que dans certains cas, les plateformes de commerçants peuvent être tenues responsables en tant qu’intermédiaires. Par exemple, si une plateforme a connaissance d’un contenu illégal ou de produits contrefaits et ne prend pas de mesures pour le retirer, elle peut être considérée comme complice et être tenue responsable. De plus, si la plateforme est directement impliquée dans la transaction, en fixant les prix ou en fournissant des services de livraison, elle peut également être considérée comme un vendeur.

II. Les plateformes de commerce en tant que vendeurs

Dans certains cas, les plateformes de commerce peuvent également agir en tant que vendeurs. Elles peuvent proposer leurs propres produits ou services, distincts de ceux proposés par les vendeurs tiers. Lorsqu’elles agissent en tant que vendeurs, leur responsabilité est plus engagée. Elles sont tenues de respecter les réglementations applicables en matière de protection des consommateurs, de respect des garanties légales et de fournir des informations précises sur leurs produits.

C’est aussi le cas lorsque la plateforme achète des produits auprès des vendeurs tiers et les revend directement aux consommateurs. Lorsqu’elles agissent en tant que vendeurs, les plateformes assument une plus grande responsabilité pour la qualité des produits, la livraison et la résolution des litiges.

Quelle que soit la position juridique des plateformes en tant qu’intermédiaires ou vendeurs, il est vital qu’elles communiquent clairement avec les acheteurs et les vendeurs. Les politiques de retour, les garanties et les procédures de résolution des litiges doivent être transparentes et accessibles à tous les utilisateurs.

 III. Les critères pour déterminer le statut d’intermédiaire ou de vendeur

Pour déterminer si une plateforme de commerce est considérée comme un simple intermédiaire ou un vendeur, plusieurs critères sont pris en compte. Les principaux facteurs comprennent la propriété des produits, l’exercice d’un contrôle sur les transactions, la fixation des prix, la gestion des stocks et l’interaction directe avec les acheteurs. Les tribunaux et les législations nationales peuvent utiliser ces critères pour évaluer la responsabilité spécifique d’une plateforme de commerce dans un cas donné.

IV. Les défis et évolutions légales

La responsabilité des plateformes de commerce est un sujet en constante évolution. Les législations nationales et internationales cherchent à adapter les cadres juridiques pour mieux réglementer ces acteurs. La question de la responsabilité des plateformes pour les produits contrefaits, les contenus illicites ou les pratiques commerciales trompeuses est au cœur des débats. Les régulateurs cherchent également à équilibrer la nécessité de protéger les consommateurs tout en encourageant l’innovation et la croissance économique.

Le Digital Services Act (DSA) est une législation européenne qui est entrée en vigueur le 25 août 2023. Voici quelques points clés à retenir :

  1. Régulation des plateformes en ligne :

Le DSA vise à réguler les grandes plateformes en ligne, telles que les réseaux sociaux, les places de marché en ligne et les moteurs de recherche. Il impose des obligations spécifiques pour garantir la sécurité en ligne, la transparence et la responsabilité des plateformes.

  1. Responsabilité accrue des plateformes :

Les grandes plateformes sont tenues de prendre des mesures proactives pour lutter contre le contenu illicite, y compris la désinformation, les discours de haine et les contenus terroristes. Elles doivent mettre en place des mécanismes de signalement et de suppression rapides et efficaces.

  1. Transparence des algorithmes :

Les grandes plateformes doivent fournir des informations claires sur le fonctionnement de leurs algorithmes, notamment en ce qui concerne la manière dont le contenu est recommandé ou modéré.

  1. Protection des utilisateurs :

Le DSA renforce les droits des utilisateurs en ligne, notamment en matière de transparence des publicités ciblées, de recours contre les décisions de modération et de protection de la vie privée.

  1. Coopération entre les États membres :

Le DSA encourage la coopération entre les États membres de l’UE pour la mise en œuvre de ces règles et la supervision des grandes plateformes. Le DSA vise à moderniser le cadre réglementaire de l’UE pour faire face aux défis posés par le numérique et à renforcer la confiance des utilisateurs en ligne.

Pour finir, nous pouvons dire que la responsabilité des plateformes de commerce en ligne est un sujet complexe et en constante évolution. Alors que certaines plateformes agissent en tant qu’intermédiaires neutres, d’autres endossent le rôle de vendeurs. La distinction entre ces deux statuts est cruciale pour établir leur niveau de responsabilité. Il est essentiel pour les plateformes de commerce de se conformer aux réglementations en vigueur et de suivre les évolutions juridiques pour garantir une expérience de commerce en ligne sûre et équitable pour les consommateurs et les vendeurs.

Pour lire une version plus détaillée de cet article sur la responsabilité des plateformes de commerce électronique, cliquez

Sources :

Y a t–il responsabilité du directeur de la publication même en cas d’externalisation ?

Le responsable de la communication est le garant de la ligne éditoriale d’un média. En cas de délit de communication, sa responsabilité pénale peut être engagée, car il est le représentant de l’actionnaire. Le développement des nouvelles technologies de l’information et de la communication suppose donc de redéfinir et de préciser les contours de ses fonctions et ses responsabilités. La Cour de cassation est récemment venue préciser le sort de la responsabilité du directeur de la publication en cas d’externalisation d’un service de modération sur un espace de contribution personnelle en ligne.

Le directeur de publication est la personne chargée au sein d’une entreprise de communication de rendre le contenu éditorial public. Il est donc responsable pénalement de tout ce qui est publié. Cette responsabilité est incontournable.

NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de responsabilité en passant par le formulaire !

Initialement, le rôle de directeur de publication était cantonné à la presse écrite, puis il s’est entendu à l’audiovisuel (loi du 29 juillet 1982 sur la communication audiovisuelle), et enfin au numérique (loi pour la confiance dans l’économie numérique du 21 juin 2004). Il doit désormais veiller sur de nouveaux contenus, c’est le cas des espaces de contributions personnelles en ligne.

Dans le cas d’un site web ou d’un blog, l’éditeur est considéré comme directeur de publication. Il doit donc assumer la responsabilité du contenu.
Devant l’afflux des contributions, certaines entreprises externalisent leurs services de modération afin de mieux contrôler les commentaires diffamatoires ou injurieux.

C’est notamment le cas du site lefigaro.fr. Après avoir pris en compte différents facteurs, la Cour de cassation a estimé dans un arrêt du 3 Novembre 2015, que malgré l’externalisation du service de modération, la responsabilité du directeur de publication devait être engagée dans la mesure où il pouvait exercer son devoir de surveillance.

Dans un arrêt en date du 6 juillet 2023, la cour d’appel d’Aix-en-Provence (CA Aix-en-Provence, ch. 3-1, 6 juill. 2023, no 19/17688) a jugé que l’obligation contractuelle d’inclure l’intégralité des contributions écrites n’incombe pas aux directeurs de publications d’actes de colloque. (11)

Cette conception stricte de la responsabilité du directeur de publication mérite d’être questionnée.


Besoin de l’aide d’un avocat pour un problème de responsabilité ?

Téléphonez nous au : 01 43 37 75 63

ou contactez nous en cliquant sur le lien


I – La responsabilité du directeur de publication d’un site internet

L’article 93-2 de la loi du 29 juillet 1982 sur la communication audiovisuelle modifiée par la LCEN indique que  » Tout service de communication au public par voie électronique est tenu d’avoir un directeur de la publication.  » Le directeur de publication exerce de lourdes responsabilités. Il est pénalement responsable de toutes les publications du service qu’il dirige.

Il ressort des articles 42 et 43 de la loi du 29 juillet 1881 sur la liberté de la presse qu’un délit de presse suppose une responsabilité en cascade où le responsable de premier rang est le directeur de publication. La simple démonstration de la qualité de responsable de publication conduit donc à admettre sa responsabilité, de sorte qu’il est quasiment impossible pour lui de s’en exonérer.

Le directeur de la publication est obligatoirement le représentant légal de la personne morale éditrice d’une publication, il n’a pas à être nommé.

Dans un arrêt du 22 janvier 2019, la Cour de Cassation précise que, lorsque le service de communication est fourni par une personne morale, alors le directeur des publications est, soit le représentant légale ou le représentant statutaire (si association), à défaut de toutes indications contraires.

Alors qu’en droit pénal, seul l’auteur d’une infraction est punissable, le régime de responsabilité pesant sur le directeur de publication fait exception et est très strict. Il est défini par l’article 93-3 de la loi du 29 juillet 1982.

La chambre criminelle a jugé, le 29 novembre 2022 (Cass. crim., 29 nov. 2022, no 22-81814) qu’en matière d’infraction de presse, le rappel à la loi n’a pour effet la suspension du délai de prescription qu’entre la date de décision du ministère public d’y recourir et la date de la notification dudit rappel à la personne concernée. Elle ajoute que le soit-transmis du procureur de la République aux fins d’enquêtes n’a pour effet l’interruption du délai de prescription qu’à condition qu’il s’articule et qualifie les faits. (12)

Par cette disposition le législateur a écarté les difficultés relatives à l’identification des auteurs de propos illicites en faisant peser la responsabilité pénale sur une personne désignée et donc facilement identifiable.

La personne qui a subi un préjudice du fait d’un contenu litigieux sur un site internet a le droit à ce qu’il soit réparé, dans ces cas là il faut clairement identifier sur qui repose la responsabilité du commentaire fautif. Dans le cas d’un site web ou d’un blog, cela nécessite un travail de qualification de l’auteur pour différencier le directeur de publication, de l’éditeur et de l’hébergeur.

En principe le premier responsable est le directeur de publication puis à défaut, l’éditeur et enfin l’auteur du propos fautif. Ce principe a été confirmé dans un arrêt du 14 mars 2017 qui dispose qu’en « qualité de directeur de la publication du site, [il ]a lui-même procédé à la mise en ligne des textes incriminés, lesquels avaient donc fait l’objet d’une fixation préalable à leur communication au public, de sorte que le prévenu doit répondre comme auteur principal des infractions qu’ils contiennent ». Le directeur de la publication engage donc sa responsabilité puisqu’il existait une présomption de connaissance des contenus mis en ligne, envers le directeur de la publication.

La LCEN a instauré un nouveau régime, celui de la communication au public en ligne. Cette loi permet notamment de ne pas systématiquement assimiler un hébergeur de site à un éditeur.

Les hébergeurs de site internet ne sont pas tenus à une obligation générale de surveillance. Ils pourront dans certains cas s’exonérer de leur responsabilité civile et pénale. L’engagement de la responsabilité est étroitement lié à la notion de contrôle. C’est ce qu’il ressort de l’article 6-I-2 de la LCEN. L’hébergeur n’est ainsi pas responsable d’un contenu illicite lorsqu’il n’en a pas eu  » effectivement connaissance « .

Dans un arrêt en date du 15 septembre 2022 (TJ Marseille, 1re ch., 15 sept. 2022, M. X c/ M. Y & Art Majeur), le tribunal judiciaire de Marseille a précisé que la plateforme de publication d’images, en tant qu’hébergeur, ne peut être responsable de contrefaçon si une fois avertie elle a supprimé le contenu litigieux. (13)

Toutefois, la simple prise de connaissance par quelque moyen que ce soit suffit à engager sa responsabilité civile et pénale. Il doit alors réagir  » promptement pour retirer ces données ou en rendre l’accès impossible  » (Art. 6-I-2 LCEN). Cette « connaissance des faits litigieux est présumée acquise  » (Art.. 6-I-5 de la  LCEN) lorsqu’elle est notifiée par toute personne lésée ou intéressée.

II – L’affaire lefigaro.fr : Une conception stricte de la responsabilité pénale du directeur de publication d’un site internet

Le site du quotidien  » Le Figaro  » a mis en place la possibilité d’alerter en temps réel un service de modération sur le contenu des messages déposés dans son espace de contributions personnelles. Ce service est géré par un prestataire externe. Pour que le commentaire soit validé et publié par les modérateurs, il doit être conforme à la charte d’utilisation du service.

En l’espèce, une personne avait alerté le service de modération d’un commentaire diffamatoire à son encontre. Le service de modération lui avait garanti le retrait du commentaire litigieux. Deux jours plus tard, le commentaire apparaissait toujours sur le site. La personne diffamée a alors réitéré sa notification. Le message n’ayant pas été retiré de suite, elle a porté plainte.

Le 26 janvier 2021, (Cass. crim., 26 janv. 2021, no 19-85762)  la chambre criminelle a rappelé le principe selon lequel lorsque des poursuites sont engagées contre des expressions injurieuses, indissociables d’imputation diffamatoires et non poursuivies, contenues dans le texte dans lequel elles figurent, la qualification de diffamation prime.  Cette absorption justifie la relaxe du chef d’injure. (14)

La Cour a estimé que le directeur de la publication n’avait pas retiré suffisamment rapidement le message diffamatoire alors qu’après deux alertes de la personne concernée, il aurait pu le faire. Le directeur de publication était ainsi en mesure d’exercer son devoir de surveillance. Il ne pouvait pas  » utilement se prévaloir, ni de ce que ladite fonction de modération aurait été externalisée, ni du bénéfice des dispositions régissant la responsabilité pénale des hébergeurs du site « .

Le fait d’externaliser un service de modération ne permet donc pas de déroger au régime institué par l’article 93-3 de la loi sur la communication audiovisuelle modifiée, alors même que le dysfonctionnement était imputable à un prestataire externe. C’est une décision particulièrement protectrice des victimes que la haute juridiction a rendu dans un arrêt du 3 novembre 2015.

Pour nuancer ce principe, la Cour de Cassation va, dans un arrêt du 7 mai 2018, considérer que l’exemption de bonne foi admise au profit de l’auteur, bénéficie également au directeur des publications. Ce bénéfice de la bonne foi vaut, bien que le directeur des publications avait connaissance des contenus de la publication.

Pour lire une version plus complète de cet article, cliquez sur ce lien

SOURCES :

  1. Loi n° 82-652 du 29 juillet 1982 sur la communication audiovisuelle http://www.legifrance.gouv.fr/affichTexte.do;jsessionid=74A3E29B4848B8A1111167705A68CCE6.tpdila15v_3?cidTexte=JORFTEXT000000880222&dateTexte=20151228
  2. Loi n°2024-575 du 21 juin 2004 pour la confiance l’économie numérique http://www.legifrance.gouv.fr/affichTexte.do?cidTexte=JORFTEXT000000801164
  3. Cour de cassation, criminelle, chambre criminelle, 3 novembre 2015, n°13-82.645 http://www.legifrance.gouv.fr/affichJuriJudi.do?idTexte=JURITEXT000031449831
  4. Site Legalis http://www.legalis.net/spip.php?page=breves-article&id_article=4802
  5. , 14 mars 2017, 15-87.319 https://www.legifrance.gouv.fr/juri/id/JURITEXT000034214327
  6. , 22 janvier 2019, 18-81.779 https://www.legifrance.gouv.fr/juri/id/JURITEXT000038091419/
  7. Tribunal judiciaire de Marseille, ordonnance de référé du 23 septembre 2020 https://www.legalis.net/jurisprudences/tribunal-judiciaire-de-marseille-ordonnance-de-refere-du-23-septembre-2020/
  8. CJUE, 24 septembre 2019, C‑136/17 https://curia.europa.eu/juris/document/document.jsf?docid=218106&doclang=FR
  9. Décision Conseil d’État 27 mars 2020, N° 399922 https://www.legifrance.gouv.fr/ceta/id/CETATEXT000041782236
  10. , 7 mai 2018, n° 17-82.663 https://www.legifrance.gouv.fr/juri/id/JURITEXT000036930201/
  11. CA Aix-en-Provence, ch. 3-1, 6 juill. 2023, no19/17688 https://www.doctrine.fr/d/CA/Aix-en-Provence/2023/CAP8BB4FEDDB7F9257A3327
  12. Chambre criminelle, criminelle, 29 nov. 2022, no22-81814) https://www.courdecassation.fr/decision/6385aee775a08105d473ccdf
  13. TJ Marseille, 1re, 15 sept. 2022, M. X c/ M. Y & Art Majeur https://iredic.fr/2022/11/10/tribunal-judiciaire-de-marseille-1ere-chambre-civile-15-septembre-2022-m-x-c-m-y-art-majeur/
  14. crim., 26 janv. 2021, no19-85762 https://www.courdecassation.fr/en/decision/601427e85b34856017551fd5

 

LE ROLE DES PLATEFORMES EN LIGNE DANS LA LUTTE CONTRE LA MANIPULATION DE L’INFORMATION

La révolution numérique a apporté de nombreux changements et notamment un accès illimité à l’information. Or dans le même temps, le développement d’Internet et des réseaux de télécommunications a permis à n’importe qui de s’exprimer, de partager et de créer des contenus informationnels. La manière dont nous nous informons a parallèlement radicalement changé et la crédibilité accordée aux médias ainsi qu’aux institutions publiques s’est affaiblie au profit de nouveaux acteurs émergeant sur Internet qui tirent souvent leur légitimité par le nombre de personnes qui les suivent.  

NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire !

Par ailleurs, les bulles algorithmiques créées par les plateformes que nous utilisons nous confortent dans nos idées et bien souvent le sensationnisme est préféré au réalisme qui laisse place à une euphorie générale.

Mais comment s’assurer que les informations que nous consultons sont bel et bien fiables ?
Comment être sûr que nous ne subissons aucune influence de la part des algorithmes ?
Et surtout quels sont les risques liés à la manipulation de l’information ?

Comme en témoigne les récentes élections présidentielles américaines de 2016, les élections françaises de 2017 et la campagne du Brexit influencée par la société Cambridge Analytica, ce phénomène de déstructuration du paysage de l’information a des répercussions sur notre conception du monde et peut donc influencer le choix final à l’occasion d’élections.

Face aux risques grandissants de manipulation à grande échelle, la France a fait le choix en 2018, d’ajouter à son arsenal législatif une nouvelle loi visant à lutter contre la manipulation de l’information.

Tout d’abord, cette loi introduit une nouvelle mesure de référé visant à lutter contre la manipulation de l’information à l’heure numérique et de permettre d’endiguer la diffusion de fausses informations pendant les périodes de campagne électorale (article L. 163-2 du Code électoral). Cette mesure ne fera pas l’objet d’un développement ici.


Besoin de l’aide d’un avocat pour un problème de contrefaçon ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien


En parallèle, elle sollicite les plateformes dans cette lutte en leur imposant un certain nombre d’obligations de moyens et de transparence. D’une part, elle permet de responsabiliser les plateformes en leur imposant la mise à disposition d’outils qui permettent aux utilisateurs de signaler les contenus. D’autre part, elle tend à rendre plus transparents le fonctionnement et l’effectivité des mesures en instaurant un mécanisme de coopération avec l’ARCOM (anciennement le CSA).

Cependant les récentes révélations impliquant une société israélienne dans la manipulation d’élections à grande échelle et le piratage de responsables politiques africains remuent les inquiétudes liées à la diffusion de fausses informations en ligne. Il semble donc nécessaire de rester vigilant et de lutter à notre échelle contre la diffusion de fausses informations.

 I. Le devoir de coopération des opérateurs de plateforme en ligne lors des périodes électorales

Même si le juge peut prendre des mesures pour lutter contre la manipulation de l’information, les opérateurs de plateformes en ligne ont la responsabilité de réguler les contenus qui se propagent sur leur plateforme. Dans cet objectif, la loi du 22 décembre 2018 impose aux plateformes en ligne un devoir de coopération durant les périodes électorales, qui implique à la fois des obligations de moyens et des obligations de transparence.

A. Les plateformes concernées

Codifié à l’article 163-1 du Code électoral, les opérateurs plateformes en ligne concernés par ces obligations lors des périodes électorales sont ceux visés à l’article L. 111-7 du Code de la consommation.

Comme le précise cet article « Est qualifiée d’opérateur de plateforme en ligne toute personne physique ou morale proposant, à titre professionnel, de manière rémunérée ou non, un service de communication au public en ligne reposant sur :

1 o Le classement ou le référencement, au moyen d’algorithmes informatiques, de contenus, de biens ou de services proposés ou mis en ligne par des tiers ;

 2o Ou la mise en relation de plusieurs parties en vue de la vente d’un bien, de la fourniture d’un service ou de l’échange ou du partage d’un contenu, d’un bien ou d’un service. »

Conformément au décret du 10 avril 2019, sont uniquement visés les opérateurs de plateforme en ligne dépassant un seuil de 5 millions de visiteurs unique par mois calculé sur la base de la dernière année civile (Décret n° 2019-297, 10 avr. 2019 relatif aux obligations d’information des opérateurs de plateforme en ligne assurant la promotion de contenus d’information se rattachant à un débat d’intérêt général, JO 11 avr., n° 40). Ce décret est désormais codifié aux articles D. 102-1, I et suivants du Code électoral.

B. Les obligations des opérateurs de plateformes en ligne lors des périodes électorales

La loi du 22 décembre 2018 relative à la manipulation de l’information poursuit une logique de responsabilisation des opérateurs de plateforme en ligne, dans l’objectif de construire une relation de confiance entre eux, les pouvoirs publics et la société civile.

  1. Périodes électorales

Les obligations visées à l’article 163-1 du Code électoral ont vocation à s’appliquer « pendant les trois mois précédant le premier jour du mois d’élections générales et jusqu’à la date du tour de scrutin où celles-ci sont acquises ».

Sont visées par ces dispositions l’élection du Président de la République, les élections générales des députés, l’élection des sénateurs, l’élection des représentants au Parlement européen et les consultations référendaires.

  1. Détails des obligations

Le dispositif légal exige des principaux opérateurs de plateformes en ligne de fournir des informations claires et transparentes sur l’identité des personnes ou des entreprises qui paient pour promouvoir des contenus liés à des débats d’intérêt général toujours dans l’optique de lutter contre la propagation de fausses informations pendant les périodes électorales.

Par ailleurs, ils devront « fournir à l’utilisateur une information loyale, claire et transparente sur l’utilisation de ses données personnelles dans le cadre de la promotion d’un contenu d’information se rattachant à un débat d’intérêt général ».

Enfin, ces opérateurs de plateforme devront également « rendre public le montant des rémunérations reçues en contrepartie de la promotion de tels contenus d’information lorsque leur montant est supérieur à un seuil déterminé. »

L’article D. 102-1 du Code électoral précise que « le montant de rémunération à partir duquel ces opérateurs sont soumis aux obligations du 3 o de l’article L. 163-1 est fixé à 100 euros hors taxe, pour chaque contenu d’information se rattachant à un débat d’intérêt général. »

Conformément aux dispositions des articles L. 163-1 et D.102-2 du Code électoral, ces informations sont agrégées au sein d’un registre mis à la disposition du public par voie électronique, dans un format ouvert, et régulièrement mis à jour pendant les trois mois précédant le premier jour du mois d’élections générales et jusqu’à la date du tour de scrutin où celles-ci sont acquises.

II. La responsabilisation des opérateurs de plateformes en ligne pour la lutte contre la manipulation de l’information

La loi du 22 décembre 2018 instaure un devoir de coopération aux opérateurs de plateforme en ligne dans la lutte contre la manipulation de l’information, et ce, même en dehors des périodes électorales. Le dispositif légal donne également des prérogatives nouvelles à l’ARCOM (anciennement le CSA) dans la lutte contre la diffusion de fausses informations.

A. Les obligations des opérateurs de plateformes en ligne dans la lutte contre la désinformation

L’article 11 de la loi du 22 décembre 2018 prévoit une série d’obligations que les opérateurs de plateformes en ligne doivent mettre en place.

En complément des obligations imposées aux opérateurs de plateformes en ligne, le Conseil Supérieur de l’Audiovisuel (CSA) a publié une recommandation le 15 mai 2019 pour améliorer la lutte contre la propagation de fausses informations qui pourraient perturber l’ordre public ou compromettre l’intégrité des élections (mentionnées dans l’article 33-1-1 de la loi du 30 septembre 1986). Cette recommandation est basée sur les initiatives de l’Union européenne pour lutter contre la désinformation, notamment la communication de la Commission européenne du 26 avril 2018 intitulée « Lutter contre la désinformation en ligne : une approche européenne », le code de pratique sur la désinformation du 26 septembre 2018 et la communication conjointe fixant le plan d’action contre la désinformation de l’Union européenne du 5 décembre 2018.

  1. La mise en place d’un dispositif de signalement facilement visible et accessible

Le dispositif de signalement doit être facile d’accès et visible. Concrètement, un intitulé clair doit désigner le dispositif et le rendre identifiable, il peut s’agir par exemple d’un intitulé « Signaler le contenu ». Les plateformes sont incitées à prévoir, dans leur formulaire de signalement, une catégorie « Fausse information ».

L’affichage de ce dispositif doit se trouver à proximité immédiat du contenu ou du compte susceptible d’être signalé.

Enfin, la recommandation incite à simplifier au maximum le dispositif de signalement en rendant possible la finalisation de cette procédure en trois clics.

B. Les obligations de transparence des opérateurs de plateformes en ligne envers leurs utilisateurs

En sus de l’obligation légale de fournir un outil de signalement, les opérateurs doivent mettre en œuvre des mesures supplémentaires concernant la transparence de leurs algorithmes. Cela implique d’indiquer la promotion de contenus provenant d’entreprises, d’agences de presse et de services de communication audiovisuelle, de lutter contre les comptes qui propagent de fausses informations de manière massive, de fournir aux utilisateurs des informations sur les contenus sponsorisés qui se rapporte aux débats d’intérêt général, ainsi que d’assurer une éducation aux médias et à l’information.

  1. La transparence des algorithmes

L’objectif clairement affiché ici est de redonner aux utilisateurs le contrôle et la capacité d’exercer leur esprit critique en toute connaissance de cause vis-à-vis des contenus proposés par les plateformes en ligne. Pour y parvenir, ils doivent pouvoir accéder à des informations leur permettant de comprendre les principes de fonctionnement des algorithmes qui régissent la sélection, l’organisation et l’ordonnancement de ces contenus.

Cette obligation est motivée par le souci de faciliter la compréhension des algorithmes utilisés pour la sélection de contenus, afin d’éviter les risques associés aux bulles algorithmiques qui renforcent les convictions, attisent l’extrémisme, la discorde, la violence, les dérives sectaires et les obscurantismes.

  1. La promotion des contenus issus d’entreprises, d’agences de presse et de services de communication audiovisuelle

À travers cette obligation, le législateur souhaite que les plateformes en ligne valorisent les contenus fiables.

La recommandation du 15 mai 2019 encourage à ce titre les opérateurs de plateforme en ligne à tenir compte des démarches de labellisation, notamment celles réalisées par les entreprises et agences de presse et les services de communication audiovisuelle et de déployer des moyens technologiques visant à mettre en avant les informations provenant de ces sources et en particulier les contenus dits de « fact-checking » dans les résultats des moteurs de recherche, les fils d’actualité et les autres canaux de diffusion opérant par classement automatisé.

Comme le relève l’ARCOM dans son bilan annuel pour l’année 2021, le module NewsGuard, en partenariat avec Bing, permet d’indiquer au moyen d’un code-couleur la fiabilité d’une source d’information, ce qui contribue à la bonne information des utilisateurs. Ce dispositif insérer directement sur le navigateur web permet aux internautes qui le souhaitent, de vérifier si un site d’information est fiable et crédible sur la base de neuf critères réunis dans une « étiquette » informative dite « étiquette nutritionnelle ».

  1. La lutte contre les comptes propageant massivement de fausses informations

Les plateformes doivent mettre en place des mesures pour détecter et signaler les comportements inauthentiques et les activités de manipulation automatisée des contenus (bots).

L’ARCOM recommande des procédures appropriées afin d’assurer la détection des comptes propageant massivement de fausses informations et destinées à faire obstacle à l’action de ces comptes (avertissement, suppression, mise en quarantaine, restrictions des droits de l’utilisateur ou de la portée des contenus qu’il diffuse, etc.) dans le respect de la liberté d’expression et de communication.

  1. L’information des utilisateurs sur la nature, l’origine, les modalités de diffusion des contenus et l’identité des personnes versant des rémunérations en contrepartie de la promotion de contenus d’information

Il s’agit encore une fois de déployer des dispositifs appropriés permettant aux utilisateurs d’être informés sur la nature, l’origine et les modalités de diffusion des contenus.

Plusieurs opérateurs ont mis en place des bibliothèques publicitaires permettant d’accéder à tout ou partie des contenus sponsorisés.

  1. Favoriser l’éducation aux médias et à l’information

Les opérateurs sont encouragés à sensibiliser les utilisateurs à l’influence de leurs propres contenus. Ils doivent contribuer à développer leur sens critique, particulièrement celui des plus jeunes.

À ce titre, l’ARCOM incite les plateformes à développer des outils adaptés d’analyse de la fiabilité des sources d’information, tels que des modules vidéo et des guides qui pourront aider les utilisateurs à identifier les sources fiables.

À titre d’exemple, il est possible de citer le programme « Be Internet Awesome » lancé en 2017 par Google. Il vise à éduquer les enfants de 9 à 14 ans aux rudiments de la citoyenneté à l’ère du numérique et à la sécurité en ligne afin qu’ils puissent « explorer le monde avec confiance ».

C. La coopération des opérateurs de plateformes en ligne avec l’ARCOM

Au-delà de ces obligations, les opérateurs de plateformes en ligne sont tenus de transmettre une déclaration annuelle à l’ARCOM et de désigner un interlocuteur référent.

  1. Les informations à transmettre à l’ARCOM

  1. Déclaration annuelle des opérateurs de plateforme en ligne

Conformément à l’article 11 de cette loi, les opérateurs de plateforme en ligne dépassant un seuil de connexion de 5 millions d’utilisateurs uniques par mois (moyenne annuelle), sont tenus de transmettre au Conseil supérieur de l’audiovisuel une déclaration annuelle faisant état des moyens déployés pour œuvrer à cette lutte.

Chaque année, l’ARCOM adresse un questionnaire aux opérateurs de plateformes en ligne. Ce questionnaire a pour objectifs d’accompagner les opérateurs dans la préparation de leur déclaration annuelle. Il est possible de visualiser l’ensemble des questionnaires directement depuis son site internet.

L’article 12 de la même loi confie à l’autorité le soin d’établir un bilan de l’application et de l’effectivité de ces mesures.

En 2022, douze opérateurs ont adressé une déclaration à l’autorité de régulation de la communication audiovisuelle et numérique (ARCOM). Parmi eux, Dailymotion, Google, LinkedIn, Meta, Microsoft, Pinterest, Snapchat, TikTok, Twitter, Webedia, la Fondation Wikimédia et Yahoo!.

  1. Désignation d’un interlocuteur référent

Au titre de l’article 13 de la loi du 22 décembre 2018, chaque opérateur de plateforme en ligne est tenu de désigner un représentant légal exerçant les fonctions d’interlocuteur référent sur le territoire français.

Dans sa recommandation du 15 mai 2019 aux opérateurs de plateforme en ligne dans le cadre du devoir de coopération en matière de lutte contre la diffusion de fausses informations, l’ARCOM invite chaque opérateur à lui faire connaître ce représentant par le biais d’un formulaire de déclaration disponible en ligne.

  1. Sanctions

En cas de manquement à ces obligations, les opérateurs de plateforme en ligne peuvent être sanctionnés par la CNIL (Commission nationale de l’informatique et des libertés) ou par le CSA (Conseil supérieur de l’audiovisuel). La CNIL est compétente pour sanctionner les manquements aux obligations en matière de protection des données personnelles, tandis que le CSA est compétent pour les manquements aux obligations en matière de diffusion de contenus audiovisuels.

Les sanctions peuvent inclure des amendes, des injonctions, des retraits de contenus, voire la suspension ou la fermeture de la plateforme en ligne en cas de récidive ou de manquements graves. La loi prévoit également que les utilisateurs puissent signaler les contenus qu’ils considèrent comme faux ou trompeurs aux opérateurs de plateforme en ligne et que ces derniers devront les examiner et les traiter dans un délai raisonnable.

III. La genèse de la désinformation et les risques

À une échelle plus large, la manipulation de l’information se répand dans différents domaines et ne se limite pas aux seules élections. La diffusion de fausses informations a pris ses quartiers sur les plateformes en ligne que nous utilisons quotidiennement, et pour lutter contre ce fléau, il apparaît essentiel de comprendre son origine et d’évaluer ses conséquences sur nos sociétés.

A. L’origine de la désinformation

La désinformation ne se limite pas aux « fake news », mais englobe toute information fausse, inexacte ou trompeuse qui est délibérément conçue, présentée et promue dans le but de causer un préjudice public ou de réaliser des gains financiers. Cependant, cela n’inclut pas les problèmes résultant de la création et de la diffusion en ligne de contenus illégaux, tels que la diffamation, les discours haineux ou l’incitation à la violence, qui sont réglementés par la législation européenne ou nationale, ni d’autres formes de déformation délibérée mais non trompeuse des faits.

En 2018, le scandale « Cambridge Analytica » avait permis de révéler comment l’entreprise britannique avait acquis les données personnelles de près de 87 millions d’utilisateurs de Facebook pour influencer les électeurs à « une échelle industrielle ». La société, qui vendait ses services dans une soixantaine d’États (en passant du régime iranien à la compagnie pétrolière nationale malaisienne) s’est à ce titre retrouvée accusée d’avoir manipulé de nombreuses élections. Elle a notamment contribué à la victoire de Donald Trump en 2016 aux États-Unis et au vote du Brexit en Angleterre. Lorsque l’affaire a fait la une des journaux, le nom de Cambridge Analytica est devenu synonyme de désinformation dans le monde entier.

En 2016, la Macédoine du Nord a été impliquée dans une affaire de désinformation liée aux élections présidentielles américaines. Des individus basés sur ce pays ont été créés et diffusés de fausses informations en ligne pour influencer l’opinion publique américaine et soutenir le candidat républicain Donald Trump en discréditant sa rivale, la candidate démocrate Hillary Clinton. Ces fausses nouvelles ont permis aux créateurs de sites web de générer des revenus publicitaires, certains gagnant jusqu’à 3 000 dollars par mois. Une véritable fortune dans un pays où le salaire moyen est de 409 euros. La différence avec le salaire moyen en France est de 82 %. : (https://www.etui.org/fr/themes/sante-et-securite-conditions-de-travail/hesamag/ou-va-le-travail-humain-a-l-ere-du-numerique/a-veles-a-la-rencontre-des-fabricants-de-fausses-nouvelles)

Cette affaire a suscité des inquiétudes quant à la capacité des groupes et des individus à utiliser la désinformation en ligne pour influencer les résultats des et l’opinion publique. Depuis, plusieurs mesures ont été prises pour lutter contre la désinformation en ligne, notamment en Macédoine du Nord et dans d’autres pays.

Malheureusement la diffusion de fausses informations n’a pas pris fin avec les élections puisque les fabricants de fausses nouvelles s’efforcent de trouver de nouvelles thématiques telles que la nutrition, les véhicules automobiles, la santé, afin de continuer à générer des revenus.

Plus récemment, le consortium de journalistes « Forbidden stories » a révélé les pratiques d’une société israélienne spécialisée dans la manipulation de l’information. En poursuivant le travail de Gauri Lankesh, journaliste indienne qui enquêtait sur la désinformation et « les usines à mensonges », assassinée en 2017. La reprise du projet « Story Killers » par Forbidden stories dévoile une industrie usant de toutes les armes à sa disposition pour manipuler les médias et l’opinion publique, aux dépens de l’information et de la démocratie.

Ce travail d’investigation mené par les journalistes a permis de démontrer l’implication de cette société dans la manipulation de trente-trois élections à travers le monde et revendique parmi elles vingt-sept « succès ». Son mode opératoire consistait en la propagation de fausses informations notamment par l’intermédiaire de faux profils ou de bots.

L’enquête révèle également le piratage des politiciens africains ainsi que la manipulation d’information sur une chaîne de télévision française : BFM TV.

Le présentateur Rachid M’Barki est accusé par sa hiérarchie d’avoir diffusé à l’antenne des contenus non validés avec des « soupçons d’ingérence » au service d’intérêts étrangers.

Les contenus problématiques identifiés portent sur des thèmes concernant des oligarques russes, le Qatar, le Soudan, le Sahara marocain et le Cameroun ont été présenté et fourni clés en main à la chaîne pour le compte de clients étrangers.

Ces affaires témoignent des risques que comprend la désinformation. Elle peut être utilisée pour manipuler l’opinion publique et influencer les résultats des élections, des référendums ou des votes en faveur d’un parti politique ou d’un candidat, mais pas seulement… C’est justement ce que tente de mettre en lumière le récent rapport Bronner « Les lumières à l’ère numérique ».

B. Les risques de la désinformation

De nos jours, il existe de nombreuses sources d’informations accessibles, allant des journaux traditionnels aux réseaux sociaux et aux blogs. Les médias sociaux en particulier ont modifié la manière dont les personnes obtiennent des informations. Les utilisateurs de ces plateformes peuvent accéder aux informations provenant du monde entier en temps réel et les partager facilement avec leur réseau. Cependant, cette facilité d’accès à l’information a également entraîné la propagation de la désinformation et des fausses nouvelles, rendant difficile la distinction entre les informations fiables et les informations trompeuses.

La désinformation est très préjudiciable et peut entraîner des conséquences sur les individus et la société en général, semant la confusion et créant des incertitudes dans l’esprit des personnes. Cela peut entraîner une perte de confiance dans les institutions et les sources d’informations fiables.

Les conséquences de la désinformation sont clairement visibles dans des événements récents, tels que l’attaque du Capitole en janvier 2021 ou la montée des mouvements antivaccins en France. La désinformation est donc une menace pour la sécurité des personnes et la souveraineté des États, contribuant également à la propagation des préjugés et des stéréotypes.

De plus, les fausses informations et les rumeurs peuvent causer des dommages à la réputation d’une personne, d’une entreprise ou d’une organisation. Il est donc crucial de vérifier l’exactitude des informations avant de les partager ou de prendre des décisions fondées sur celles-ci.

 

Pour lire un article plus complet sur la désinformation en ligne et les obligations des plateformes, cliquez

SOURCES :