injures

Diffamation sur une page Facebook et sur twitter : qui est l’auteur principal ?

Comme chacun le sait, les réseaux sociaux sont le théâtre de vifs échanges fondés sur la liberté d’expression. Cette liberté de communication n’est cependant pas absolue et le délit de diffamation peut être retenu à l’encontre d’un utilisateur. Cependant, il est parfois difficile de déterminer qui est l’utilisateur, auteur des propos diffamatoires.

NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire !

Il est alors intéressant de revenir sur le régime de responsabilité applicable au délit de diffamation sur une page Facebook ou sur un compte Twitter et plus particulièrement à la détermination du responsable.

L’émergence des réseaux sociaux a en effet permis à chacun de se saisir de l’actualité et d’exprimer son point de vue de manière directe. Mais cette nouvelle voie d’expression dénuée d’intermédiation peut également favoriser des propos qualifiables de diffamatoires.


Besoin de l’aide d’un avocat pour un problème de contrefaçon ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien


Les victimes de propos diffamatoires sur une page Facebook ou sur un compte Twitter ne sont pas démunies face à cette situation et la loi permet de réagir face à ces comportements délictueux.

Ainsi, en se fondant sur la loi de 1881 (loi du 29 juillet 1881 sur la liberté de la presse) réprimant les propos diffamatoires (I), la loi de 1982 (loi du 29 juillet 1982 sur la communication audiovisuelle) et la loi du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN) prévoient un régime de responsabilité en cascade (II) fondé sur la détermination de l’auteur principal.

I – APPLICABILITÉ DE LA LOI DE 1881 POUR DES PROPOS TENUS SUR UNE PAGE FACEBOOK OU UN COMPTE TWITTER

A – L’APPLICABILITÉ DE LA LOI DE 1881

Lors de l’émergence d’Internet, s’est posée la question du régime de responsabilité applicable à des propos répréhensibles. En effet, face à l’augmentation du nombre de connexions et d’échange de messages via l’Internet, un nombre croissant de contentieux est apparu. La solution est venue de la loi du 29 juillet 1982 (loi n° 82652) dite loi sur la communication audiovisuelle (Cour de cassation – Chambre criminelle 16 octobre 2018 in fine).

Par cette loi, le législateur de l’époque crée un régime de responsabilité spécial, directement fondé sur la loi du 29 juillet 1881 et notamment son article 29 qui consacre la diffamation. Ce renvoi permet d’écarter le fondement classique de la responsabilité civile fondé sur l’article 1240 du Code civil (anciennement 1382 du Code civil) qui prévoit que « tout fait quelconque de l’homme, qui cause à autrui un dommage, oblige celui par la faute duquel il est arrivé à le réparer ». Cette responsabilité spéciale permet une meilleure adaptation des recours face aux réalités de l’Internet, notamment sur les difficultés probatoires que peuvent rencontrer les victimes.

L’article 1240 du Code civil requiert en effet classiquement trois critères pour retenir la responsabilité d’une personne : une faute, un lien de causalité et un dommage. Par cette loi, le législateur reconnaît donc la spécificité des cas de responsabilités sur l’Internet.

L’assimilation faite en 1982 pour l’Internet à la loi de 1881 sur la liberté de la presse vaut aujourd’hui pour les réseaux sociaux. C’est ce que prévoit la loi de 2004 dite LCEN (Tribunal correctionnel Pau, 12 nov. 2018). La loi de 1881 réprimant les propos diffamatoires par voie de presse est donc applicable aux messages postés sur une page Facebook ou un compte Twitter (Cour d’appel de de Paris – 17 déc. 2014 n° 12/20 756).

La Cour d’appel de Pau, dans un arrêt du 16 janvier 2024, a rappelé l’article 29 de la loi de 1881 et le fait que les abus de la liberté d’expression prévus et réprimés par la loi du 29 juillet 1881 ne peuvent être réparés sur le fondement de 1240 du Code civil, l’objectif étant d’interdire aux parties de contourner, en se fondant sur le droit commun, les dispositions protectrices de la liberté d’information et d’expression de la loi de 1881.

En l’espèce, il est constant que les appelants fondent leur action sur les dispositions des articles 1240 et 1241 du Code civil. Par conséquent, la cour estime que c’est donc justement que le premier juge, retenant que les dispositions des articles 1240 et 1241 du Code civil ne permettaient pas de sanctionner les abus à la liberté d’expression, a débouté les demandeurs de l’intégralité de leurs demandes

B – LE DÉLIT DE DIFFAMATION DANS LA LOI DE 1881           

La loi du 29 juillet 1881, dispositif cardinal de la liberté d’expression dans le corpus juridique français prévoit en son article 29 un délit : la diffamation.

Cet article dispose : « toute allégation ou imputation d’un fait qui porte atteinte à l’honneur ou à la considération de la personne ou du corps auquel le fait est imputé est une diffamation. La publication directe ou par voie de reproduction de cette allégation ou de cette imputation est punissable, même si elle est faite sous forme dubitative ou si elle vise une personne ou un corps non expressément nommés, mais dont l’identification est rendue possible par les termes des discours, cris, menaces, écrits ou imprimés, placards ou affiches incriminés ».

La diffamation requiert donc la réunion de cinq éléments : une allégation ou imputation, un fait déterminé, une atteinte à l’honneur ou à la considération, une personne ou un corps identifié, une publicité des propos.

Un arrêt du 26 février 2020 rendu par la Cour d’appel de Paris (Cour d’appel de Paris, 26 févr. 2020, 10/2020) précise cette notion de diffamation : « la diffamation, qui peut se présenter sous forme d’allusion ou d’insinuation, doit être appréciée en tenant compte des éléments intrinsèques et extrinsèques au support en cause, а savoir tant du contenu même des propos que du contexte dans lequel ils s’inscrivent ».

La publicité est le caractère le plus discuté en matière de diffamation, la Cour de cassation procédant à une différence d’analyse entre les pages publiques et privées. Plusieurs affaires concernant des insultes proférées par des salariés à propos de leurs employeurs ont en effet été rejetées par la Cour.

La haute juridiction a plusieurs fois procédé à une analyse du nombre d’amis de l’intéressé : si ce nombre dépasse celui du cercle d’amis restreint, alors le message litigieux pourra être considéré comme étant public (Civ. 1re, 10 avr. 2013, n° 11–19.530). À l’inverse, si le nombre d’amis demeure comparable à un cercle d’amis restreint, le caractère public n’est pas retenu et l’auteur pourra être exonéré. Dans le cas de Twitter, l’analyse diffère : pour les comptes privés, les juges pourront procéder à une évaluation du nombre de personnes suivant le compte. Pour le cas des comptes publics, la publicité est présumée (Cass. Crim, 11 décembre 2018, 17-85.159, Inédit)

La question du caractère public ou non d’un message Facebook peut s’avérer épineuse. La Cour de cassation semble s’attacher à un autre critère : celui de la communauté d’intérêts. Elle a ainsi pu retenir le caractère public d’un message publié au sein d’un groupe partageant une « communauté d’intérêts » (Civ. 1re, 10 avr. 2013, n° 11-19.530).

Dans le cas d’une page Facebook, la question est différente puisque le caractère public est plus aisé à caractériser : n’importe quel utilisateur peut avoir accès à cette page (CAA Nantes, 21 janv. 2016, n° 14NT02263).

S’ajoute à ces éléments dits « matériels » de l’infraction, un élément moral : l’intention de porter atteinte à l’honneur ou à la considération d’une personne ou d’un corps déterminé. Ce deuxième élément est le plus souvent présumé. C’est ce que juge la Cour de cassation dans un arrêt du 19 juin 2012  : (Cour de cassation, chambre criminelle, 19 juin 2012, n° 11-84.235) : « les imputations diffamatoires sont réputées, de droit, faites avec intention de nuire, mais elles peuvent être justifiées lorsque leur auteur établit sa bonne foi, en prouvant qu’il a poursuivi un but légitime, étranger а toute animosité personnelle, et qu’il s’est conformé à un certain nombre d’exigences, en particulier de sérieux de l’enquête, ainsi que de prudence dans l’expression, étant précisé que la bonne foi ne peut être déduite de faits postérieurs à la diffusion des propos ».

II – UN RÉGIME DE RESPONSABILITÉ EN CASCADE

A – LA RESPONSABILITÉ EN CASCADE : DÉTERMINATION DE L’AUTEUR PRINCIPAL

Déterminer qui est le responsable d’un acte de diffamation peut s’avérer complexe, surtout lorsque l’acte a été commis par l’intermédiaire d’un ordinateur.

Conscient de cette problématique, le législateur a instauré un système de responsabilité en cascade, permettant dans la plupart des cas, de déterminer un responsable. Ainsi, l’article 93-3 de la loi du 29 juillet 1982 prévoit que « l’auteur, et à défaut de l’auteur, le producteur seront poursuivis comme auteur principal ».

Appliqué à une page Facebook ou à un compte Twitter et à défaut d’auteur identifiable, il s’agira du producteur. Producteur au sens de celui « ayant pris linitiative de créer un service de communication au public » (Cass. crim., 16 févr. 2010 n°09-81.064) c’est-à-dire la personne physique qui fournit le service. Sachant que la jurisprudence considère que « le titulaire dun compte Facebook en est en conséquence le directeur de la publication » (Tribunal correctionnel de Pau, 12 nov. 2018). Cela vaut aussi pour un compte Twitter dont l’auteur n’est pas identifiable.

Cependant, le créateur ou animateur d’un site de communication au public, en tant que producteur, pourra se voir exonérer de toute responsabilité vis-à-vis du contenu du message adressé par un utilisateur s’il n’avait pas connaissance du message avant sa mise en ligne (Conseil constitutionnel, 16 sept. 2011, n° 2011-164 QPC). Pour une page Facebook.

Dans un arrêt rendu le 13 novembre 2020 par la Cour Administrative d’Appel de Paris (4e chambre de l’instruction), la personne mise en cause, animatrice d’une page Facebook contestait sa responsabilité, arguant que l’ordinateur utilisé pour administrer sa page se trouvait dans un lieu accessible au public et que plusieurs personnes pouvaient de fait, y avoir eu accès, sans son contrôle (la personne ne s’étant pas déconnectée de son compte personnel).

Elle cherchait ainsi à s’exonérer de sa responsabilité. La Cour a cependant refusé ce raisonnement en se fondant sur le fait qu’elle ne pouvait nier sa responsabilité. Le message litigieux provenant de son compte personnel et non d’un compte tiers : l’auteur avait utilisé les codes d’accès de l’administrateur de la page, sans que cette dernière ne puisse démontrer qui était cette personne. L’administrateur a donc était désigné comme responsable.

Ainsi, peut-être retenu comme auteur principal et donc responsable au sens de la loi du 29 juillet 1881, l’auteur du texte litigieux et à défaut l’administrateur de la page Facebook ou du compte Twitter (pour Facebook : Cour de cassation – Chambre criminelle, 1 septembre 2020, n° 19-84.505 – pour Twitter : Cour de cassation – Chambre criminelle, 10 mai 2017, 16.81-555)

Dans le cas précis de Twitter, il faut noter une spécificité : les membres apparaissent souvent sous pseudonyme, rendant l’exercice d’identification encore plus complexe (Cass. Crim. 8 janv. 2019). Afin de lutter plus efficacement contre les agissements de personnes non identifiables, la loi pour la confiance dans l’économie (loi du 21 juin 2004, précitée) a mis en place un régime de responsabilité spécifique. Ainsi, les hébergeurs ont l’obligation de supprimer les tweets illicites qui leur ont été signalés. Et ceux dans les plus brefs délais.

Dans un arrêt du 16 février 2023, la Cour d’appel de Versailles a établi que que la demande formulée par l’appelant n’a pas pour objet l’engagement de la responsabilité des sociétés Google Ireland Limited et Google LLC sur le fondement de la loi du 29 juillet 1881, aucune des infractions de presse prévues par ce texte ne leur étant reprochée et aucune des qualités mentionnées ne pouvant leur être appliquées, seul demeure au débat à hauteur de la cour, le respect de leurs obligations en matière de traitement de données personnelles. Par conséquent, la cour considère que la fin de non-recevoir tirée de ce moyen sera rejetée.

B –  LE RÉGIME D’EXONÉRATION

Il existe en finalité peu de cas d’exonération de responsabilité pour des propos diffamatoires sur une page Facebook ou un compte Twitter. Le principal cas pour l’auteur n’en est pas réellement un : cela recouvre la situation dans laquelle il n’est pas identifiable. Un autre cas d’exonération pour l’auteur peut être celui d’arguer la non-publicité de la diffamation ou le manque d’un critère constitutif de la diffamation. Mais encore une fois ce il ne s’agit pas d’un réel cas d’exonération.

Pour l’administrateur, l’exonération peut venir de la démonstration que les propos diffamatoires publiés sur sa page n’avaient pas été portés à sa connaissance avant publication. Dans le cas où son identité a été usurpée et qu’un usage malveillant de son compte Facebook ou Twitter a été perpétré, l’administrateur pourra se voir exonérer de toute responsabilité pour des propos diffamatoires. Il devra pour cela rapporter la preuve de l’usurpation (en lien : Tribunal correctionnel de Paris 18 avril 2019).

Tel ne fut pas le cas dans l’affaire précitée du 13 novembre 2020 (Cour Administrative d’Appel de Paris, 4e chambre de l’instruction).

Dans le cas où une personne publie un message à caractère diffamatoire sur une page Facebook ou un compte Twitter qu’elle n’administre pas et si l’administrateur intervient promptement pour supprimer le commentaire, alors sa responsabilité pourra être écartée. C’est le même mécanisme que celui prévu par la LCEN (Loi sur la Confiance dans l’Économie Numérique du 21 juin 2004), pour les hébergeurs.

En somme, la responsabilité en cascade prévue par la loi du 29 juillet 1982 réduit considérablement les cas d’exonérations pour des cas de diffamation.

Pour lire cet article sur la diffamation sur les réseaux sociaux, Facebook et Twitter en version plus détaillée, cliquez

SOURCES :

RÈGLEMENT « DIGITAL SERVICES ACT » POUR UNE RESPONSABILISATION DES PLATEFORMES

Face à la montée de problématiques telles que la haine en ligne, la manipulation de l’information, la désinformation, et la contrefaçon, l’Union européenne (UE) a adopté une nouvelle mesure réglementaire, le Digital Services Act (DSA), pour réguler les activités des plateformes numériques, en particulier celles des géants du web, les GAFAM.

Pour faire supprimer un contenu qui bafoue vos droits, utilisez le service mis en place par le cabinet Murielle-Isabelle CAHEN.

Promulgué le 19 octobre 2022, ce règlement a pour but d’accroître la protection des Européens dans un monde numérique en constante évolution. Il agit en tant que modernisation de la Directive du 8 juin 2000 sur le commerce électronique, cherchant à mettre à jour et à renforcer les dispositions de cette directive pour tenir compte de l’évolution rapide du paysage numérique.

Ainsi, Les plateformes en ligne devront proposer aux internautes un outil leur permettant de signaler facilement les contenus illicites. Une fois le signalement effectué, elles devront rapidement retirer ou bloquer l’accès au contenu illégal. Dans ce cadre, elles devront coopérer avec des « signaleurs de confiance ». Ce statut sera attribué dans chaque pays à des entités ou organisations en raison de leur expertise et de leurs compétences. Leurs notifications seront traitées en priorité.

Le règlement s’applique à tous les services intermédiaires fournis aux internautes et ayant leur lieu d’établissement ou de résidence dans l’union européenne.


Besoin de l’aide d’un avocat pour un problème de contrefaçon ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien


Autrement dit, le lieu d’établissement de la plateforme ou du prestataire est sans incidence dès lors que la seule utilisation du service dans le territoire de l’union européenne permet au DSA d’être applicable.

Un tel règlement permet de protéger la cible des plateformes : les utilisateurs. En effet, tous les prestataires seront soumis aux mêmes obligations prévues par le DSA.

En somme, doivent se soumettre au DSA :

Les fournisseurs d’accès à internet ;

Les fournisseurs de services intermédiaires (services d’information, de mise en marche et d’hébergement) ;

Les plateformes en ligne telles que les réseaux sociaux, les plateformes marchandes, ou les plateformes de voyage et d’hébergement ;

Les moteurs de recherches et plateformes en ligne utilisés par plus de 45 millions d’Européens par mois et désignés comme « Très grande plateforme » par la Commission européenne.

A ce titre, en avril 2023, la Commission européenne a adopté les premières décisions listant 17 très grandes plateformes en ligne et 2 très grands moteurs de recherche en ligne touchant au moins 45 millions d’utilisateurs européens actifs par mois.

De ce fait, ces règlements pourront avoir un impact significatif et déterminant sur l’économie numérique mondiale.

Inquiets et désabusés devant les pratiques des géants du numérique qui constituent les GAFAM ou MAMAA, les institutions Européennes entendent bien mettre au pas ces grandes sociétés tentaculaires qui occupent une position presque oligopolistique sur ces différents marchés que sont le numérique et la publicité.

Ces règlements s’inscrivent également dans un mouvement de régulation sur internet qui vise notamment à stopper certains agissements des grandes plateformes, mieux protéger les internautes et à favoriser le jeu de la concurrence sur les marchés numériques. Responsabiliser ces acteurs incontournables semble donc nécessaire.

L’opacité des méthodes déployées par ces derniers engendre également de nombreux problèmes. C’est la raison pour laquelle le règlement DSA vise à apporter un nouveau cadre au système de recommandation de contenu aux utilisateurs (I) afin de mieux réguler les publicités ciblées (II).

I) Un cadre nouveau pour les systèmes de recommandations en ligne

Vous l’avez sans doute remarqué en surfant sur le web : les recommandations foisonnent sur les réseaux sociaux et les moteurs de recherche. Celles-ci sont rendues possibles grâce aux algorithmes de recommandation. (A) Pour faire face à ce système bien rôdé qui présente des risques certains pour les utilisateurs, l’Europe a mis en place un cadre juridique basé sur la transparence (B).

A) L’univers numérique : un monde gouverné par les algorithmes

De manière générale l’accès à l’information implique nécessairement l’usage d’algorithme. Tous les moteurs de recherche que nous utilisons les utilisent afin de nous diriger de manière optimale vers l’information recherchée. Les plateformes de partage de vidéos tels que Youtube ou Netflix ne sont pas en reste et les utilisent massivement.

Ces algorithmes influencent de manière radicale nos choix, nos goûts et nos envies.

C’est d’ailleurs ce qui avait été reproché à Google Shopping qui avait été condamnée en 2021 par le Tribunal de l’UE à une amende record de 2,42 milliards d’euros. Google avait alors auto préférencé les liens dirigeant vers Google Shopping, son propre comparateur de produit au détriment des autres concurrents. Cette pratique pourrait par le biais des recommandations être appliquée.

Dans une étude publiée par le Conseil supérieur de l’Audiovisuel en 2019, il ressortait que les critères qui gouvernent les algorithmes sont : les préférences et historique de consommation des utilisateurs, les types de contenus, les partages, les commentaires, les likes, les sites visités… La manière dont ces données alimentent les algorithmes et l’utilisation qui en est faite par ces derniers reste un mystère.

Le système manque singulièrement de transparence et aucune explication n’est faite à propos des contenus qui sont proposés aux utilisateurs.

Pourtant comme cela a été mis en évidence dans l’affaire Google Shopping l’importance du classement d’une information ou d’un produit est déterminante, et c’est bien le danger que représente ce système opaque qui peut engendrer non seulement des comportements déloyaux envers les concurrents, mais également des effets extrêmement négatifs sur les habitudes de consommation de l’ensemble des utilisateurs.

Un mauvais usage de cette puissance informationnelle pourrait conduire à biens des catastrophes (manipulation des utilisateurs, relayage de fausses informations). C’est d’ailleurs ce point qui ressort dans les considérants du règlement ici présenté : les systèmes de recommandation algorithmique jouent un rôle important dans l’amplification de certains messages et la diffusion d’informations.

On est alors en mesure de s’interroger sur la variété et la qualité des points de vue donnés par le moteur de recherche sur un sujet donné à ses utilisateurs.

Déjà sanctionnées sous le prisme du droit de la concurrence par le Digital Market Act, le règlement qui accompagne le DSA vient interdite les pratiques d’auto-préférence, lorsqu’elles revêtent un caractère anticoncurrentiel, les modes de fonctionnement des algorithmes devront être dévoilées au grand jour par l’instauration par le DSA d’obligations de transparence et d’explicabilité.

B) Une obligation renforcée de transparence et d’explication

Explicabilité et transparence sont les maitres mots du DSA. L’importance des systèmes de recommandation algorithmique n’est plus à prouver et les risques qu’ils entrainent sont certains. Le législateur Européen l’a bien compris et le DSA désigne désormais ces systèmes de recommandation comme étant de potentiels « facteurs d’aggravation des risques systémiques » portés par les très grandes plateformes.

Le règlement vient imposer à ces dernières de prévoir au moins une option de système de recommandation n’étant pas fondée sur le profilage.

A l’égard de toutes les plateformes le DSA vient créer des obligations de transparence et d’explicabilité de leur système de recommandation.

L’article 24 bis du DSA prévoit ainsi une obligation pour les plateformes d’intégrer dans leurs conditions générales « dans un langage clair et compréhensible, les principaux paramètres utilisés dans leurs systèmes de recommandation, ainsi que toute option permettant aux bénéficiaires du service de modifier et d’influencer ces principaux paramètres ».  Les plateformes devront ainsi permettre aux utilisateurs de paramétrer eux-mêmes les algorithmes de recommandation.

L’article apporte par la suite des précisions sur les informations qui devront figurer dans les conditions générales pour satisfaire aux exigences du paragraphe susmentionné. Ces informations devront comprendre les critères les plus significatifs qui permettent aux algorithmes de dresser leurs recommandations.

L’objectif visé par le législateur est de contraindre les plateformes à informer les utilisateurs que d’une part les informations qui lui sont présentées ont fait l’objet d’un reclassement par ordre de priorité, et comment d’autre part cet ordre de priorité est déterminé et à partir de quelles informations.

L’explicabilité et la transparence impliquent nécessairement une exigence de clarté et d’intelligibilité des explications ainsi transmises à l’utilisateur. C’est la raison pour laquelle l’article 24 bis du DSA mentionne un « langage clair et compréhensible ».

Cette obligation d’intelligibilité s’inscrit dans la continuité du règlement RGPD qui visait à rendre l’utilisation des données personnelles des utilisateurs par les plateformes numériques compréhensible. La formule « langage clair et compréhensible » sera par la suite reprise dans de nombreux points du DSA. (Article 12 du DSA qui oblige à faire usage d’un langage clair et compréhensible dans les conditions générales, ou encore l’article 38 qui impose une fois encore une obligation spécifique de clarté et d’adaptation du langage utilisé dès lors que le public visé est constitué de mineurs).

Dorénavant les grandes plateformes devront également fournir un résumé clair et concis des habituelles conditions générales interminables, dont personne ne daigne réellement prêter attention.

Cet encadrement des systèmes de recommandation a de toute évidence pour finalité de protéger l’utilisateur des plateformes. L’utilisateur doit rester conscient du fonctionnement de ces dernières afin de préserver un consentement libre et éclairé à tout acte qu’il effectuera sur les plateformes.

II) L’émergence d’un cadre juridique pour la publicité ciblée

La publicité ciblée est massivement utilisée par les plateformes du numérique et génère des revenus considérables. Pouvant avoir de nombreuses conséquences sur le comportement des consommateurs et sur le jeu de la concurrence, le recours à ces méthodes de publicité doit être fortement encadré. C’est la raison pour laquelle le législateur vient ici encore imposer aux plateformes une obligation renforcée de transparence en ce qui concerne la publicité ciblée (A). Ces obligations vont bouleverser les méthodes des plateformes numériques et fortement sensibiliser les consommateurs, ce qui risque de mener à une forte réduction de ces dernières (B).

A. La publicité ciblée au cœur des obligations de transparence

La CNIL définit la publicité ciblée comme étant une technique publicitaire qui vise à identifier les personnes individuellement afin de leur diffuser des messages publicitaires spécifiques en fonction de leurs caractéristiques individuelles.

Ce procédé représente aujourd’hui une part de revenus considérable pour les plateformes du numérique (près de 7 678 milliards d’euros de recette rien qu’en France en 2021) et apparait être l’un des piliers de l’économie numérique ainsi que la principale cause de collectes des données personnelles.

A la différence des publicités classiques qui font l’objet d’espaces dédiés et sont clairement identifiées, les publicités ciblées sont intégrées dans le flux de contenu habituel des utilisateurs.

Partant de ce constat, le DSA instaure un nouveau cadre particulièrement restrictif et allant au-delà de ce qui découlait de l’application du RGPD et de la directive e-privacy,  sans préjudice des principes posés par ces textes.

Désormais les plateformes devront veiller à ce que les utilisateurs soient informés de la présence de ces publicités. Ces dernières devront également être clairement identifiables par le consommateur moyen et ce de manière non ambiguë. Cette identification passera par l’apposition obligatoire de marques visuelles et sonores qui devront être adaptées à la nature de l’interface en question (Youtube, Facebook, Instagram etc…).

L’article 24 du DSA viendra ainsi contraindre les plateformes à :

  • Rendre visible et identifiable tout contenu publicitaire ;
  • Rendre identifiable la personne au nom et pour le compte de qui la publicité est diffusée ;
  • Exposer les paramètres utilisés pour cibler le consommateur

Désormais le ciblage publicitaire ne pourra plus être réalisé sur la base de données « sensibles » au sens du RGPD et ne pourra plus être réalisé à destination des mineurs.

Ces obligations ne sont pas sans faire échos au scandale « Cambridge Analytica » et à l’utilisation de données personnelles liées aux convictions politiques dans un but d’influencer le comportement les électeurs.

Il est à espérer que ces obligations auront un impact significatif sur la perception du consommateur ainsi que sur l’usage de la publicité ciblée.

B. L’éventuel impact sur les revenus des plateformes générés par la publicité ciblée

Il est probable que les limites posées par le DSA à l’utilisation des systèmes de profilage pour proposer des publicités aux utilisateurs pourraient conduire à une forte diminution de son importance.

L’interdiction faite aux plateformes de proposer de la publicité au mineur risque de bouleverser considérablement le modèle économique de ces dernières. En effet le DSA précise que les plateformes ne pourront proposer de la publicité ciblée lorsqu’elles savent avec « une certitude raisonnable que les utilisateurs sont mineurs ».

L’article 52 du DSA vient par la suite préciser qu’une plateforme est considérée comme accessible aux mineurs lorsque ses conditions générales permettent à ces derniers d’utiliser le service.

Si l’on retient une interprétation stricte de cet article, toute plateforme qui autorise aux mineurs l’accès à ses services devrait soit bannir toute publicité ciblée de son modèle, soit parvenir à distinguer parmi ses utilisateurs lesquels sont mineurs ou majeurs de manière fiable.

Une autre disposition intéressante fait son apparition à la lecture de l’article 24 du DSA qui prévoit que les plateformes ne pourront collecter plus d’informations qu’habituellement au prétexte de pouvoir continuer à mettre en œuvre la publicité ciblée.

Les plateformes pourraient mettre en place des mécanismes afin de contourner ces obligations, tels que l’instauration d’un système déclaratif de l’âge des utilisateurs ou autres déclarations sur l’honneur. Ces mécanismes ont déjà sur certaines plateformes été mis en place et ont brillé par leur inefficacité. En l’absence d’identité numérique, toute identification effective reste pour l’instant impossible.

L’article 29 du DSA vient également préciser que les très grandes plateformes (Youtube, Google, Facebook, Tiktok etc..) doivent fournir au moins une option pour leurs systèmes de recommandation qui ne soit pas fondée sur le profilage. Les très grandes plateformes devront donc proposer aux utilisateurs un moyen de désactiver les publicités ciblées.

Toutes ces mesures devraient conduire inexorablement de nombreux utilisateurs à désactiver les publicités ciblées de leur interface, et ainsi par voie de conséquence conduire à une forte diminution des recettes astronomiques réalisées par les très grandes plateformes.

Certaines plateformes qui visent principalement un public mineur (Tiktok, Snapchat) se verront en principe interdire totalement le recours à la publicité ciblée.

Bien que le DSA n’entraine pas l’interdiction complète de l’usage de la publicité ciblée, il en réduira très certainement la portée.

Toutes ces mesures sont à saluer dans un contexte tel que celui que nous connaissons aujourd’hui, fortement marqué par la montée en puissance de ces géants du numérique. Ces derniers disposant d’un pouvoir financier et d’influence sans limite ne devraient plus continuer bien longtemps à œuvrer en toute impunité.

Pour lire une version plus complète de cet article sur le digital act et la responsabilité des plateformes de commerce électronique, cliquez

Sources :

https://www.vie-publique.fr/eclairage/285115-dsa-le-reglement-sur-les-services-numeriques-ou-digital-services-act#:~:text=Les%20plateformes%20en%20ligne%20devront,des%20″signaleurs%20de%20confiance« .
https://www.plravocats.fr/blog/technologies-propriete-intellectuelle-media/tout-comprendre-du-digital-services-act-dsa
https://www.vie-publique.fr/dossier/284898-dsa-et-dma-tout-savoir-sur-les-nouveaux-reglements-europeens
https://www.vie-publique.fr/eclairage/285115-dsa-le-reglement-sur-les-services-numeriques-ou-digital-services-act
https://www.economie.gouv.fr/legislation-services-numeriques-dsa-adoption-definitive-text
https://eur-lex.europa.eu/legal-content/FR/TXT/PDF/?uri=CELEX:32022R2065
Communications électroniques – Quel système de gouvernance pour le DMA et le DSA ? – Focus par Laurence IDOT (Lexis)

LE ROLE DES PLATEFORMES EN LIGNE DANS LA LUTTE CONTRE LA MANIPULATION DE L’INFORMATION

La révolution numérique a apporté de nombreux changements et notamment un accès illimité à l’information. Or dans le même temps, le développement d’Internet et des réseaux de télécommunications a permis à n’importe qui de s’exprimer, de partager et de créer des contenus informationnels. La manière dont nous nous informons a parallèlement radicalement changé et la crédibilité accordée aux médias ainsi qu’aux institutions publiques s’est affaiblie au profit de nouveaux acteurs émergeant sur Internet qui tirent souvent leur légitimité par le nombre de personnes qui les suivent.  

NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire !

Par ailleurs, les bulles algorithmiques créées par les plateformes que nous utilisons nous confortent dans nos idées et bien souvent le sensationnisme est préféré au réalisme qui laisse place à une euphorie générale.

Mais comment s’assurer que les informations que nous consultons sont bel et bien fiables ?
Comment être sûr que nous ne subissons aucune influence de la part des algorithmes ?
Et surtout quels sont les risques liés à la manipulation de l’information ?

Comme en témoigne les récentes élections présidentielles américaines de 2016, les élections françaises de 2017 et la campagne du Brexit influencée par la société Cambridge Analytica, ce phénomène de déstructuration du paysage de l’information a des répercussions sur notre conception du monde et peut donc influencer le choix final à l’occasion d’élections.

Face aux risques grandissants de manipulation à grande échelle, la France a fait le choix en 2018, d’ajouter à son arsenal législatif une nouvelle loi visant à lutter contre la manipulation de l’information.

Tout d’abord, cette loi introduit une nouvelle mesure de référé visant à lutter contre la manipulation de l’information à l’heure numérique et de permettre d’endiguer la diffusion de fausses informations pendant les périodes de campagne électorale (article L. 163-2 du Code électoral). Cette mesure ne fera pas l’objet d’un développement ici.


Besoin de l’aide d’un avocat pour un problème de contrefaçon ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien


En parallèle, elle sollicite les plateformes dans cette lutte en leur imposant un certain nombre d’obligations de moyens et de transparence. D’une part, elle permet de responsabiliser les plateformes en leur imposant la mise à disposition d’outils qui permettent aux utilisateurs de signaler les contenus. D’autre part, elle tend à rendre plus transparents le fonctionnement et l’effectivité des mesures en instaurant un mécanisme de coopération avec l’ARCOM (anciennement le CSA).

Cependant les récentes révélations impliquant une société israélienne dans la manipulation d’élections à grande échelle et le piratage de responsables politiques africains remuent les inquiétudes liées à la diffusion de fausses informations en ligne. Il semble donc nécessaire de rester vigilant et de lutter à notre échelle contre la diffusion de fausses informations.

 I. Le devoir de coopération des opérateurs de plateforme en ligne lors des périodes électorales

Même si le juge peut prendre des mesures pour lutter contre la manipulation de l’information, les opérateurs de plateformes en ligne ont la responsabilité de réguler les contenus qui se propagent sur leur plateforme. Dans cet objectif, la loi du 22 décembre 2018 impose aux plateformes en ligne un devoir de coopération durant les périodes électorales, qui implique à la fois des obligations de moyens et des obligations de transparence.

A. Les plateformes concernées

Codifié à l’article 163-1 du Code électoral, les opérateurs plateformes en ligne concernés par ces obligations lors des périodes électorales sont ceux visés à l’article L. 111-7 du Code de la consommation.

Comme le précise cet article « Est qualifiée d’opérateur de plateforme en ligne toute personne physique ou morale proposant, à titre professionnel, de manière rémunérée ou non, un service de communication au public en ligne reposant sur :

1 o Le classement ou le référencement, au moyen d’algorithmes informatiques, de contenus, de biens ou de services proposés ou mis en ligne par des tiers ;

 2o Ou la mise en relation de plusieurs parties en vue de la vente d’un bien, de la fourniture d’un service ou de l’échange ou du partage d’un contenu, d’un bien ou d’un service. »

Conformément au décret du 10 avril 2019, sont uniquement visés les opérateurs de plateforme en ligne dépassant un seuil de 5 millions de visiteurs unique par mois calculé sur la base de la dernière année civile (Décret n° 2019-297, 10 avr. 2019 relatif aux obligations d’information des opérateurs de plateforme en ligne assurant la promotion de contenus d’information se rattachant à un débat d’intérêt général, JO 11 avr., n° 40). Ce décret est désormais codifié aux articles D. 102-1, I et suivants du Code électoral.

B. Les obligations des opérateurs de plateformes en ligne lors des périodes électorales

La loi du 22 décembre 2018 relative à la manipulation de l’information poursuit une logique de responsabilisation des opérateurs de plateforme en ligne, dans l’objectif de construire une relation de confiance entre eux, les pouvoirs publics et la société civile.

  1. Périodes électorales

Les obligations visées à l’article 163-1 du Code électoral ont vocation à s’appliquer « pendant les trois mois précédant le premier jour du mois d’élections générales et jusqu’à la date du tour de scrutin où celles-ci sont acquises ».

Sont visées par ces dispositions l’élection du Président de la République, les élections générales des députés, l’élection des sénateurs, l’élection des représentants au Parlement européen et les consultations référendaires.

  1. Détails des obligations

Le dispositif légal exige des principaux opérateurs de plateformes en ligne de fournir des informations claires et transparentes sur l’identité des personnes ou des entreprises qui paient pour promouvoir des contenus liés à des débats d’intérêt général toujours dans l’optique de lutter contre la propagation de fausses informations pendant les périodes électorales.

Par ailleurs, ils devront « fournir à l’utilisateur une information loyale, claire et transparente sur l’utilisation de ses données personnelles dans le cadre de la promotion d’un contenu d’information se rattachant à un débat d’intérêt général ».

Enfin, ces opérateurs de plateforme devront également « rendre public le montant des rémunérations reçues en contrepartie de la promotion de tels contenus d’information lorsque leur montant est supérieur à un seuil déterminé. »

L’article D. 102-1 du Code électoral précise que « le montant de rémunération à partir duquel ces opérateurs sont soumis aux obligations du 3 o de l’article L. 163-1 est fixé à 100 euros hors taxe, pour chaque contenu d’information se rattachant à un débat d’intérêt général. »

Conformément aux dispositions des articles L. 163-1 et D.102-2 du Code électoral, ces informations sont agrégées au sein d’un registre mis à la disposition du public par voie électronique, dans un format ouvert, et régulièrement mis à jour pendant les trois mois précédant le premier jour du mois d’élections générales et jusqu’à la date du tour de scrutin où celles-ci sont acquises.

II. La responsabilisation des opérateurs de plateformes en ligne pour la lutte contre la manipulation de l’information

La loi du 22 décembre 2018 instaure un devoir de coopération aux opérateurs de plateforme en ligne dans la lutte contre la manipulation de l’information, et ce, même en dehors des périodes électorales. Le dispositif légal donne également des prérogatives nouvelles à l’ARCOM (anciennement le CSA) dans la lutte contre la diffusion de fausses informations.

A. Les obligations des opérateurs de plateformes en ligne dans la lutte contre la désinformation

L’article 11 de la loi du 22 décembre 2018 prévoit une série d’obligations que les opérateurs de plateformes en ligne doivent mettre en place.

En complément des obligations imposées aux opérateurs de plateformes en ligne, le Conseil Supérieur de l’Audiovisuel (CSA) a publié une recommandation le 15 mai 2019 pour améliorer la lutte contre la propagation de fausses informations qui pourraient perturber l’ordre public ou compromettre l’intégrité des élections (mentionnées dans l’article 33-1-1 de la loi du 30 septembre 1986). Cette recommandation est basée sur les initiatives de l’Union européenne pour lutter contre la désinformation, notamment la communication de la Commission européenne du 26 avril 2018 intitulée « Lutter contre la désinformation en ligne : une approche européenne », le code de pratique sur la désinformation du 26 septembre 2018 et la communication conjointe fixant le plan d’action contre la désinformation de l’Union européenne du 5 décembre 2018.

  1. La mise en place d’un dispositif de signalement facilement visible et accessible

Le dispositif de signalement doit être facile d’accès et visible. Concrètement, un intitulé clair doit désigner le dispositif et le rendre identifiable, il peut s’agir par exemple d’un intitulé « Signaler le contenu ». Les plateformes sont incitées à prévoir, dans leur formulaire de signalement, une catégorie « Fausse information ».

L’affichage de ce dispositif doit se trouver à proximité immédiat du contenu ou du compte susceptible d’être signalé.

Enfin, la recommandation incite à simplifier au maximum le dispositif de signalement en rendant possible la finalisation de cette procédure en trois clics.

B. Les obligations de transparence des opérateurs de plateformes en ligne envers leurs utilisateurs

En sus de l’obligation légale de fournir un outil de signalement, les opérateurs doivent mettre en œuvre des mesures supplémentaires concernant la transparence de leurs algorithmes. Cela implique d’indiquer la promotion de contenus provenant d’entreprises, d’agences de presse et de services de communication audiovisuelle, de lutter contre les comptes qui propagent de fausses informations de manière massive, de fournir aux utilisateurs des informations sur les contenus sponsorisés qui se rapporte aux débats d’intérêt général, ainsi que d’assurer une éducation aux médias et à l’information.

  1. La transparence des algorithmes

L’objectif clairement affiché ici est de redonner aux utilisateurs le contrôle et la capacité d’exercer leur esprit critique en toute connaissance de cause vis-à-vis des contenus proposés par les plateformes en ligne. Pour y parvenir, ils doivent pouvoir accéder à des informations leur permettant de comprendre les principes de fonctionnement des algorithmes qui régissent la sélection, l’organisation et l’ordonnancement de ces contenus.

Cette obligation est motivée par le souci de faciliter la compréhension des algorithmes utilisés pour la sélection de contenus, afin d’éviter les risques associés aux bulles algorithmiques qui renforcent les convictions, attisent l’extrémisme, la discorde, la violence, les dérives sectaires et les obscurantismes.

  1. La promotion des contenus issus d’entreprises, d’agences de presse et de services de communication audiovisuelle

À travers cette obligation, le législateur souhaite que les plateformes en ligne valorisent les contenus fiables.

La recommandation du 15 mai 2019 encourage à ce titre les opérateurs de plateforme en ligne à tenir compte des démarches de labellisation, notamment celles réalisées par les entreprises et agences de presse et les services de communication audiovisuelle et de déployer des moyens technologiques visant à mettre en avant les informations provenant de ces sources et en particulier les contenus dits de « fact-checking » dans les résultats des moteurs de recherche, les fils d’actualité et les autres canaux de diffusion opérant par classement automatisé.

Comme le relève l’ARCOM dans son bilan annuel pour l’année 2021, le module NewsGuard, en partenariat avec Bing, permet d’indiquer au moyen d’un code-couleur la fiabilité d’une source d’information, ce qui contribue à la bonne information des utilisateurs. Ce dispositif insérer directement sur le navigateur web permet aux internautes qui le souhaitent, de vérifier si un site d’information est fiable et crédible sur la base de neuf critères réunis dans une « étiquette » informative dite « étiquette nutritionnelle ».

  1. La lutte contre les comptes propageant massivement de fausses informations

Les plateformes doivent mettre en place des mesures pour détecter et signaler les comportements inauthentiques et les activités de manipulation automatisée des contenus (bots).

L’ARCOM recommande des procédures appropriées afin d’assurer la détection des comptes propageant massivement de fausses informations et destinées à faire obstacle à l’action de ces comptes (avertissement, suppression, mise en quarantaine, restrictions des droits de l’utilisateur ou de la portée des contenus qu’il diffuse, etc.) dans le respect de la liberté d’expression et de communication.

  1. L’information des utilisateurs sur la nature, l’origine, les modalités de diffusion des contenus et l’identité des personnes versant des rémunérations en contrepartie de la promotion de contenus d’information

Il s’agit encore une fois de déployer des dispositifs appropriés permettant aux utilisateurs d’être informés sur la nature, l’origine et les modalités de diffusion des contenus.

Plusieurs opérateurs ont mis en place des bibliothèques publicitaires permettant d’accéder à tout ou partie des contenus sponsorisés.

  1. Favoriser l’éducation aux médias et à l’information

Les opérateurs sont encouragés à sensibiliser les utilisateurs à l’influence de leurs propres contenus. Ils doivent contribuer à développer leur sens critique, particulièrement celui des plus jeunes.

À ce titre, l’ARCOM incite les plateformes à développer des outils adaptés d’analyse de la fiabilité des sources d’information, tels que des modules vidéo et des guides qui pourront aider les utilisateurs à identifier les sources fiables.

À titre d’exemple, il est possible de citer le programme « Be Internet Awesome » lancé en 2017 par Google. Il vise à éduquer les enfants de 9 à 14 ans aux rudiments de la citoyenneté à l’ère du numérique et à la sécurité en ligne afin qu’ils puissent « explorer le monde avec confiance ».

C. La coopération des opérateurs de plateformes en ligne avec l’ARCOM

Au-delà de ces obligations, les opérateurs de plateformes en ligne sont tenus de transmettre une déclaration annuelle à l’ARCOM et de désigner un interlocuteur référent.

  1. Les informations à transmettre à l’ARCOM

  1. Déclaration annuelle des opérateurs de plateforme en ligne

Conformément à l’article 11 de cette loi, les opérateurs de plateforme en ligne dépassant un seuil de connexion de 5 millions d’utilisateurs uniques par mois (moyenne annuelle), sont tenus de transmettre au Conseil supérieur de l’audiovisuel une déclaration annuelle faisant état des moyens déployés pour œuvrer à cette lutte.

Chaque année, l’ARCOM adresse un questionnaire aux opérateurs de plateformes en ligne. Ce questionnaire a pour objectifs d’accompagner les opérateurs dans la préparation de leur déclaration annuelle. Il est possible de visualiser l’ensemble des questionnaires directement depuis son site internet.

L’article 12 de la même loi confie à l’autorité le soin d’établir un bilan de l’application et de l’effectivité de ces mesures.

En 2022, douze opérateurs ont adressé une déclaration à l’autorité de régulation de la communication audiovisuelle et numérique (ARCOM). Parmi eux, Dailymotion, Google, LinkedIn, Meta, Microsoft, Pinterest, Snapchat, TikTok, Twitter, Webedia, la Fondation Wikimédia et Yahoo!.

  1. Désignation d’un interlocuteur référent

Au titre de l’article 13 de la loi du 22 décembre 2018, chaque opérateur de plateforme en ligne est tenu de désigner un représentant légal exerçant les fonctions d’interlocuteur référent sur le territoire français.

Dans sa recommandation du 15 mai 2019 aux opérateurs de plateforme en ligne dans le cadre du devoir de coopération en matière de lutte contre la diffusion de fausses informations, l’ARCOM invite chaque opérateur à lui faire connaître ce représentant par le biais d’un formulaire de déclaration disponible en ligne.

  1. Sanctions

En cas de manquement à ces obligations, les opérateurs de plateforme en ligne peuvent être sanctionnés par la CNIL (Commission nationale de l’informatique et des libertés) ou par le CSA (Conseil supérieur de l’audiovisuel). La CNIL est compétente pour sanctionner les manquements aux obligations en matière de protection des données personnelles, tandis que le CSA est compétent pour les manquements aux obligations en matière de diffusion de contenus audiovisuels.

Les sanctions peuvent inclure des amendes, des injonctions, des retraits de contenus, voire la suspension ou la fermeture de la plateforme en ligne en cas de récidive ou de manquements graves. La loi prévoit également que les utilisateurs puissent signaler les contenus qu’ils considèrent comme faux ou trompeurs aux opérateurs de plateforme en ligne et que ces derniers devront les examiner et les traiter dans un délai raisonnable.

III. La genèse de la désinformation et les risques

À une échelle plus large, la manipulation de l’information se répand dans différents domaines et ne se limite pas aux seules élections. La diffusion de fausses informations a pris ses quartiers sur les plateformes en ligne que nous utilisons quotidiennement, et pour lutter contre ce fléau, il apparaît essentiel de comprendre son origine et d’évaluer ses conséquences sur nos sociétés.

A. L’origine de la désinformation

La désinformation ne se limite pas aux « fake news », mais englobe toute information fausse, inexacte ou trompeuse qui est délibérément conçue, présentée et promue dans le but de causer un préjudice public ou de réaliser des gains financiers. Cependant, cela n’inclut pas les problèmes résultant de la création et de la diffusion en ligne de contenus illégaux, tels que la diffamation, les discours haineux ou l’incitation à la violence, qui sont réglementés par la législation européenne ou nationale, ni d’autres formes de déformation délibérée mais non trompeuse des faits.

En 2018, le scandale « Cambridge Analytica » avait permis de révéler comment l’entreprise britannique avait acquis les données personnelles de près de 87 millions d’utilisateurs de Facebook pour influencer les électeurs à « une échelle industrielle ». La société, qui vendait ses services dans une soixantaine d’États (en passant du régime iranien à la compagnie pétrolière nationale malaisienne) s’est à ce titre retrouvée accusée d’avoir manipulé de nombreuses élections. Elle a notamment contribué à la victoire de Donald Trump en 2016 aux États-Unis et au vote du Brexit en Angleterre. Lorsque l’affaire a fait la une des journaux, le nom de Cambridge Analytica est devenu synonyme de désinformation dans le monde entier.

En 2016, la Macédoine du Nord a été impliquée dans une affaire de désinformation liée aux élections présidentielles américaines. Des individus basés sur ce pays ont été créés et diffusés de fausses informations en ligne pour influencer l’opinion publique américaine et soutenir le candidat républicain Donald Trump en discréditant sa rivale, la candidate démocrate Hillary Clinton. Ces fausses nouvelles ont permis aux créateurs de sites web de générer des revenus publicitaires, certains gagnant jusqu’à 3 000 dollars par mois. Une véritable fortune dans un pays où le salaire moyen est de 409 euros. La différence avec le salaire moyen en France est de 82 %. : (https://www.etui.org/fr/themes/sante-et-securite-conditions-de-travail/hesamag/ou-va-le-travail-humain-a-l-ere-du-numerique/a-veles-a-la-rencontre-des-fabricants-de-fausses-nouvelles)

Cette affaire a suscité des inquiétudes quant à la capacité des groupes et des individus à utiliser la désinformation en ligne pour influencer les résultats des et l’opinion publique. Depuis, plusieurs mesures ont été prises pour lutter contre la désinformation en ligne, notamment en Macédoine du Nord et dans d’autres pays.

Malheureusement la diffusion de fausses informations n’a pas pris fin avec les élections puisque les fabricants de fausses nouvelles s’efforcent de trouver de nouvelles thématiques telles que la nutrition, les véhicules automobiles, la santé, afin de continuer à générer des revenus.

Plus récemment, le consortium de journalistes « Forbidden stories » a révélé les pratiques d’une société israélienne spécialisée dans la manipulation de l’information. En poursuivant le travail de Gauri Lankesh, journaliste indienne qui enquêtait sur la désinformation et « les usines à mensonges », assassinée en 2017. La reprise du projet « Story Killers » par Forbidden stories dévoile une industrie usant de toutes les armes à sa disposition pour manipuler les médias et l’opinion publique, aux dépens de l’information et de la démocratie.

Ce travail d’investigation mené par les journalistes a permis de démontrer l’implication de cette société dans la manipulation de trente-trois élections à travers le monde et revendique parmi elles vingt-sept « succès ». Son mode opératoire consistait en la propagation de fausses informations notamment par l’intermédiaire de faux profils ou de bots.

L’enquête révèle également le piratage des politiciens africains ainsi que la manipulation d’information sur une chaîne de télévision française : BFM TV.

Le présentateur Rachid M’Barki est accusé par sa hiérarchie d’avoir diffusé à l’antenne des contenus non validés avec des « soupçons d’ingérence » au service d’intérêts étrangers.

Les contenus problématiques identifiés portent sur des thèmes concernant des oligarques russes, le Qatar, le Soudan, le Sahara marocain et le Cameroun ont été présenté et fourni clés en main à la chaîne pour le compte de clients étrangers.

Ces affaires témoignent des risques que comprend la désinformation. Elle peut être utilisée pour manipuler l’opinion publique et influencer les résultats des élections, des référendums ou des votes en faveur d’un parti politique ou d’un candidat, mais pas seulement… C’est justement ce que tente de mettre en lumière le récent rapport Bronner « Les lumières à l’ère numérique ».

B. Les risques de la désinformation

De nos jours, il existe de nombreuses sources d’informations accessibles, allant des journaux traditionnels aux réseaux sociaux et aux blogs. Les médias sociaux en particulier ont modifié la manière dont les personnes obtiennent des informations. Les utilisateurs de ces plateformes peuvent accéder aux informations provenant du monde entier en temps réel et les partager facilement avec leur réseau. Cependant, cette facilité d’accès à l’information a également entraîné la propagation de la désinformation et des fausses nouvelles, rendant difficile la distinction entre les informations fiables et les informations trompeuses.

La désinformation est très préjudiciable et peut entraîner des conséquences sur les individus et la société en général, semant la confusion et créant des incertitudes dans l’esprit des personnes. Cela peut entraîner une perte de confiance dans les institutions et les sources d’informations fiables.

Les conséquences de la désinformation sont clairement visibles dans des événements récents, tels que l’attaque du Capitole en janvier 2021 ou la montée des mouvements antivaccins en France. La désinformation est donc une menace pour la sécurité des personnes et la souveraineté des États, contribuant également à la propagation des préjugés et des stéréotypes.

De plus, les fausses informations et les rumeurs peuvent causer des dommages à la réputation d’une personne, d’une entreprise ou d’une organisation. Il est donc crucial de vérifier l’exactitude des informations avant de les partager ou de prendre des décisions fondées sur celles-ci.

 

Pour lire un article plus complet sur la désinformation en ligne et les obligations des plateformes, cliquez

SOURCES :

Incitation au Dénigrement

Est-il possible d’être condamné pour incitation au dénigrement ?

Dans un jugement du 22 juin 2022, les juges ont indiqué que l’article 1240 du Code civil dispose que tout fait quelconque de l’homme, qui cause à autrui un dommage, oblige celui par la faute duquel il est arrivé à le réparer.

Pour faire supprimer un contenu qui bafoue vos droits, utilisez le service mis en place par le cabinet Murielle-Isabelle CAHEN.

Par un jugement du 25 mai 2023, le tribunal de commerce de Paris a condamné la société Gowork à verser respectivement aux sociétés Socateb et la Galerie de l’Échaudé la somme de 2 000 euros pour réparer leur préjudice moral au titre de l’incitation au dénigrement et du non-respect des obligations de transparence incombant aux plateformes de collecte d’avis.

Le tribunal a estimé que « la manière dont Gowork se rémunère, par le biais d’annonces non contrôlées et vérifiées associées à des publicités non ciblées, fait peser sur Socateb une charge, d’où un préjudice ».

La société Gowork exploite le site Gowork.fr sur lequel les internautes peuvent déposer des avis anonymes. Le 9 mars 2022, Socateb a fait établir un constat d’huissier relevant la présence sur ce site de fiches d’avis la concernant, ainsi que la Galerie de l’Échaudé car elle considère que ces fiches portent préjudice à sa communication et à son image, en raison de l’affichage d’avis anonymes non vérifiés, associés à des publicités contestables.


Besoin de l’aide d’un avocat pour un problème de diffamation ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien


Faute de n’avoir pas pu obtenir le retrait des contenus litigieux, elle a assigné Gowork en réparation de son préjudice.

Le tribunal juge que l’information fournie par Gowork sur le type d’avis qu’elle publie, sur leur nature non vérifiée, leur caractère anonyme, ne satisfait pas les conditions de l’article L 117-7-2 du code de la consommation qui impose aux plateformes d’avis une information loyale, claire et transparente sur les modalités de publication et de traitement des avis mis en ligne.

Sur le dénigrement allégué par Socateb, le tribunal relève que la consultation de la fiche d’une entreprise fait apparaître des avis et des publicités dont le caractère non pertinent voire « farfelu » est manifeste.

Cela oblige les entreprises comme Socateb, soucieuses de leur image, à exercer une surveillance constante du site pour y déceler les avis inappropriés, et les faire corriger ou en demander le retrait. Pour le tribunal, le préjudice ne vient pas de la mise en ligne des avis anonymes, dont Socateb peut demander la correction ou la suppression, mais de la nécessité pour elle d’éviter l’association à des publicités sans cohérence avec l’activité et l’image de l’entreprise, et qui ne peuvent que lui nuire.

Une incitation au dénigrement peut comporter plusieurs éléments constitutifs.

Il peut s’agir de la diffamation c’est-à-dire faire de fausses déclarations ou des allégations non prouvées qui nuisent à la réputation d’une personne ou d’une entité.

Les insultes ou propos diffamatoires visent à utiliser des mots offensants ou des propos méprisants pour discréditer quelqu’un ou une entité.

L’encouragement à la haine vise à inciter à la haine une personne ou un groupe en fonction de leur race, religion, origine ethnique, orientation sexuelle etc.

Les propos de rumeurs malveillantes peuvent être diffusés intentionnellement pour propager des informations fausses ou trompeuses dans le but de discréditer quelqu’un ou une entité.

Notons également le cyberharcèlement qui est l’utilisation des plateformes en ligne pour harceler, intimider ou diffamer une personne.

I. Distinction avec la diffamation

Il convient de distinguer le dénigrement de la diffamation.

Est définie comme une diffamation toute allégation ou imputation d’un fait qui porte atteinte à l’honneur ou à la considération d’une personne (Loi du 29-7-1881 art. 29). Ainsi, des propos critiques sur une société publiés dans un article de presse relèvent de la diffamation dès lors qu’ils visent la société elle-même et non ses services ou ses produits. L’action en diffamation est possible lorsque celle-ci a visé une personne physique ou morale. Des propos qui atteignent une profession considérée dans son ensemble ne peuvent donc pas être qualifiés de diffamatoires.

Il n’y a pas diffamation lorsque ce sont uniquement des produits ou services qui sont en cause.

Dans un cas où un article de presse s’était livré à une critique sévère de produits pharmaceutiques, il a été jugé qu’il y avait dénigrement et non diffamation. Jugé de même à propos de commentaires négatifs, publiés sur un réseau social, faisant état de l’incompétence des moniteurs d’une auto-école, d’un défaut de pédagogie et d’une recherche de profit au détriment des besoins et de l’intérêt des clients, car ces propos ne portaient pas atteinte à l’honneur ou à la considération de l’exploitant de l’auto-école, mais mettaient en cause la qualité des services proposés dans le but d’inciter une partie de la clientèle à s’en détourner (TGI Nanterre 21-11-2019 :  RJDA 10/20 n° 540).

De même, des propos malveillants tenus à l’encontre du gérant d’une société dont l’activité était concurrente ont été jugés constitutifs d’un dénigrement et non d’une diffamation, car ces propos n’avaient pour objet que de mettre en cause la qualité des prestations fournies par cette société et de détourner sa clientèle, au cas particulier, il avait été soutenu que le gérant d’une société exerçant une activité de prestataire de services auprès des professionnels de l’immobilier établissait de faux certificats et rapports).

Jugé également que les propos tenus par une société à l’encontre d’un de ses concurrents étaient constitutifs de dénigrement dès lors qu’ils portaient sur la façon dont les services étaient rendus par ce concurrent, la qualité de ses produits et services, les pratiques prétendument illicites qu’il mettait en œuvre et les diverses collusions que lui imputait cette société.

De même encore, jugé que le fait, pour une entreprise en relation d’affaires avec une autre, d’avoir divulgué aux clients de celle-ci les difficultés de paiement qu’elle rencontrait avec elle et d’avoir laissé entendre que, par la faute de cette entreprise, les prestations dues aux clients ne seraient pas exécutées, était constitutif de dénigrement et non de diffamation, car cette communication jetait le discrédit sur les services rendus par l’entreprise.

En revanche, lorsque la critique de produits ou services contient des imputations diffamatoires, c’est l’action en diffamation qui doit être exercée.

II. Exactitude des allégations

Des allégations peuvent être constitutives d’un dénigrement même si l’information est de notoriété publique. Peu importe également que celle-ci soit ou non exacte. Il a ainsi été jugé que constitue un acte de dénigrement la diffusion d’une brochure critiquant le produit d’un concurrent même si le procédé de fabrication a été remis en question ultérieurement par celui-ci.

La Cour de cassation a récemment apporté un bémol à cette solution : lorsque les informations divulguées en termes mesurés se rapportent à un sujet d’intérêt général, il n’y a pas dénigrement si elles reposent sur une base factuelle suffisante.

III. Diffusion des allégations dans le public

Pour constituer un dénigrement, il faut que la critique malveillante soit diffusée dans le public. Il n’est pas nécessaire que cette diffusion présente une certaine ampleur. Par exemple, sont répréhensibles les propos tenus par un dirigeant à l’égard d’une autre société et figurant dans le rapport de gestion déposé au registre du commerce, compte tenu de la violence des termes employés et de la publicité, si réduite soit-elle, dont bénéficie ce rapport. Constitue également un dénigrement le fait d’adresser, sous couvert de demande de renseignements, des informations malveillantes à un seul client du concurrent.

En revanche, ne constitue pas un dénigrement fautif des propos diffusés dans un document à usage interne, par exemple un bulletin destiné exclusivement aux services commerciaux d’une entreprise (CA Paris 21-1-1959 n° 2635, 4e ch. : JCP G 1959 II n° 11334 note A. Chavanne) ou une lettre circulaire adressée par une entreprise à son réseau de distributeurs (CA Paris 3-7-1991 : RJDA 10/91 n° 863).

Mais il peut y avoir abus de langage : des « notes internes » peuvent en fait avoir pour objet la diffusion à l’extérieur des informations qu’elles contiennent ; elles sont alors constitutives de concurrence déloyale. Il en a été jugé ainsi dans un cas où les destinataires d’une note interne avaient été invités à en répercuter le contenu auprès de la clientèle, consigne qui avait été respectée.

En cas d’élaboration de documents commerciaux internes, il convient donc d’attirer clairement l’attention des utilisateurs sur la stricte confidentialité de ces documents.

En définitive, l’infraction de diffamation suppose l’imputation de faits précis caractérisant une atteinte à l’honneur, à la réputation d’une personne, conformément à l’article 29 de la loi du 29 juillet 1881. Quant au dénigrement, il consiste à jeter le discrédit sur un concurrent en critiquant ses produits ou sa personnalité, afin de détourner sa clientèle. Il constitue un acte de concurrence déloyale. Compte tenu de ces définitions, si des commentaires ne se réfèrent pas à une personne en particulier, qu’il s’agisse d’une personne physique ou morale, ils demeureront non punissables du chef de diffamation.

A cet égard, la Cour de cassation a toujours considéré que lorsque les critiques portent sur des produits ou des services sans concerner une personne, aucune action en diffamation ne peut être retenue, l’action en dénigrement pouvant, à l’inverse, être recevable (Civ. 2e, 5 juill. 2000, Bull. civ. II, n° 109 ; D. 2000. AJ. 359, obs. A. Marmontel ; 8 avr. 2004, Bull. civ. II, n° 182). La différenciation de ces deux actions est alors simple. Elle devient, par contre, plus difficile lorsque les propos sont apparemment diffamatoires et, dans le même temps, créent un dénigrement. Telle était la situation soumise à la Cour de cassation dans l’arrêt rendu par la première Chambre civile le 5 décembre 2006 (Civ. 1re, 5 déc. 2006, Bull. civ. I, n° 532 ; D. 2007. AJ. 17 ; CCC, févr. 2007, Comm. n° 54, note Malaurie-Vignal).

IV. Plateforme d’avis, Dénigrement et avis en ligne

Les avis en ligne sont des opinions ou des évaluations exprimées par les utilisateurs sur des produits, des services, des entreprises ou d’autres aspects de la vie quotidienne. Ils peuvent être pratiqués sur des plateformes dédiées telles que les sites d’évaluations, les forums, les réseaux sociaux, les blogs, etc.

Les avis en ligne peuvent avoir plusieurs éléments constitutifs, tels que :

  • L’expérience personnelle : les avis en ligne sont généralement basés sur l’expérience personnelle de l’auteur. Ils peuvent partager ce qu’ils ont aimé ou n’ont pas aimé à propos d’un produit ou d’un service ;
  • L’évaluation : les avis peuvent contenir une évaluation ou une note pour refléter la satisfaction globale de l’auteur à l’égard de ce qui est évalué ;
  • Commentaires détaillés : certains avis peuvent inclure des commentaires détaillés expliquant les raisons de l’évaluation donnée, les aspects positifs ou négatifs spécifiques, ou fournissant des informations supplémentaires sur l’expérience vécue ;
  • L’objectivité : les avis peuvent varier en termes d’objectivité. Certains peuvent être basés sur des faits et des preuves tangibles, tandis que d’autres peuvent être plus subjectifs, reflétant les opinions personnelles de l’auteur ;

Il est important de noter que tous les avis en ligne ne sont pas nécessairement fiables ou représentatifs de manière objective. Il est conseillé de consulter plusieurs sources et de prendre en compte différents points de vue avant de se faire une opinion éclairée.

Par ailleurs, il est à noter que tous les avis ne sont pas émis de bonne foi. C’est le cas des avis en ligne désobligeants qui sont des commentaires négatifs ou critiques souvent publiés sur des plateformes d’évaluation ou de notation. Ces avis peuvent être subjectifs et ne pas refléter l’opinion générale. Il est important de garder à l’esprit que chaque personne a ses propres expériences et opinions. Lorsque vous lisez des avis en ligne, il peut être utile de prendre en compte plusieurs sources et de considérer l’ensemble des opinions avant de tirer des conclusions.

Les éléments constitutifs des avis désobligeants en ligne peuvent être de plusieurs ordres :

  • Les critiques négatives : les avis désobligeants comportent généralement des critiques négatives sur un produit, un service, un établissement ou une expérience spécifique ;
  • Un ton négatif : le ton utilisé dans ces avis est souvent hostile, agressif ou méprisant, exprimant ainsi un fort mécontentement ou une frustration ;
  • L’émotion subjective : les avis désobligeants peuvent être fortement influencés par les émotions personnelles de l’auteur, ce qui peut parfois conduire à des jugements exagérés ou injustes ;
  • Le manque d’objectivité : les avis en ligne désobligeants peuvent manquer d’objectivité et ne pas tenir compte des différentes perspectives ou des circonstances individuelles ;
  • Exagérations ou généralisations : certains avis désobligeants peuvent contenir des exagérations ou des généralisations, amplifiant ainsi les aspects négatifs sans tenir compte des aspects positifs.

Il est important de noter que tous les avis en ligne ne sont pas désobligeants, et qu’il est essentiel de prendre du recul et d’évaluer de manière critique les informations disponibles avant de se faire une opinion définitive.

Dans l’hypothèse où une mise en demeure restera infructueuse, celui-ci aura le choix des armes parmi lesquelles :

  • action en référé à l’encontre de Google aux fins de suppression d’avis. Dans l’hypothèse où des avis Google seraient susceptibles d’être qualifiés d’illicites, le professionnel pourra agir en référé contre la firme américaine aux fins de suppression de contenus sur le fondement de l’article 6-I-8 de la loi du 21 juin 2004, en prenant garde toutefois aux dispositions de la loi du 29 juillet 1881 s’il ressort que l’action est fondée aussi sur ce texte, au risque sinon de voir prononcer la nullité de l’assignation faute de respect des règles procédurales strictes prévues dans ses articles 53 et 65 spécialement (TGI Paris, réf., 29 juin 2018, n° 18/51423. – CA Paris, 22 mars 2019, n° 18/17204, préc.).Une solution conforme en cela à ce qui a pu déjà être retenu en matière de demande de déréférencement, dès lors qu’il est sollicité du juge qu’il se prononce sur l’existence d’un délit de presse afin d’obtenir le retrait du lien. Ceci étant, la démonstration du seul caractère manifestement illicite du propos en cause devrait être suffisante pour motiver un retrait d’avis Google, étant précisé qu’une provision sur dommages-intérêts pourra également être allouée s’il ressort que l’exploitant du moteur de recherche avait été préalablement notifié afin de supprimer le contenu conformément à l’article 6-I-5 de la loi du 21 juin 2004 et qu’il a tardé à le faire (TGI Paris, réf., 11 juill. 2019, n° 19/54734, préc.) ;
  • action en référé ou au fond à l’encontre de l’internaute aux fins de suppression d’avis et d’obtention d’une indemnité. – Le requérant dispose de la possibilité d’agir « sur le fondement de la loi du 29 juillet 1881 ou du dénigrement en application de l’article 1240 du Code civil, contre les internautes qui porteraient atteinte à son honneur ou à sa réputation ou qui publieraient une critique excessive et fautive de ses services » (TGI Paris, réf., 12 avr. 2019, préc.).Une telle action devra selon les cas nécessiter au préalable qu’un juge fasse droit à la demande de levée d’anonymat de l’auteur en requérant la communication des éléments d’identification auprès de l’exploitant du moteur de recherche sur le fondement de l’article 6-II de la loi du 21 juin 2004, une fois caractérisée l’existence du « motif légitime », au sens de l’article 145 du Code de procédure civile, que constitue la volonté d’engager une procédure pour l’indemnisation du préjudice subi (TGI Paris, réf., 11 juill. 2019, n° 19/54734, préc.). À titre d’exemple, un internaute fut condamné à payer 1800 euros à un notaire à cause d’un avis injurieux sur Google.
  • plainte avec constitution de partie civile. – Une plainte avec constitution de partie civile en matière de diffamation ou d’injure s’il y a lieu permettra de sécuriser l’action en présence d’un auteur d’avis anonyme, ceci afin de ne pas risquer le jeu de la prescription trimestrielle.

Pour lire une version plus complète de cet article sur l’incitation au dénigrement, cliquez

Sources :