dénigrement

Dénigrement et contrefaçon contre un concurrent

Le dénigrement commercial constitue un sujet d’une délicatesse particulière, engendrant une multitude de questions tant sur le plan juridique qu’éthique dans le domaine des affaires.

NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire !

À une époque où la digitalisation et l’essor des technologies de l’information permettent la circulation rapide et parfois incontrôlée des données, la préservation de la réputation des entreprises s’avère être un enjeu majeur.

En effet, la réputation d’une entreprise, souvent synonyme de confiance et de crédibilité, peut être gravement compromise par la diffusion d’allégations infondées ou de propos dénigrants, qui, bien qu’émanant d’une intention de défendre ses propres intérêts commerciaux, peuvent avoir des conséquences délétères tant pour la victime que pour l’auteur de ces propos.

Dans ce contexte, la jurisprudence relative au dénigrement commercial s’est considérablement enrichie, notamment au regard des défis posés par l’Internet et les nouvelles formes de communication. La loi sur la confiance dans l’économie numérique, adoptée pour réguler le paysage numérique, a ouvert la voie à des débats juridiques complexes concernant la responsabilité des acteurs impliqués dans la diffusion d’informations.

Ainsi, il devient impératif d’explorer les fondements juridiques du dénigrement commercial, d’examiner les critères qui permettent de qualifier une communication de dénigrante et d’identifier les mécanismes de protection des entreprises victimes de telles pratiques.


Besoin de l’aide d’un avocat pour un problème de contrefaçon ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien


L’affaire emblématique opposant la société E., spécialisée dans la commercialisation de produits innovants, à la société B., concurrente dans le même secteur, illustre parfaitement les enjeux inhérents à cette problématique. Dans cette affaire, la société B. a été jugée coupable d’avoir relayé, sans fondement juridique, des allégations de contrefaçon visant les produits de la société E.

Ces accusations, diffusées auprès d’un hébergeur de site Internet, ont été jugées dépourvues de toute légitimité, d’autant plus qu’aucune décision judiciaire n’avait préalablement validé ces allégations. Cette situation met en lumière la frontière délicate qui existe entre la défense légitime des droits de propriété intellectuelle et les comportements de dénigrement, potentiellement fautifs, qui nuisent à la réputation d’un concurrent.

Dans son arrêt rendu le 26 avril 2024, la cour d’appel de Paris apporte des clarifications essentielles sur cette question. La cour a rappelé que la divulgation d’informations susceptibles de nuire à la réputation d’un produit commercialisé par un concurrent constitue un acte de dénigrement, et ce, même en l’absence de concurrence directe entre les parties impliquées. La cour a également précisé que les allégations formulées doivent s’appuyer sur des fondements juridiques solides et être justifiées par un intérêt général avéré. À cet égard, la cour a souligné que pour qu’une communication puisse échapper à la qualification de dénigrement, elle doit être formulée avec une mesure appropriée, sans exagérations ni inexactitudes manifestes. Ainsi, cet article se propose d’analyser en profondeur les implications de cette décision, en scrutant les circonstances spécifiques de l’affaire, les principes juridiques en jeu, ainsi que les conséquences potentielles pour les pratiques commerciales.

L’objectif est d’établir un équilibre entre la protection des droits de propriété intellectuelle et la nécessité de maintenir un environnement commercial sain et exempt de dénigrement malveillant. En éclairant ces enjeux, nous visons à garantir non seulement la compétitivité des entreprises, mais également à préserver la confiance des consommateurs dans l’intégrité du marché.

Par cette analyse, nous espérons contribuer à une meilleure compréhension des défis juridiques liés au dénigrement commercial à l’ère numérique, tout en soulignant l’importance d’un cadre réglementaire équilibré et efficace.

I. L’affaire et le cadre juridique

A.  Les circonstances de l’affaire

La société E., reconnue pour son expertise dans la commercialisation de produits distinctifs, se trouve confrontée à une situation délicate qui menace son image et son intégrité commerciale. En effet, la société B., son concurrent direct opérant dans le même domaine, a entrepris une démarche qui soulève de nombreuses interrogations sur les pratiques de concurrence loyale et sur le respect des droits de propriété industrielle.

Dans un contexte où la protection de la propriété intellectuelle revêt une importance cruciale pour les entreprises, la société B. a choisi de notifier l’hébergeur du site internet de la société E. des prétendues infractions à ses droits.

Cette notification intervenait dans le cadre d’une action en contrefaçon, laquelle était encore en cours d’examen devant les juridictions compétentes. Ainsi, la société B. a, par cette initiative, cherché à faire valoir ses droits en dénonçant ce qu’elle considérait comme des atteintes à sa propriété industrielle.

Cependant, cette démarche, bien qu’initialement présentée sous un jour légitime, a rapidement pris une tournure plus problématique. En effet, la société B. a non seulement omis de fournir des preuves tangibles et substantielles à l’appui de ses allégations, mais elle a également adopté un ton pour le moins accusateur et péremptoire.

Cette attitude a conduit à des interrogations quant à la bonne foi de la société B. et à la légitimité de ses accusations. La cour d’appel de Paris s’est alors saisie de cette affaire pour examiner les implications juridiques de la communication faite par la société B. sur la présumée contrefaçon.

La question centrale qui s’est posée à la juridiction était de savoir si le fait de notifier une action judiciaire, même en cas de doutes légitimes sur les droits de propriété industrielle, pouvait être interprété comme un acte de dénigrement à l’égard de la société E. et de ses produits. Ce questionnement engageait une réflexion sur les frontières entre la défense des droits de propriété intellectuelle et les pratiques commerciales déloyales, soulevant ainsi des enjeux cruciaux pour la régulation de la concurrence sur le marché.

En somme, cette affaire met en lumière les tensions inhérentes au domaine de la propriété industrielle, où les entreprises, tout en cherchant à protéger leurs innovations et leur image de marque, doivent également naviguer avec prudence afin de ne pas franchir la ligne qui sépare la défense légitime de leurs droits d’une atteinte à la réputation de leurs concurrents.

La décision de la cour d’appel de Paris revêt dès lors une importance capitale, tant pour les parties en présence que pour l’ensemble des acteurs du marché, en ce qu’elle pourrait établir des précédents en matière de responsabilité liée aux accusations de contrefaçon et à la communication d’actions judiciaires dans un contexte commercial concurrentiel.

B. Le cadre juridique de la responsabilité pour dénigrement

Le dénigrement, en tant que concept juridique, se définit communément comme toute communication ou assertion destinée à porter atteinte à la réputation d’un produit ou d’une entreprise, en dévalorisant son image ou en suscitant des doutes quant à sa qualité.

En France, cette notion est encadrée par un corpus juridique précis, enrichi par une jurisprudence abondante, qui permet d’établir des critères rigoureux pour identifier les actes constitutifs de dénigrement fautif. La loi n° 2004-575 du 21 juin 2004, relative à la confiance dans l’économie numérique, constitue un élément central de ce cadre juridique.

Elle a été adoptée dans un contexte où l’essor d’Internet et des nouvelles technologies a engendré une augmentation significative des contentieux liés à la propriété intellectuelle. Cette loi autorise les titulaires de droits de propriété intellectuelle à notifier les hébergeurs de contenus illicites, leur conférant ainsi un outil de protection face aux atteintes à leurs droits. Toutefois, cette disposition législative ne doit en aucun cas être perçue comme un blanc-seing permettant de diffuser des informations erronées ou non fondées.

La jurisprudence a par ailleurs précisé que même en l’absence de concurrence directe entre les parties, la diffusion d’informations susceptibles de nuire à la réputation d’un produit commercialisé par un concurrent peut être qualifiée de dénigrement. Par conséquent, il appartient à l’auteur de l’allégation d’agir avec la plus grande prudence et de veiller à ce que ses assertions reposent sur des éléments factuels tangibles et vérifiables. Ce principe de mesure dans l’expression des allégations est fondamental pour éviter tout abus qui pourrait résulter d’une interprétation laxiste des droits de propriété intellectuelle.

Les critères de la faute en matière de dénigrement se fondent sur des éléments tels que la véracité des informations diffusées, le contexte dans lequel elles sont communiquées, ainsi que l’intention de nuire. Une communication peut être qualifiée de dénigrante si elle est formulée de manière à induire en erreur le public ou à créer une perception déformée de la réalité.

À cet égard, la bonne foi de l’auteur des propos est également prise en compte, car une intention malveillante ou un manque de diligence dans la vérification des informations peut conduire à une reconnaissance de la responsabilité pour dénigrement. En outre, la jurisprudence met en exergue l’importance de l’expression mesurée dans la formulation des allégations.

Les déclarations doivent être pondérées et fondées sur des éléments probants, afin de ne pas franchir le seuil de la diffamation ou du dénigrement. Les juges, dans leur appréciation, considèrent également le degré d’exposition du produit ou de l’entreprise visée, ainsi que le public auquel s’adressent les communications litigieuses.

Ce cadre juridique impose donc une rigueur certaine aux acteurs économiques, les incitant à adopter une approche responsable dans leurs communications et à privilégier des échanges constructifs et loyaux. En somme, la responsabilité pour dénigrement s’articule autour d’un équilibre délicat entre la protection des droits de propriété intellectuelle et le respect des principes de concurrence loyale, et son application requiert une vigilance constante et un engagement à promouvoir des pratiques commerciales éthiques.

II. Les conséquences de l’affaire sur la réputation et les pratiques commerciales

A. Les impacts sur la réputation de la société E.

La réputation d’une entreprise constitue un actif intangible d’une valeur inestimable, souvent perçue comme un baromètre de sa santé économique et de sa position concurrentielle sur le marché. Dans le contexte de l’affaire opposant la société E. à son concurrent B., les allégations de contrefaçon diffusées par ce dernier ont engendré des conséquences néfastes qui dépassent le cadre immédiat des accusations formulées.

Les assertions portées contre la société E. ont non seulement suscité des interrogations légitimes quant à la légitimité et à l’intégrité de ses produits, mais elles ont également eu pour effet de miner la confiance des différentes parties prenantes. En effet, la perception du public vis-à-vis des produits de la société E. a pu être significativement altérée en raison de la diffusion d’informations non vérifiées, ce qui pourrait entraîner une diminution de la fidélité de la clientèle.

Les consommateurs, souvent influencés par les rumeurs et les informations diffusées dans l’espace public, peuvent se détourner d’une marque lorsqu’ils sont confrontés à des allégations, même infondées, qui entachent son image. De surcroît, les partenaires commerciaux et distributeurs peuvent également faire preuve de réticence à l’égard de la commercialisation des produits de la société E., craignant d’associer leur propre réputation à une marque mise en cause.

Cette dynamique pourrait se traduire par une réduction des opportunités commerciales, une altération des relations d’affaires et, par conséquent, un impact direct sur le chiffre d’affaires et la rentabilité de l’entreprise. Il est essentiel de considérer que l’impact d’un acte de dénigrement ne se limite pas à la période immédiate de la divulgation des informations litigieuses. En effet, les études en psychologie sociale montrent que les consommateurs ont tendance à retenir plus longtemps les informations négatives que les informations positives, ce qui confère à un incident de dénigrement un écho durable dans la perception de la marque.

Ainsi, même après la cessation des allégations, la société E. pourrait continuer à faire face aux répercussions de cette atteinte à sa réputation, ce qui souligne l’importance cruciale d’une réponse proactive et rapide. Dans ce contexte, la société E. doit impérativement s’engager dans une stratégie de gestion de crise bien articulée, visant à dissiper les rumeurs et à restaurer la confiance des consommateurs et des partenaires commerciaux.

Cette stratégie pourrait comprendre des actions telles que la mise en œuvre de campagnes de communication clarifiant les faits, l’engagement d’experts pour attester de la qualité et de la conformité de ses produits, ainsi que des initiatives visant à renforcer la transparence de ses pratiques commerciales. En outre, la société E. doit également envisager des voies de recours juridiques pour répondre aux allégations mensongères, afin de protéger ses intérêts et de préserver son image.

En somme, face à des accusations de dénigrement, la société E. se trouve dans l’obligation de conjuguer défense juridique et stratégies de communication efficace, car la restauration de sa réputation est non seulement primordiale pour sa pérennité, mais également essentielle pour maintenir la confiance de ses clients et partenaires, gage de son succès sur le marché.

B. Les implications pour les pratiques commerciales et la responsabilité des entreprises

L’affaire E. contre B. constitue un jalon significatif dans l’évolution des normes régissant les pratiques commerciales et la responsabilité des entreprises, en particulier dans le contexte des communications à l’ère numérique. Cette décision de la cour d’appel de Paris souligne l’impératif pour les entreprises de faire preuve d’une rigueur accrue dans la gestion de leurs communications, surtout lorsqu’il s’agit de divulguer des informations concernant des concurrents. En effet, la cour a statué que toute divulgation d’informations, surtout si elle revêt un caractère accusatoire, doit être effectuée avec une prudence extrême, une mesure appropriée, et surtout, un fondement factuel indiscutable.

Les implications de cette décision s’étendent bien au-delà de la simple vigilance dans la communication. Elles engendrent une prise de conscience accrue des risques juridiques inhérents à la diffusion d’allégations non vérifiées. Une telle diffuse de fausses informations peut non seulement entraîner des poursuites pour diffamation, mais également avoir des répercussions dévastatrices sur la réputation de l’entreprise elle-même.

En ce sens, il est impératif que les entreprises mettent en place des protocoles internes rigoureux pour encadrer la communication externe, notamment en s’assurant que toute affirmation soit non seulement vérifiable mais également articulée de manière à ne pas porter atteinte à la dignité ou à l’intégrité de la partie concernée. Par ailleurs, l’affaire E. contre B. incite les entreprises à adopter une approche proactive et systématique en matière de gestion de la propriété intellectuelle.

Dans un environnement concurrentiel où les violations de droits peuvent survenir rapidement et de manière insidieuse, il devient essentiel pour les entreprises d’instaurer des mécanismes de surveillance efficaces. Ce dispositif de veille doit permettre d’identifier sans délai les cas potentiels de contrefaçon et d’y réagir de manière appropriée.

Cependant, il convient de préciser que la réaction à de tels cas doit se faire dans le respect des normes éthiques et juridiques en vigueur. Avant de procéder à une notification formelle à l’égard d’un hébergeur ou de publier des allégations, il est recommandé de solliciter l’avis de conseillers juridiques compétents afin d’évaluer la solidité des accusations portées et d’en mesurer l’impact potentiel sur la réputation de l’entreprise.

En outre, la notion de transparence se révèle être un principe fondamental dans la gestion des communications d’entreprise. En cas de litige, il est préférable d’adopter une démarche collaborative visant à résoudre le conflit, plutôt que de recourir à des tactiques de dénigrement susceptibles de nuire à l’image de marque des deux parties en présence.

Des approches telles que la négociation amiable, la médiation ou d’autres formes de règlement alternatif des différends apparaissent comme des solutions viables pour préserver la réputation des entreprises tout en évitant des conflits prolongés et coûteux. Ces méthodes favorisent également un climat de confiance et de respect mutuel dans les relations commerciales, ce qui peut, à long terme, favoriser des partenariats plus solides et durables.

Pour lire une version plus complète de  cet article sur la contrefaçon et le dénigrement, cliquez

Sources :

1 Cour de cassation, civile, Chambre civile 1, 6 septembre 2017, 16-26.459, Inédit – Légifrance (legifrance.gouv.fr)
2 Décision – RG n°22-12.176 | Cour de cassation
3 Cour de cassation, civile, Chambre commerciale, 8 juin 2017, 15-29.378, Publié au bulletin – Légifrance (legifrance.gouv.fr)
4 Loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique (1). – Légifrance (legifrance.gouv.fr)
5 Cour de cassation, civile, Chambre civile 1, 14 décembre 2022, 21-22.050, Inédit – Légifrance (legifrance.gouv.fr)

La loi sur la haine en ligne

En France, la liberté d’expression est fondamentale, mais elle est encadrée, y compris sur Internet, principalement par la loi de 1881 sur la liberté de la presse et par la loi sur la confiance dans l’économie numérique de 2004. Néanmoins, les discours de haine y prospèrent et se diversifient dans une relative impunité. (1) & (2)

La loi Avia qui avait pour ambition d’assainir l’Internet en France a été adoptée à l’Assemblée nationale le 9 juillet 2019. Le texte soumis au Sénat le 17 décembre 2019 a également été adopté. Le gouvernement ayant engagé la procédure accélérée, une commission mixte paritaire se réunit le 8 janvier 2020, sans parvenir à un accord. (3)

NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire et un avocat enverra une lettre de mise en demeure !

 La proposition de loi nouvelle contre les contenus haineux vise les incitations à la haine, la violence, les discriminations, les injures à caractère raciste ou encore religieux. Elle bannira également les messages, vidéos ou images constituant des provocations à des actes de terrorisme, faisant l’apologie de tels actes ou comportant une atteinte à la dignité de la personne humaine, maintenant qu’elle est adoptée. Sont visés aussi par cette loi les contenus constitutifs de harcèlement, proxénétisme ou pédopornographie. (https://www.murielle-cahen.com/publications/p_prostitution.asp)

L’une des mesures les plus importantes de la proposition de loi Aviva est d’inspiration allemande, ayant ainsi des similarités ave la loi NetzDG du 1er octobre 2017, l’Allemagne a renforcé la responsabilité des plateformes (Facebook, Twitter, Google, etc.)  Et moteurs de recherche en exigeant la mise en place de procédures de traitement des signalements efficaces et transparentes, ainsi que le retrait des contenus illicites sous 24 heures sous peine de lourdes sanctions financières. (4)


Besoin de l’aide d’un avocat pour un problème de diffamation ou d’injure ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien


Après avoir été définitivement adoptée par l’Assemblée nationale et le Sénat le 13 mai 2020, le Conseil constitutionnel dans une décision du 18 juin 2020 (décision n°2020-801) a censuré le dispositif prévoyant l’obligation de retrait des contenus haineux sous 24 heures au motif que celui-ci portait « à la liberté d’expression et de communication une atteinte qui n’est pas adaptée, nécessaire et proportionnée au but poursuivi ».

À la suite de cette censure, la Commission européenne a présenté, le 15 décembre 2020, la proposition de règlement Digital Service Act comportant un ensemble de dispositions visant la modération des contenus diffusés en ligne. Ce règlement adopté le 19 octobre 2022 (Règlement 2022/2065) contient des obligations applicables à toutes les plateformes en ligne depuis le 17 février 2024.

Le 17 octobre 2023, l’Assemblée nationale a adopté, en première lecture, un projet de loi visant à sécuriser et réguler l’espace numérique (SREN).  Adoptée le 2 avril au Sénat, la proposition de loi est désormais soumise à l’adoption définitive de l’Assemblée nationale, qui l’examinera le 10 avril prochain.

Dans un premier temps nous allons observer les apports de la proposition de loi Avia (I) afin dans un second temps d’observer les critiques reçus à l’encontre de cette proposition de loi nouvelle visant à lutter contre les contenus haineux en ligne. (II)

 

I. Champs d’application de la loi et Contenus de la loi

Dans un premier temps nous allons observer le champ d’application (A) de la proposition de loi Avia, mais aussi son contenu. (B)

A) Les sites concernés

L’article 1 définit un nouveau régime de responsabilité administrative applicable aux opérateurs de plateformes à fort trafic, selon un seuil de connexion mensuel sur le territoire français qui sera déterminé par décret. Le décret d’application aura pour rôle de préciser les seuils au-delà desquels les sites devront respecter la loi. Le principal seuil devrait être fixé à 2 ou 5 millions de visiteurs uniques par mois ; le premier seuil correspond à celui mis en place en Allemagne et le second étant celui fixé par la loi contre la manipulation de l’information. Le décret pourra contenir plusieurs seuils afin de mieux appréhender la diversité des sites Internet. (5)

Les sites concernés par la proposition de loi nouvelle sont de trois types, « les services de communication au public en ligne reposant sur la mise en relation de plusieurs parties en vue du partage de contenus publics », ces services de communications sont plus communément appelés réseaux sociaux ou plateformes de partage tel que Youtube, Dailymotion, Facebook, Twitter.

Dans un second type, il s’agira des plateformes collaboratives, telles que Wikipédia, Leboncoin, Leetchi, TripAdvisor.

Et en dernier lieu les sites reposant sur « le classement ou le référencement, au moyen d’algorithmes informatiques » ou moteurs de recherche, les sites concernés seront ici Yahoo, Google, Bing, Qwant et autres moteurs de recherche.

L’article 2 de la proposition de loi précise également les obligations de la plateforme en matière de traitements des signalements reçus et de langue d’utilisation du service de notification. Le processus de notification sera par ailleurs optimisé par la création d’un « bouton » unique de signalement, commun à tous les grands opérateurs de plateformes de communication.
Cet article rappelle la nécessité et l’importance, pour chaque opérateur de plateforme, de disposer de moyens proportionnés à son activité pour traiter les signalements reçus et répondre aux obligations fixées – et ce que ces moyens soient humains ou technologiques.

l’article 4 de la proposition de loi fixe des obligations de transparence aux opérateurs de plateformes en matière de lutte contre les contenus comportant manifestement une incitation à la haine ou une injure discriminatoire à raison de la race, de la religion, du sexe, de l’orientation sexuelle ou du handicap.

B) Le contenu de la loi

L’une des dispositions phare de la loi adoptée par les députés prévoyait la création du nouveau délit de « non-retrait » des contenus signalés comme manifestement illicites comprenant entre autre la provocation au terrorisme, incitations à la haine , la violence, la discrimination, injures à caractère raciste, homophobes ou religieuses prévoyant ainsi l’obligation de retirer les contenus « manifestement » illicites que plateformes et moteurs de recherche sous 24 heures. Le manquement à cette obligation est passible d’une sanction déterminée et prononcée par le Conseil Supérieur de l’Audiovisuel et susceptible d’atteindre 4% du chiffre d’affaires annuel mondial de ces opérateurs.

L’article 2 a pour objet de simplifier la notification du contenu litigieux auprès de l’opérateur de plateforme et d’assurer une fluidité d’utilisation pour les usagers. Il modifie les dispositions de l’article 6-I-5 de la loi pour la confiance dans l’économie numérique qui exigeait afin de procéder à un signalement, pour une personne physique diverses informations telles que relative à son identité et autres rendant ainsi la procédure complexe décourager les utilisateurs de la plateforme à signaler les contenus illicites. (6)

Le Sénat, en première comme en seconde lecture, a supprimé la création de ce délit de non-retrait. Les sénateurs craignaient en effet un risque de « sur censure »  de la part des plateformes et une délégation aux géants américains du numérique « la police de la liberté d’expression ». Toutefois, le Sénat a maintenu son objectif de retrait dans les 24 heures, mais en privilégiant l’instauration d’une « obligation de moyens mise à la charge des réseaux sociaux et sanctionnée par le régulateur français : le CSA ».

Cet article précise également les obligations de la plateforme en matière de traitements des signalements reçus et de langue d’utilisation du service de notification.

La loi du 7 juillet 2023, visant à instaurer une majorité numérique et à lutter contre la haine en ligne (loi n°2023-566) a été adoptée trois ans après la censure par le Conseil constitutionnel de la proposition de la loi AVIA. Celle-ci prévoit notamment que les réseaux sociaux devront simplifier les procédures de signalement par les utilisateurs des contenus nuisibles portant atteinte « à la représentation, à la vie privée et à la sécurité des personnes » et faisant l’apologie de toutes les « formes de chantage et d’harcèlement ». Ils devront également diffuser des messages de prévention contre le cyberharcèlement et indiquer le numéro 3018.

L’article 3 contraint les opérateurs de plateformes à donner une information claire sur les voies de recours, y compris judiciaires, à leur disposition.

Cette obligation d’information sur les voies de recours à la charge des plateformes est toujours en vigueur, bien que la proposition de loi fût en grande partie censurée. Elle est prévue à l’article 15 du règlement européen sur les services numériques (Règlement 2022/2065 du 19 octobre 2022 dit « DSA » )

L’article 4 de proposition de loi a pour but de fixer des obligations de transparence aux opérateurs de plateformes en matière de lutte contre les contenus comportant manifestement une incitation à la haine ou une injure discriminatoire à raison de la race, de la religion, du sexe, de l’orientation sexuelle ou du handicap.

Cette disposition a également été censurée par le Conseil constitutionnel.

Le règlement DSA précité prévoit des obligations de transparence à la charge des opérateurs de plateforme en matière de lutte contre les contenus manifestement illicites. Celui-ci prévoit en effet que les opérateurs ont l’obligation d’établir un rapport de transparence, au moins une fois par an, exposant notamment des informations relatives à la modération des contenus et le nombre de contenus retirés par les plateformes. Ces opérateurs doivent également, conformément au même règlement, informer l’utilisateur en  cas de retrait de contenus publiés. Ils doivent en outre lui transmettre les motifs de cette décision et lui indiquer si celle-ci a été prise de manière automatisée.

Il insère également un nouvel article 17-3 dans la loi n°86-1067 du 30 septembre 1986 pour donner au Conseil Supérieur de l’Audiovisuel les compétences nécessaires pour exercer les missions de supervision susvisées. Il est notamment prévu de permettre au CSA d’émettre des recommandations pour mieux accompagner les opérateurs de plateformes dans l’identification des contenus illicites.

L’ARCOM, anciennement CSA conserve cette mission de supervision. En vertu du règlement DSA, cette autorité a le rôle de « coordinateur pour les services numériques » (CSN). Le site officiel , nous indique également qu’elle a l’obligation de déployer des outils et des moyens pour atteindre les principaux objectifs de politique publique en matière de lutte contre les contenus illicites et de protection du public.

L’article 5 vise à renforcer la coopération entre les opérateurs de plateformes et les autorités judiciaires en matière d’identification des auteurs de contenus illicites dans la ligne de l’article 4. Il contraint les opérateurs de plateformes à disposer d’un représentant légal en France auprès duquel effectuer ces réquisitions judiciaires plus efficacement. Il renforce aussi considérablement, en le triplant, le montant des sanctions pénales applicables aux plateformes qui refuseraient de coopérer promptement.

Le règlement DSA prévoit que les acteurs en ligne doivent nommer un point de contact unique (article 11) ou s’ils opèrent en dehors de l’Union européenne, désigner un représentant légal et collaborer avec les autorités nationales en cas d’injonction (article 13).

L’article 6 vise, d’une part, à simplifier la procédure permettant d’obtenir une première décision de blocage et de déréférencement des sites illicites et, d’autre part, à confier le pouvoir à une autorité administrative d’enjoindre au blocage des sites miroirs identifiés, sur le fondement de la décision de justice initiale.

La loi confortant le respect des principes de la République (loi n° 2021-1109 du 24 août 2021) comprend un chapitre consacré aux dispositions relatives à la lutte contre les discours de haine et contenus illicites en ligne. Ce dernier met en place une nouvelle procédure permettant de faciliter le blocage de l’accès aux sites miroirs.

L’article 7 propose un rapport d’exécution de la présente loi mettant notamment en exergue les moyens engagés par les acteurs du numérique comme par l’État pour lutter contre la haine sur internet

II. Les conséquences de la loi et critique

Dans un premier temps il sera important d’observer quelle conséquence cette loi pourrait avoir pour la liberté d’expression (A) et les conséquences au niveau judiciaire (B)

A) Une application dangereuse pour la liberté d’expression

De nombreux acteurs ont pu prendre la parole ou rendre des avis concernant la proposition de loi Avia, on dénomme notamment François Ruffin, député de la France Insoumise a déclaré : « Vous confiez la censure à Google, à Facebook, à Twitter – une censure privée, surtout. Pire : une censure technologique ».

Le syndicat de la magistrature a rendu un avis concernant la proposition de loi visant à lutter contre les contenus haineux en ligne, le syndicat a pris parti concernant le risque de retraits préventifs abusifs de contenus en ligne par le biais des plateformes privées.

L’une des craintes non sans importance est celle de la « sur censure », cette posture pourrait être adopté par les réseaux sociaux dans la crainte des sanctions financières, ainsi il serait préférable d’effacer des contenus sans analyse du contexte, plutôt que de risquer une lourde sanction financière. Ce qui constitue, en quelque sorte, une menace pour la liberté d’expression.

La Ligue des droits de l’homme, la présidente du Conseil national du numérique et la présidente du Conseil national des barreaux ont plaidé, dans une lettre ouverte, que « le juge doit être au cœur tant de la procédure de qualification des contenus que de la décision de leur retrait ou blocage ». (7)

 La Mémoire des Résistants juifs de la MOI et l’Union des Juifs pour la Résistance et l’Entraide, deux associations de résistants juifs, ont écrit au Premier ministre Édouard Philippe pour dénoncer la philosophie de cette initiative, la déclaration précise que « Sous prétexte de la lenteur du système judiciaire, loin, comme il se devrait, de transférer vers une autorité publique indépendante spécifique le soin de décider du retrait de propos haineux, le texte en discussion délègue aux plateformes Internet elles-mêmes l’effacement de ces propos ». (8)

La Commission nationale consultative des Droits de l’Homme a rendu un avis le 22 novembre 2019 relatif à la proposition de loi Aviva, elle fait la remarque dans cet avis, du manque de dispositions de prévention dans le projet de loi et notamment de mesures plus ambitieuses concernant l’éducation au numérique. La CNCDH a émis des recommandations quant à la mise en place d’un plan national d’action sur l’éducation et la citoyenneté numérique, à destination de l’ensemble des utilisateurs. La CNCDH dans son avis met en avant le danger relatif à un changement du processus de régulation proposé laissant ainsi plus de pouvoir au Conseil Supérieur de L’audiovisuel, mais n’étant pas apte dans son organisation actuelle. (9)

La proposition de loi a reçu une critique aussi bien par la CNCDH que par la Commission européenne, car il aurait été plus raisonnable en raison du caractère transfrontalier d’Internet, la création d’une réflexion plus globale au niveau européen, incluant toutes les parties prenantes au niveau européen au moins, en faveur d’une harmonisation du cadre de la régulation des plateformes et des moteurs de recherche.

Le Conseil constitutionnel souligne que le dispositif consistant à supprimer les contenus manifestement illicites dans les 24 heures pourrait inciter les intermédiaires à retirer d’autres contenus signalés, même s’ils ne sont pas nécessairement illicites. Dans sa décision de censure, celle-ci a en effet affirmé que : « Compte tenu des difficultés dappréciation du caractère manifestement illicite des contenus signalés dans le délai imparti, de la peine encourue dès le premier manquement et de labsence de cause spécifique dexonération de responsabilité, les dispositions contestées ne peuvent quinciter les opérateurs de plateforme en ligne à retirer les contenus qui leur sont signalés, quils soient ou non manifestement illicites. Elles portent donc une atteinte à lexercice de la liberté dexpression et de communication qui nest pas nécessaire, adaptée et proportionnée ».

B) Un danger pour le rôle de l’autorité judiciaire

La Commission européenne considère que ce texte fait peser une menace disproportionnée sur la liberté d’expression en raison de la procédure envisagée. Celle-ci fait reposer l’appréciation du caractère illicite d’un contenu sur les plateformes, via des algorithmes et des modérateurs peu formés, en lieu et place de l’autorité judiciaire. Ce dispositif renforce le pouvoir des grandes plateformes au détriment des autres acteurs qui n’auront pas tous les moyens d’appliquer la loi. En outre, la lourdeur de la sanction encourue risque d’encourager des retraits excessifs, faisant peser un risque de censure. (10)

C’est à l’autorité judiciaire garant, constitutionnellement, des libertés fondamentales qu’il appartient de statuer sur le caractère illicite d’un contenu. Le contentieux relatif à la loi sur la liberté de la presse étant un contentieux d’une forte complexité, notamment en partie en raison de l’appréciation du contexte, mais aussi du caractère polysémique du langage, et de l’intentionnalité parfois équivoque qui préside à la communication d’un message.

La proposition de loi prend le soin de préciser que les plateformes en ligne auront un champ de compétence limité aux contenus « manifestement » illicites. Si l’on comprend aisément la limite introduite par l’adjonction de l’adverbe « manifestement », cela ne constitue toutefois pas, en pratique, une garantie suffisante. En effet la complexité attachée à l’identification d’un message haineux, vaut également pour l’appréhension de son caractère « manifeste ». Il faut redouter que les agents en charge de la modération, au sein d’un réseau social, ne disposant pas nécessairement de compétences juridiques requises en la matière, ainsi que l’usage généralisé des algorithmes conduit à s’interroger sur leur appréciation de la notion de « manifestement illicite ».

Pour le moment, le texte est au Sénat qui a refusé la version de l’assemblée nationale et est revenu à sa version.

Dans sa décision de censure, le Conseil Constitutionnel notait que le délai de 24 heures laissé aux opérateurs en ligne  pour supprimer les contenus notifiés, rendait impossible l’intervention d’un juge a priori. Les sages soulignent également la vaste gamme de qualifications couvertes par le dispositif et par conséquent, la complexité du processus de qualification des contenus.

Pour lire une version plus complète de cet article sur la loi sur la haine en ligne, dite loi Avia, cliquez

SOURCES :

Diffamation sur une page Facebook et sur twitter : qui est l’auteur principal ?

Comme chacun le sait, les réseaux sociaux sont le théâtre de vifs échanges fondés sur la liberté d’expression. Cette liberté de communication n’est cependant pas absolue et le délit de diffamation peut être retenu à l’encontre d’un utilisateur. Cependant, il est parfois difficile de déterminer qui est l’utilisateur, auteur des propos diffamatoires.

NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire !

Il est alors intéressant de revenir sur le régime de responsabilité applicable au délit de diffamation sur une page Facebook ou sur un compte Twitter et plus particulièrement à la détermination du responsable.

L’émergence des réseaux sociaux a en effet permis à chacun de se saisir de l’actualité et d’exprimer son point de vue de manière directe. Mais cette nouvelle voie d’expression dénuée d’intermédiation peut également favoriser des propos qualifiables de diffamatoires.


Besoin de l’aide d’un avocat pour un problème de contrefaçon ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien


Les victimes de propos diffamatoires sur une page Facebook ou sur un compte Twitter ne sont pas démunies face à cette situation et la loi permet de réagir face à ces comportements délictueux.

Ainsi, en se fondant sur la loi de 1881 (loi du 29 juillet 1881 sur la liberté de la presse) réprimant les propos diffamatoires (I), la loi de 1982 (loi du 29 juillet 1982 sur la communication audiovisuelle) et la loi du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN) prévoient un régime de responsabilité en cascade (II) fondé sur la détermination de l’auteur principal.

I – APPLICABILITÉ DE LA LOI DE 1881 POUR DES PROPOS TENUS SUR UNE PAGE FACEBOOK OU UN COMPTE TWITTER

A – L’APPLICABILITÉ DE LA LOI DE 1881

Lors de l’émergence d’Internet, s’est posée la question du régime de responsabilité applicable à des propos répréhensibles. En effet, face à l’augmentation du nombre de connexions et d’échange de messages via l’Internet, un nombre croissant de contentieux est apparu. La solution est venue de la loi du 29 juillet 1982 (loi n° 82652) dite loi sur la communication audiovisuelle (Cour de cassation – Chambre criminelle 16 octobre 2018 in fine).

Par cette loi, le législateur de l’époque crée un régime de responsabilité spécial, directement fondé sur la loi du 29 juillet 1881 et notamment son article 29 qui consacre la diffamation. Ce renvoi permet d’écarter le fondement classique de la responsabilité civile fondé sur l’article 1240 du Code civil (anciennement 1382 du Code civil) qui prévoit que « tout fait quelconque de l’homme, qui cause à autrui un dommage, oblige celui par la faute duquel il est arrivé à le réparer ». Cette responsabilité spéciale permet une meilleure adaptation des recours face aux réalités de l’Internet, notamment sur les difficultés probatoires que peuvent rencontrer les victimes.

L’article 1240 du Code civil requiert en effet classiquement trois critères pour retenir la responsabilité d’une personne : une faute, un lien de causalité et un dommage. Par cette loi, le législateur reconnaît donc la spécificité des cas de responsabilités sur l’Internet.

L’assimilation faite en 1982 pour l’Internet à la loi de 1881 sur la liberté de la presse vaut aujourd’hui pour les réseaux sociaux. C’est ce que prévoit la loi de 2004 dite LCEN (Tribunal correctionnel Pau, 12 nov. 2018). La loi de 1881 réprimant les propos diffamatoires par voie de presse est donc applicable aux messages postés sur une page Facebook ou un compte Twitter (Cour d’appel de de Paris – 17 déc. 2014 n° 12/20 756).

La Cour d’appel de Pau, dans un arrêt du 16 janvier 2024, a rappelé l’article 29 de la loi de 1881 et le fait que les abus de la liberté d’expression prévus et réprimés par la loi du 29 juillet 1881 ne peuvent être réparés sur le fondement de 1240 du Code civil, l’objectif étant d’interdire aux parties de contourner, en se fondant sur le droit commun, les dispositions protectrices de la liberté d’information et d’expression de la loi de 1881.

En l’espèce, il est constant que les appelants fondent leur action sur les dispositions des articles 1240 et 1241 du Code civil. Par conséquent, la cour estime que c’est donc justement que le premier juge, retenant que les dispositions des articles 1240 et 1241 du Code civil ne permettaient pas de sanctionner les abus à la liberté d’expression, a débouté les demandeurs de l’intégralité de leurs demandes

B – LE DÉLIT DE DIFFAMATION DANS LA LOI DE 1881           

La loi du 29 juillet 1881, dispositif cardinal de la liberté d’expression dans le corpus juridique français prévoit en son article 29 un délit : la diffamation.

Cet article dispose : « toute allégation ou imputation d’un fait qui porte atteinte à l’honneur ou à la considération de la personne ou du corps auquel le fait est imputé est une diffamation. La publication directe ou par voie de reproduction de cette allégation ou de cette imputation est punissable, même si elle est faite sous forme dubitative ou si elle vise une personne ou un corps non expressément nommés, mais dont l’identification est rendue possible par les termes des discours, cris, menaces, écrits ou imprimés, placards ou affiches incriminés ».

La diffamation requiert donc la réunion de cinq éléments : une allégation ou imputation, un fait déterminé, une atteinte à l’honneur ou à la considération, une personne ou un corps identifié, une publicité des propos.

Un arrêt du 26 février 2020 rendu par la Cour d’appel de Paris (Cour d’appel de Paris, 26 févr. 2020, 10/2020) précise cette notion de diffamation : « la diffamation, qui peut se présenter sous forme d’allusion ou d’insinuation, doit être appréciée en tenant compte des éléments intrinsèques et extrinsèques au support en cause, а savoir tant du contenu même des propos que du contexte dans lequel ils s’inscrivent ».

La publicité est le caractère le plus discuté en matière de diffamation, la Cour de cassation procédant à une différence d’analyse entre les pages publiques et privées. Plusieurs affaires concernant des insultes proférées par des salariés à propos de leurs employeurs ont en effet été rejetées par la Cour.

La haute juridiction a plusieurs fois procédé à une analyse du nombre d’amis de l’intéressé : si ce nombre dépasse celui du cercle d’amis restreint, alors le message litigieux pourra être considéré comme étant public (Civ. 1re, 10 avr. 2013, n° 11–19.530). À l’inverse, si le nombre d’amis demeure comparable à un cercle d’amis restreint, le caractère public n’est pas retenu et l’auteur pourra être exonéré. Dans le cas de Twitter, l’analyse diffère : pour les comptes privés, les juges pourront procéder à une évaluation du nombre de personnes suivant le compte. Pour le cas des comptes publics, la publicité est présumée (Cass. Crim, 11 décembre 2018, 17-85.159, Inédit)

La question du caractère public ou non d’un message Facebook peut s’avérer épineuse. La Cour de cassation semble s’attacher à un autre critère : celui de la communauté d’intérêts. Elle a ainsi pu retenir le caractère public d’un message publié au sein d’un groupe partageant une « communauté d’intérêts » (Civ. 1re, 10 avr. 2013, n° 11-19.530).

Dans le cas d’une page Facebook, la question est différente puisque le caractère public est plus aisé à caractériser : n’importe quel utilisateur peut avoir accès à cette page (CAA Nantes, 21 janv. 2016, n° 14NT02263).

S’ajoute à ces éléments dits « matériels » de l’infraction, un élément moral : l’intention de porter atteinte à l’honneur ou à la considération d’une personne ou d’un corps déterminé. Ce deuxième élément est le plus souvent présumé. C’est ce que juge la Cour de cassation dans un arrêt du 19 juin 2012  : (Cour de cassation, chambre criminelle, 19 juin 2012, n° 11-84.235) : « les imputations diffamatoires sont réputées, de droit, faites avec intention de nuire, mais elles peuvent être justifiées lorsque leur auteur établit sa bonne foi, en prouvant qu’il a poursuivi un but légitime, étranger а toute animosité personnelle, et qu’il s’est conformé à un certain nombre d’exigences, en particulier de sérieux de l’enquête, ainsi que de prudence dans l’expression, étant précisé que la bonne foi ne peut être déduite de faits postérieurs à la diffusion des propos ».

II – UN RÉGIME DE RESPONSABILITÉ EN CASCADE

A – LA RESPONSABILITÉ EN CASCADE : DÉTERMINATION DE L’AUTEUR PRINCIPAL

Déterminer qui est le responsable d’un acte de diffamation peut s’avérer complexe, surtout lorsque l’acte a été commis par l’intermédiaire d’un ordinateur.

Conscient de cette problématique, le législateur a instauré un système de responsabilité en cascade, permettant dans la plupart des cas, de déterminer un responsable. Ainsi, l’article 93-3 de la loi du 29 juillet 1982 prévoit que « l’auteur, et à défaut de l’auteur, le producteur seront poursuivis comme auteur principal ».

Appliqué à une page Facebook ou à un compte Twitter et à défaut d’auteur identifiable, il s’agira du producteur. Producteur au sens de celui « ayant pris linitiative de créer un service de communication au public » (Cass. crim., 16 févr. 2010 n°09-81.064) c’est-à-dire la personne physique qui fournit le service. Sachant que la jurisprudence considère que « le titulaire dun compte Facebook en est en conséquence le directeur de la publication » (Tribunal correctionnel de Pau, 12 nov. 2018). Cela vaut aussi pour un compte Twitter dont l’auteur n’est pas identifiable.

Cependant, le créateur ou animateur d’un site de communication au public, en tant que producteur, pourra se voir exonérer de toute responsabilité vis-à-vis du contenu du message adressé par un utilisateur s’il n’avait pas connaissance du message avant sa mise en ligne (Conseil constitutionnel, 16 sept. 2011, n° 2011-164 QPC). Pour une page Facebook.

Dans un arrêt rendu le 13 novembre 2020 par la Cour Administrative d’Appel de Paris (4e chambre de l’instruction), la personne mise en cause, animatrice d’une page Facebook contestait sa responsabilité, arguant que l’ordinateur utilisé pour administrer sa page se trouvait dans un lieu accessible au public et que plusieurs personnes pouvaient de fait, y avoir eu accès, sans son contrôle (la personne ne s’étant pas déconnectée de son compte personnel).

Elle cherchait ainsi à s’exonérer de sa responsabilité. La Cour a cependant refusé ce raisonnement en se fondant sur le fait qu’elle ne pouvait nier sa responsabilité. Le message litigieux provenant de son compte personnel et non d’un compte tiers : l’auteur avait utilisé les codes d’accès de l’administrateur de la page, sans que cette dernière ne puisse démontrer qui était cette personne. L’administrateur a donc était désigné comme responsable.

Ainsi, peut-être retenu comme auteur principal et donc responsable au sens de la loi du 29 juillet 1881, l’auteur du texte litigieux et à défaut l’administrateur de la page Facebook ou du compte Twitter (pour Facebook : Cour de cassation – Chambre criminelle, 1 septembre 2020, n° 19-84.505 – pour Twitter : Cour de cassation – Chambre criminelle, 10 mai 2017, 16.81-555)

Dans le cas précis de Twitter, il faut noter une spécificité : les membres apparaissent souvent sous pseudonyme, rendant l’exercice d’identification encore plus complexe (Cass. Crim. 8 janv. 2019). Afin de lutter plus efficacement contre les agissements de personnes non identifiables, la loi pour la confiance dans l’économie (loi du 21 juin 2004, précitée) a mis en place un régime de responsabilité spécifique. Ainsi, les hébergeurs ont l’obligation de supprimer les tweets illicites qui leur ont été signalés. Et ceux dans les plus brefs délais.

Dans un arrêt du 16 février 2023, la Cour d’appel de Versailles a établi que que la demande formulée par l’appelant n’a pas pour objet l’engagement de la responsabilité des sociétés Google Ireland Limited et Google LLC sur le fondement de la loi du 29 juillet 1881, aucune des infractions de presse prévues par ce texte ne leur étant reprochée et aucune des qualités mentionnées ne pouvant leur être appliquées, seul demeure au débat à hauteur de la cour, le respect de leurs obligations en matière de traitement de données personnelles. Par conséquent, la cour considère que la fin de non-recevoir tirée de ce moyen sera rejetée.

B –  LE RÉGIME D’EXONÉRATION

Il existe en finalité peu de cas d’exonération de responsabilité pour des propos diffamatoires sur une page Facebook ou un compte Twitter. Le principal cas pour l’auteur n’en est pas réellement un : cela recouvre la situation dans laquelle il n’est pas identifiable. Un autre cas d’exonération pour l’auteur peut être celui d’arguer la non-publicité de la diffamation ou le manque d’un critère constitutif de la diffamation. Mais encore une fois ce il ne s’agit pas d’un réel cas d’exonération.

Pour l’administrateur, l’exonération peut venir de la démonstration que les propos diffamatoires publiés sur sa page n’avaient pas été portés à sa connaissance avant publication. Dans le cas où son identité a été usurpée et qu’un usage malveillant de son compte Facebook ou Twitter a été perpétré, l’administrateur pourra se voir exonérer de toute responsabilité pour des propos diffamatoires. Il devra pour cela rapporter la preuve de l’usurpation (en lien : Tribunal correctionnel de Paris 18 avril 2019).

Tel ne fut pas le cas dans l’affaire précitée du 13 novembre 2020 (Cour Administrative d’Appel de Paris, 4e chambre de l’instruction).

Dans le cas où une personne publie un message à caractère diffamatoire sur une page Facebook ou un compte Twitter qu’elle n’administre pas et si l’administrateur intervient promptement pour supprimer le commentaire, alors sa responsabilité pourra être écartée. C’est le même mécanisme que celui prévu par la LCEN (Loi sur la Confiance dans l’Économie Numérique du 21 juin 2004), pour les hébergeurs.

En somme, la responsabilité en cascade prévue par la loi du 29 juillet 1982 réduit considérablement les cas d’exonérations pour des cas de diffamation.

Pour lire cet article sur la diffamation sur les réseaux sociaux, Facebook et Twitter en version plus détaillée, cliquez

SOURCES :

RÈGLEMENT « DIGITAL SERVICES ACT » POUR UNE RESPONSABILISATION DES PLATEFORMES

Face à la montée de problématiques telles que la haine en ligne, la manipulation de l’information, la désinformation, et la contrefaçon, l’Union européenne (UE) a adopté une nouvelle mesure réglementaire, le Digital Services Act (DSA), pour réguler les activités des plateformes numériques, en particulier celles des géants du web, les GAFAM.

Pour faire supprimer un contenu qui bafoue vos droits, utilisez le service mis en place par le cabinet Murielle-Isabelle CAHEN.

Promulgué le 19 octobre 2022, ce règlement a pour but d’accroître la protection des Européens dans un monde numérique en constante évolution. Il agit en tant que modernisation de la Directive du 8 juin 2000 sur le commerce électronique, cherchant à mettre à jour et à renforcer les dispositions de cette directive pour tenir compte de l’évolution rapide du paysage numérique.

Ainsi, Les plateformes en ligne devront proposer aux internautes un outil leur permettant de signaler facilement les contenus illicites. Une fois le signalement effectué, elles devront rapidement retirer ou bloquer l’accès au contenu illégal. Dans ce cadre, elles devront coopérer avec des « signaleurs de confiance ». Ce statut sera attribué dans chaque pays à des entités ou organisations en raison de leur expertise et de leurs compétences. Leurs notifications seront traitées en priorité.

Le règlement s’applique à tous les services intermédiaires fournis aux internautes et ayant leur lieu d’établissement ou de résidence dans l’union européenne.


Besoin de l’aide d’un avocat pour un problème de contrefaçon ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien


Autrement dit, le lieu d’établissement de la plateforme ou du prestataire est sans incidence dès lors que la seule utilisation du service dans le territoire de l’union européenne permet au DSA d’être applicable.

Un tel règlement permet de protéger la cible des plateformes : les utilisateurs. En effet, tous les prestataires seront soumis aux mêmes obligations prévues par le DSA.

En somme, doivent se soumettre au DSA :

Les fournisseurs d’accès à internet ;

Les fournisseurs de services intermédiaires (services d’information, de mise en marche et d’hébergement) ;

Les plateformes en ligne telles que les réseaux sociaux, les plateformes marchandes, ou les plateformes de voyage et d’hébergement ;

Les moteurs de recherches et plateformes en ligne utilisés par plus de 45 millions d’Européens par mois et désignés comme « Très grande plateforme » par la Commission européenne.

A ce titre, en avril 2023, la Commission européenne a adopté les premières décisions listant 17 très grandes plateformes en ligne et 2 très grands moteurs de recherche en ligne touchant au moins 45 millions d’utilisateurs européens actifs par mois.

De ce fait, ces règlements pourront avoir un impact significatif et déterminant sur l’économie numérique mondiale.

Inquiets et désabusés devant les pratiques des géants du numérique qui constituent les GAFAM ou MAMAA, les institutions Européennes entendent bien mettre au pas ces grandes sociétés tentaculaires qui occupent une position presque oligopolistique sur ces différents marchés que sont le numérique et la publicité.

Ces règlements s’inscrivent également dans un mouvement de régulation sur internet qui vise notamment à stopper certains agissements des grandes plateformes, mieux protéger les internautes et à favoriser le jeu de la concurrence sur les marchés numériques. Responsabiliser ces acteurs incontournables semble donc nécessaire.

L’opacité des méthodes déployées par ces derniers engendre également de nombreux problèmes. C’est la raison pour laquelle le règlement DSA vise à apporter un nouveau cadre au système de recommandation de contenu aux utilisateurs (I) afin de mieux réguler les publicités ciblées (II).

I) Un cadre nouveau pour les systèmes de recommandations en ligne

Vous l’avez sans doute remarqué en surfant sur le web : les recommandations foisonnent sur les réseaux sociaux et les moteurs de recherche. Celles-ci sont rendues possibles grâce aux algorithmes de recommandation. (A) Pour faire face à ce système bien rôdé qui présente des risques certains pour les utilisateurs, l’Europe a mis en place un cadre juridique basé sur la transparence (B).

A) L’univers numérique : un monde gouverné par les algorithmes

De manière générale l’accès à l’information implique nécessairement l’usage d’algorithme. Tous les moteurs de recherche que nous utilisons les utilisent afin de nous diriger de manière optimale vers l’information recherchée. Les plateformes de partage de vidéos tels que Youtube ou Netflix ne sont pas en reste et les utilisent massivement.

Ces algorithmes influencent de manière radicale nos choix, nos goûts et nos envies.

C’est d’ailleurs ce qui avait été reproché à Google Shopping qui avait été condamnée en 2021 par le Tribunal de l’UE à une amende record de 2,42 milliards d’euros. Google avait alors auto préférencé les liens dirigeant vers Google Shopping, son propre comparateur de produit au détriment des autres concurrents. Cette pratique pourrait par le biais des recommandations être appliquée.

Dans une étude publiée par le Conseil supérieur de l’Audiovisuel en 2019, il ressortait que les critères qui gouvernent les algorithmes sont : les préférences et historique de consommation des utilisateurs, les types de contenus, les partages, les commentaires, les likes, les sites visités… La manière dont ces données alimentent les algorithmes et l’utilisation qui en est faite par ces derniers reste un mystère.

Le système manque singulièrement de transparence et aucune explication n’est faite à propos des contenus qui sont proposés aux utilisateurs.

Pourtant comme cela a été mis en évidence dans l’affaire Google Shopping l’importance du classement d’une information ou d’un produit est déterminante, et c’est bien le danger que représente ce système opaque qui peut engendrer non seulement des comportements déloyaux envers les concurrents, mais également des effets extrêmement négatifs sur les habitudes de consommation de l’ensemble des utilisateurs.

Un mauvais usage de cette puissance informationnelle pourrait conduire à biens des catastrophes (manipulation des utilisateurs, relayage de fausses informations). C’est d’ailleurs ce point qui ressort dans les considérants du règlement ici présenté : les systèmes de recommandation algorithmique jouent un rôle important dans l’amplification de certains messages et la diffusion d’informations.

On est alors en mesure de s’interroger sur la variété et la qualité des points de vue donnés par le moteur de recherche sur un sujet donné à ses utilisateurs.

Déjà sanctionnées sous le prisme du droit de la concurrence par le Digital Market Act, le règlement qui accompagne le DSA vient interdite les pratiques d’auto-préférence, lorsqu’elles revêtent un caractère anticoncurrentiel, les modes de fonctionnement des algorithmes devront être dévoilées au grand jour par l’instauration par le DSA d’obligations de transparence et d’explicabilité.

B) Une obligation renforcée de transparence et d’explication

Explicabilité et transparence sont les maitres mots du DSA. L’importance des systèmes de recommandation algorithmique n’est plus à prouver et les risques qu’ils entrainent sont certains. Le législateur Européen l’a bien compris et le DSA désigne désormais ces systèmes de recommandation comme étant de potentiels « facteurs d’aggravation des risques systémiques » portés par les très grandes plateformes.

Le règlement vient imposer à ces dernières de prévoir au moins une option de système de recommandation n’étant pas fondée sur le profilage.

A l’égard de toutes les plateformes le DSA vient créer des obligations de transparence et d’explicabilité de leur système de recommandation.

L’article 24 bis du DSA prévoit ainsi une obligation pour les plateformes d’intégrer dans leurs conditions générales « dans un langage clair et compréhensible, les principaux paramètres utilisés dans leurs systèmes de recommandation, ainsi que toute option permettant aux bénéficiaires du service de modifier et d’influencer ces principaux paramètres ».  Les plateformes devront ainsi permettre aux utilisateurs de paramétrer eux-mêmes les algorithmes de recommandation.

L’article apporte par la suite des précisions sur les informations qui devront figurer dans les conditions générales pour satisfaire aux exigences du paragraphe susmentionné. Ces informations devront comprendre les critères les plus significatifs qui permettent aux algorithmes de dresser leurs recommandations.

L’objectif visé par le législateur est de contraindre les plateformes à informer les utilisateurs que d’une part les informations qui lui sont présentées ont fait l’objet d’un reclassement par ordre de priorité, et comment d’autre part cet ordre de priorité est déterminé et à partir de quelles informations.

L’explicabilité et la transparence impliquent nécessairement une exigence de clarté et d’intelligibilité des explications ainsi transmises à l’utilisateur. C’est la raison pour laquelle l’article 24 bis du DSA mentionne un « langage clair et compréhensible ».

Cette obligation d’intelligibilité s’inscrit dans la continuité du règlement RGPD qui visait à rendre l’utilisation des données personnelles des utilisateurs par les plateformes numériques compréhensible. La formule « langage clair et compréhensible » sera par la suite reprise dans de nombreux points du DSA. (Article 12 du DSA qui oblige à faire usage d’un langage clair et compréhensible dans les conditions générales, ou encore l’article 38 qui impose une fois encore une obligation spécifique de clarté et d’adaptation du langage utilisé dès lors que le public visé est constitué de mineurs).

Dorénavant les grandes plateformes devront également fournir un résumé clair et concis des habituelles conditions générales interminables, dont personne ne daigne réellement prêter attention.

Cet encadrement des systèmes de recommandation a de toute évidence pour finalité de protéger l’utilisateur des plateformes. L’utilisateur doit rester conscient du fonctionnement de ces dernières afin de préserver un consentement libre et éclairé à tout acte qu’il effectuera sur les plateformes.

II) L’émergence d’un cadre juridique pour la publicité ciblée

La publicité ciblée est massivement utilisée par les plateformes du numérique et génère des revenus considérables. Pouvant avoir de nombreuses conséquences sur le comportement des consommateurs et sur le jeu de la concurrence, le recours à ces méthodes de publicité doit être fortement encadré. C’est la raison pour laquelle le législateur vient ici encore imposer aux plateformes une obligation renforcée de transparence en ce qui concerne la publicité ciblée (A). Ces obligations vont bouleverser les méthodes des plateformes numériques et fortement sensibiliser les consommateurs, ce qui risque de mener à une forte réduction de ces dernières (B).

A. La publicité ciblée au cœur des obligations de transparence

La CNIL définit la publicité ciblée comme étant une technique publicitaire qui vise à identifier les personnes individuellement afin de leur diffuser des messages publicitaires spécifiques en fonction de leurs caractéristiques individuelles.

Ce procédé représente aujourd’hui une part de revenus considérable pour les plateformes du numérique (près de 7 678 milliards d’euros de recette rien qu’en France en 2021) et apparait être l’un des piliers de l’économie numérique ainsi que la principale cause de collectes des données personnelles.

A la différence des publicités classiques qui font l’objet d’espaces dédiés et sont clairement identifiées, les publicités ciblées sont intégrées dans le flux de contenu habituel des utilisateurs.

Partant de ce constat, le DSA instaure un nouveau cadre particulièrement restrictif et allant au-delà de ce qui découlait de l’application du RGPD et de la directive e-privacy,  sans préjudice des principes posés par ces textes.

Désormais les plateformes devront veiller à ce que les utilisateurs soient informés de la présence de ces publicités. Ces dernières devront également être clairement identifiables par le consommateur moyen et ce de manière non ambiguë. Cette identification passera par l’apposition obligatoire de marques visuelles et sonores qui devront être adaptées à la nature de l’interface en question (Youtube, Facebook, Instagram etc…).

L’article 24 du DSA viendra ainsi contraindre les plateformes à :

  • Rendre visible et identifiable tout contenu publicitaire ;
  • Rendre identifiable la personne au nom et pour le compte de qui la publicité est diffusée ;
  • Exposer les paramètres utilisés pour cibler le consommateur

Désormais le ciblage publicitaire ne pourra plus être réalisé sur la base de données « sensibles » au sens du RGPD et ne pourra plus être réalisé à destination des mineurs.

Ces obligations ne sont pas sans faire échos au scandale « Cambridge Analytica » et à l’utilisation de données personnelles liées aux convictions politiques dans un but d’influencer le comportement les électeurs.

Il est à espérer que ces obligations auront un impact significatif sur la perception du consommateur ainsi que sur l’usage de la publicité ciblée.

B. L’éventuel impact sur les revenus des plateformes générés par la publicité ciblée

Il est probable que les limites posées par le DSA à l’utilisation des systèmes de profilage pour proposer des publicités aux utilisateurs pourraient conduire à une forte diminution de son importance.

L’interdiction faite aux plateformes de proposer de la publicité au mineur risque de bouleverser considérablement le modèle économique de ces dernières. En effet le DSA précise que les plateformes ne pourront proposer de la publicité ciblée lorsqu’elles savent avec « une certitude raisonnable que les utilisateurs sont mineurs ».

L’article 52 du DSA vient par la suite préciser qu’une plateforme est considérée comme accessible aux mineurs lorsque ses conditions générales permettent à ces derniers d’utiliser le service.

Si l’on retient une interprétation stricte de cet article, toute plateforme qui autorise aux mineurs l’accès à ses services devrait soit bannir toute publicité ciblée de son modèle, soit parvenir à distinguer parmi ses utilisateurs lesquels sont mineurs ou majeurs de manière fiable.

Une autre disposition intéressante fait son apparition à la lecture de l’article 24 du DSA qui prévoit que les plateformes ne pourront collecter plus d’informations qu’habituellement au prétexte de pouvoir continuer à mettre en œuvre la publicité ciblée.

Les plateformes pourraient mettre en place des mécanismes afin de contourner ces obligations, tels que l’instauration d’un système déclaratif de l’âge des utilisateurs ou autres déclarations sur l’honneur. Ces mécanismes ont déjà sur certaines plateformes été mis en place et ont brillé par leur inefficacité. En l’absence d’identité numérique, toute identification effective reste pour l’instant impossible.

L’article 29 du DSA vient également préciser que les très grandes plateformes (Youtube, Google, Facebook, Tiktok etc..) doivent fournir au moins une option pour leurs systèmes de recommandation qui ne soit pas fondée sur le profilage. Les très grandes plateformes devront donc proposer aux utilisateurs un moyen de désactiver les publicités ciblées.

Toutes ces mesures devraient conduire inexorablement de nombreux utilisateurs à désactiver les publicités ciblées de leur interface, et ainsi par voie de conséquence conduire à une forte diminution des recettes astronomiques réalisées par les très grandes plateformes.

Certaines plateformes qui visent principalement un public mineur (Tiktok, Snapchat) se verront en principe interdire totalement le recours à la publicité ciblée.

Bien que le DSA n’entraine pas l’interdiction complète de l’usage de la publicité ciblée, il en réduira très certainement la portée.

Toutes ces mesures sont à saluer dans un contexte tel que celui que nous connaissons aujourd’hui, fortement marqué par la montée en puissance de ces géants du numérique. Ces derniers disposant d’un pouvoir financier et d’influence sans limite ne devraient plus continuer bien longtemps à œuvrer en toute impunité.

Pour lire une version plus complète de cet article sur le digital act et la responsabilité des plateformes de commerce électronique, cliquez

Sources :

https://www.vie-publique.fr/eclairage/285115-dsa-le-reglement-sur-les-services-numeriques-ou-digital-services-act#:~:text=Les%20plateformes%20en%20ligne%20devront,des%20″signaleurs%20de%20confiance« .
https://www.plravocats.fr/blog/technologies-propriete-intellectuelle-media/tout-comprendre-du-digital-services-act-dsa
https://www.vie-publique.fr/dossier/284898-dsa-et-dma-tout-savoir-sur-les-nouveaux-reglements-europeens
https://www.vie-publique.fr/eclairage/285115-dsa-le-reglement-sur-les-services-numeriques-ou-digital-services-act
https://www.economie.gouv.fr/legislation-services-numeriques-dsa-adoption-definitive-text
https://eur-lex.europa.eu/legal-content/FR/TXT/PDF/?uri=CELEX:32022R2065
Communications électroniques – Quel système de gouvernance pour le DMA et le DSA ? – Focus par Laurence IDOT (Lexis)