A propos de Murielle Cahen

https://www.murielle-cahen.fr/

Avocat à la cour (Paris 5eme arrondissement) J'interviens principalement en droit de la propriété intellectuelle, droit des nouvelles technologies, droit civil & familial, droit pénal, droit de l'immobilier, droit du travail, droit de la consommation Consultation juridique en ligne - Réponse en 24/48h max. (€100 TTC) Titulaire du certificat de spécialisation en droit de l'informatique et droit de l'internet. Editrice du site web : Avocat Online depuis 1999. Droit de l'informatique, du logiciel et de l'Internet. Propriété intellectuelle, licence, presse, cession, transfert de technologie. droit d'auteur, des marques, négociation et arbitrage... Cabinet d'avocats à Paris. Droit internet et droit social, droit des affaires spécialisé dans les nouvelles technologies et lois internet...

Articles de Murielle Cahen:

LE ROLE DES PLATEFORMES EN LIGNE DANS LA LUTTE CONTRE LA MANIPULATION DE L’INFORMATION

La révolution numérique a apporté de nombreux changements et notamment un accès illimité à l’information. Or dans le même temps, le développement d’Internet et des réseaux de télécommunications a permis à n’importe qui de s’exprimer, de partager et de créer des contenus informationnels. La manière dont nous nous informons a parallèlement radicalement changé et la crédibilité accordée aux médias ainsi qu’aux institutions publiques s’est affaiblie au profit de nouveaux acteurs émergeant sur Internet qui tirent souvent leur légitimité par le nombre de personnes qui les suivent.  

NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire !

Par ailleurs, les bulles algorithmiques créées par les plateformes que nous utilisons nous confortent dans nos idées et bien souvent le sensationnisme est préféré au réalisme qui laisse place à une euphorie générale.

Mais comment s’assurer que les informations que nous consultons sont bel et bien fiables ?
Comment être sûr que nous ne subissons aucune influence de la part des algorithmes ?
Et surtout quels sont les risques liés à la manipulation de l’information ?

Comme en témoigne les récentes élections présidentielles américaines de 2016, les élections françaises de 2017 et la campagne du Brexit influencée par la société Cambridge Analytica, ce phénomène de déstructuration du paysage de l’information a des répercussions sur notre conception du monde et peut donc influencer le choix final à l’occasion d’élections.

Face aux risques grandissants de manipulation à grande échelle, la France a fait le choix en 2018, d’ajouter à son arsenal législatif une nouvelle loi visant à lutter contre la manipulation de l’information.

Tout d’abord, cette loi introduit une nouvelle mesure de référé visant à lutter contre la manipulation de l’information à l’heure numérique et de permettre d’endiguer la diffusion de fausses informations pendant les périodes de campagne électorale (article L. 163-2 du Code électoral). Cette mesure ne fera pas l’objet d’un développement ici.


Besoin de l’aide d’un avocat pour un problème de contrefaçon ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien


En parallèle, elle sollicite les plateformes dans cette lutte en leur imposant un certain nombre d’obligations de moyens et de transparence. D’une part, elle permet de responsabiliser les plateformes en leur imposant la mise à disposition d’outils qui permettent aux utilisateurs de signaler les contenus. D’autre part, elle tend à rendre plus transparents le fonctionnement et l’effectivité des mesures en instaurant un mécanisme de coopération avec l’ARCOM (anciennement le CSA).

Cependant les récentes révélations impliquant une société israélienne dans la manipulation d’élections à grande échelle et le piratage de responsables politiques africains remuent les inquiétudes liées à la diffusion de fausses informations en ligne. Il semble donc nécessaire de rester vigilant et de lutter à notre échelle contre la diffusion de fausses informations.

 I. Le devoir de coopération des opérateurs de plateforme en ligne lors des périodes électorales

Même si le juge peut prendre des mesures pour lutter contre la manipulation de l’information, les opérateurs de plateformes en ligne ont la responsabilité de réguler les contenus qui se propagent sur leur plateforme. Dans cet objectif, la loi du 22 décembre 2018 impose aux plateformes en ligne un devoir de coopération durant les périodes électorales, qui implique à la fois des obligations de moyens et des obligations de transparence.

A. Les plateformes concernées

Codifié à l’article 163-1 du Code électoral, les opérateurs plateformes en ligne concernés par ces obligations lors des périodes électorales sont ceux visés à l’article L. 111-7 du Code de la consommation.

Comme le précise cet article « Est qualifiée d’opérateur de plateforme en ligne toute personne physique ou morale proposant, à titre professionnel, de manière rémunérée ou non, un service de communication au public en ligne reposant sur :

1 o Le classement ou le référencement, au moyen d’algorithmes informatiques, de contenus, de biens ou de services proposés ou mis en ligne par des tiers ;

 2o Ou la mise en relation de plusieurs parties en vue de la vente d’un bien, de la fourniture d’un service ou de l’échange ou du partage d’un contenu, d’un bien ou d’un service. »

Conformément au décret du 10 avril 2019, sont uniquement visés les opérateurs de plateforme en ligne dépassant un seuil de 5 millions de visiteurs unique par mois calculé sur la base de la dernière année civile (Décret n° 2019-297, 10 avr. 2019 relatif aux obligations d’information des opérateurs de plateforme en ligne assurant la promotion de contenus d’information se rattachant à un débat d’intérêt général, JO 11 avr., n° 40). Ce décret est désormais codifié aux articles D. 102-1, I et suivants du Code électoral.

B. Les obligations des opérateurs de plateformes en ligne lors des périodes électorales

La loi du 22 décembre 2018 relative à la manipulation de l’information poursuit une logique de responsabilisation des opérateurs de plateforme en ligne, dans l’objectif de construire une relation de confiance entre eux, les pouvoirs publics et la société civile.

  1. Périodes électorales

Les obligations visées à l’article 163-1 du Code électoral ont vocation à s’appliquer « pendant les trois mois précédant le premier jour du mois d’élections générales et jusqu’à la date du tour de scrutin où celles-ci sont acquises ».

Sont visées par ces dispositions l’élection du Président de la République, les élections générales des députés, l’élection des sénateurs, l’élection des représentants au Parlement européen et les consultations référendaires.

  1. Détails des obligations

Le dispositif légal exige des principaux opérateurs de plateformes en ligne de fournir des informations claires et transparentes sur l’identité des personnes ou des entreprises qui paient pour promouvoir des contenus liés à des débats d’intérêt général toujours dans l’optique de lutter contre la propagation de fausses informations pendant les périodes électorales.

Par ailleurs, ils devront « fournir à l’utilisateur une information loyale, claire et transparente sur l’utilisation de ses données personnelles dans le cadre de la promotion d’un contenu d’information se rattachant à un débat d’intérêt général ».

Enfin, ces opérateurs de plateforme devront également « rendre public le montant des rémunérations reçues en contrepartie de la promotion de tels contenus d’information lorsque leur montant est supérieur à un seuil déterminé. »

L’article D. 102-1 du Code électoral précise que « le montant de rémunération à partir duquel ces opérateurs sont soumis aux obligations du 3 o de l’article L. 163-1 est fixé à 100 euros hors taxe, pour chaque contenu d’information se rattachant à un débat d’intérêt général. »

Conformément aux dispositions des articles L. 163-1 et D.102-2 du Code électoral, ces informations sont agrégées au sein d’un registre mis à la disposition du public par voie électronique, dans un format ouvert, et régulièrement mis à jour pendant les trois mois précédant le premier jour du mois d’élections générales et jusqu’à la date du tour de scrutin où celles-ci sont acquises.

II. La responsabilisation des opérateurs de plateformes en ligne pour la lutte contre la manipulation de l’information

La loi du 22 décembre 2018 instaure un devoir de coopération aux opérateurs de plateforme en ligne dans la lutte contre la manipulation de l’information, et ce, même en dehors des périodes électorales. Le dispositif légal donne également des prérogatives nouvelles à l’ARCOM (anciennement le CSA) dans la lutte contre la diffusion de fausses informations.

A. Les obligations des opérateurs de plateformes en ligne dans la lutte contre la désinformation

L’article 11 de la loi du 22 décembre 2018 prévoit une série d’obligations que les opérateurs de plateformes en ligne doivent mettre en place.

En complément des obligations imposées aux opérateurs de plateformes en ligne, le Conseil Supérieur de l’Audiovisuel (CSA) a publié une recommandation le 15 mai 2019 pour améliorer la lutte contre la propagation de fausses informations qui pourraient perturber l’ordre public ou compromettre l’intégrité des élections (mentionnées dans l’article 33-1-1 de la loi du 30 septembre 1986). Cette recommandation est basée sur les initiatives de l’Union européenne pour lutter contre la désinformation, notamment la communication de la Commission européenne du 26 avril 2018 intitulée « Lutter contre la désinformation en ligne : une approche européenne », le code de pratique sur la désinformation du 26 septembre 2018 et la communication conjointe fixant le plan d’action contre la désinformation de l’Union européenne du 5 décembre 2018.

  1. La mise en place d’un dispositif de signalement facilement visible et accessible

Le dispositif de signalement doit être facile d’accès et visible. Concrètement, un intitulé clair doit désigner le dispositif et le rendre identifiable, il peut s’agir par exemple d’un intitulé « Signaler le contenu ». Les plateformes sont incitées à prévoir, dans leur formulaire de signalement, une catégorie « Fausse information ».

L’affichage de ce dispositif doit se trouver à proximité immédiat du contenu ou du compte susceptible d’être signalé.

Enfin, la recommandation incite à simplifier au maximum le dispositif de signalement en rendant possible la finalisation de cette procédure en trois clics.

B. Les obligations de transparence des opérateurs de plateformes en ligne envers leurs utilisateurs

En sus de l’obligation légale de fournir un outil de signalement, les opérateurs doivent mettre en œuvre des mesures supplémentaires concernant la transparence de leurs algorithmes. Cela implique d’indiquer la promotion de contenus provenant d’entreprises, d’agences de presse et de services de communication audiovisuelle, de lutter contre les comptes qui propagent de fausses informations de manière massive, de fournir aux utilisateurs des informations sur les contenus sponsorisés qui se rapporte aux débats d’intérêt général, ainsi que d’assurer une éducation aux médias et à l’information.

  1. La transparence des algorithmes

L’objectif clairement affiché ici est de redonner aux utilisateurs le contrôle et la capacité d’exercer leur esprit critique en toute connaissance de cause vis-à-vis des contenus proposés par les plateformes en ligne. Pour y parvenir, ils doivent pouvoir accéder à des informations leur permettant de comprendre les principes de fonctionnement des algorithmes qui régissent la sélection, l’organisation et l’ordonnancement de ces contenus.

Cette obligation est motivée par le souci de faciliter la compréhension des algorithmes utilisés pour la sélection de contenus, afin d’éviter les risques associés aux bulles algorithmiques qui renforcent les convictions, attisent l’extrémisme, la discorde, la violence, les dérives sectaires et les obscurantismes.

  1. La promotion des contenus issus d’entreprises, d’agences de presse et de services de communication audiovisuelle

À travers cette obligation, le législateur souhaite que les plateformes en ligne valorisent les contenus fiables.

La recommandation du 15 mai 2019 encourage à ce titre les opérateurs de plateforme en ligne à tenir compte des démarches de labellisation, notamment celles réalisées par les entreprises et agences de presse et les services de communication audiovisuelle et de déployer des moyens technologiques visant à mettre en avant les informations provenant de ces sources et en particulier les contenus dits de « fact-checking » dans les résultats des moteurs de recherche, les fils d’actualité et les autres canaux de diffusion opérant par classement automatisé.

Comme le relève l’ARCOM dans son bilan annuel pour l’année 2021, le module NewsGuard, en partenariat avec Bing, permet d’indiquer au moyen d’un code-couleur la fiabilité d’une source d’information, ce qui contribue à la bonne information des utilisateurs. Ce dispositif insérer directement sur le navigateur web permet aux internautes qui le souhaitent, de vérifier si un site d’information est fiable et crédible sur la base de neuf critères réunis dans une « étiquette » informative dite « étiquette nutritionnelle ».

  1. La lutte contre les comptes propageant massivement de fausses informations

Les plateformes doivent mettre en place des mesures pour détecter et signaler les comportements inauthentiques et les activités de manipulation automatisée des contenus (bots).

L’ARCOM recommande des procédures appropriées afin d’assurer la détection des comptes propageant massivement de fausses informations et destinées à faire obstacle à l’action de ces comptes (avertissement, suppression, mise en quarantaine, restrictions des droits de l’utilisateur ou de la portée des contenus qu’il diffuse, etc.) dans le respect de la liberté d’expression et de communication.

  1. L’information des utilisateurs sur la nature, l’origine, les modalités de diffusion des contenus et l’identité des personnes versant des rémunérations en contrepartie de la promotion de contenus d’information

Il s’agit encore une fois de déployer des dispositifs appropriés permettant aux utilisateurs d’être informés sur la nature, l’origine et les modalités de diffusion des contenus.

Plusieurs opérateurs ont mis en place des bibliothèques publicitaires permettant d’accéder à tout ou partie des contenus sponsorisés.

  1. Favoriser l’éducation aux médias et à l’information

Les opérateurs sont encouragés à sensibiliser les utilisateurs à l’influence de leurs propres contenus. Ils doivent contribuer à développer leur sens critique, particulièrement celui des plus jeunes.

À ce titre, l’ARCOM incite les plateformes à développer des outils adaptés d’analyse de la fiabilité des sources d’information, tels que des modules vidéo et des guides qui pourront aider les utilisateurs à identifier les sources fiables.

À titre d’exemple, il est possible de citer le programme « Be Internet Awesome » lancé en 2017 par Google. Il vise à éduquer les enfants de 9 à 14 ans aux rudiments de la citoyenneté à l’ère du numérique et à la sécurité en ligne afin qu’ils puissent « explorer le monde avec confiance ».

C. La coopération des opérateurs de plateformes en ligne avec l’ARCOM

Au-delà de ces obligations, les opérateurs de plateformes en ligne sont tenus de transmettre une déclaration annuelle à l’ARCOM et de désigner un interlocuteur référent.

  1. Les informations à transmettre à l’ARCOM

  1. Déclaration annuelle des opérateurs de plateforme en ligne

Conformément à l’article 11 de cette loi, les opérateurs de plateforme en ligne dépassant un seuil de connexion de 5 millions d’utilisateurs uniques par mois (moyenne annuelle), sont tenus de transmettre au Conseil supérieur de l’audiovisuel une déclaration annuelle faisant état des moyens déployés pour œuvrer à cette lutte.

Chaque année, l’ARCOM adresse un questionnaire aux opérateurs de plateformes en ligne. Ce questionnaire a pour objectifs d’accompagner les opérateurs dans la préparation de leur déclaration annuelle. Il est possible de visualiser l’ensemble des questionnaires directement depuis son site internet.

L’article 12 de la même loi confie à l’autorité le soin d’établir un bilan de l’application et de l’effectivité de ces mesures.

En 2022, douze opérateurs ont adressé une déclaration à l’autorité de régulation de la communication audiovisuelle et numérique (ARCOM). Parmi eux, Dailymotion, Google, LinkedIn, Meta, Microsoft, Pinterest, Snapchat, TikTok, Twitter, Webedia, la Fondation Wikimédia et Yahoo!.

  1. Désignation d’un interlocuteur référent

Au titre de l’article 13 de la loi du 22 décembre 2018, chaque opérateur de plateforme en ligne est tenu de désigner un représentant légal exerçant les fonctions d’interlocuteur référent sur le territoire français.

Dans sa recommandation du 15 mai 2019 aux opérateurs de plateforme en ligne dans le cadre du devoir de coopération en matière de lutte contre la diffusion de fausses informations, l’ARCOM invite chaque opérateur à lui faire connaître ce représentant par le biais d’un formulaire de déclaration disponible en ligne.

  1. Sanctions

En cas de manquement à ces obligations, les opérateurs de plateforme en ligne peuvent être sanctionnés par la CNIL (Commission nationale de l’informatique et des libertés) ou par le CSA (Conseil supérieur de l’audiovisuel). La CNIL est compétente pour sanctionner les manquements aux obligations en matière de protection des données personnelles, tandis que le CSA est compétent pour les manquements aux obligations en matière de diffusion de contenus audiovisuels.

Les sanctions peuvent inclure des amendes, des injonctions, des retraits de contenus, voire la suspension ou la fermeture de la plateforme en ligne en cas de récidive ou de manquements graves. La loi prévoit également que les utilisateurs puissent signaler les contenus qu’ils considèrent comme faux ou trompeurs aux opérateurs de plateforme en ligne et que ces derniers devront les examiner et les traiter dans un délai raisonnable.

III. La genèse de la désinformation et les risques

À une échelle plus large, la manipulation de l’information se répand dans différents domaines et ne se limite pas aux seules élections. La diffusion de fausses informations a pris ses quartiers sur les plateformes en ligne que nous utilisons quotidiennement, et pour lutter contre ce fléau, il apparaît essentiel de comprendre son origine et d’évaluer ses conséquences sur nos sociétés.

A. L’origine de la désinformation

La désinformation ne se limite pas aux « fake news », mais englobe toute information fausse, inexacte ou trompeuse qui est délibérément conçue, présentée et promue dans le but de causer un préjudice public ou de réaliser des gains financiers. Cependant, cela n’inclut pas les problèmes résultant de la création et de la diffusion en ligne de contenus illégaux, tels que la diffamation, les discours haineux ou l’incitation à la violence, qui sont réglementés par la législation européenne ou nationale, ni d’autres formes de déformation délibérée mais non trompeuse des faits.

En 2018, le scandale « Cambridge Analytica » avait permis de révéler comment l’entreprise britannique avait acquis les données personnelles de près de 87 millions d’utilisateurs de Facebook pour influencer les électeurs à « une échelle industrielle ». La société, qui vendait ses services dans une soixantaine d’États (en passant du régime iranien à la compagnie pétrolière nationale malaisienne) s’est à ce titre retrouvée accusée d’avoir manipulé de nombreuses élections. Elle a notamment contribué à la victoire de Donald Trump en 2016 aux États-Unis et au vote du Brexit en Angleterre. Lorsque l’affaire a fait la une des journaux, le nom de Cambridge Analytica est devenu synonyme de désinformation dans le monde entier.

En 2016, la Macédoine du Nord a été impliquée dans une affaire de désinformation liée aux élections présidentielles américaines. Des individus basés sur ce pays ont été créés et diffusés de fausses informations en ligne pour influencer l’opinion publique américaine et soutenir le candidat républicain Donald Trump en discréditant sa rivale, la candidate démocrate Hillary Clinton. Ces fausses nouvelles ont permis aux créateurs de sites web de générer des revenus publicitaires, certains gagnant jusqu’à 3 000 dollars par mois. Une véritable fortune dans un pays où le salaire moyen est de 409 euros. La différence avec le salaire moyen en France est de 82 %. : (https://www.etui.org/fr/themes/sante-et-securite-conditions-de-travail/hesamag/ou-va-le-travail-humain-a-l-ere-du-numerique/a-veles-a-la-rencontre-des-fabricants-de-fausses-nouvelles)

Cette affaire a suscité des inquiétudes quant à la capacité des groupes et des individus à utiliser la désinformation en ligne pour influencer les résultats des et l’opinion publique. Depuis, plusieurs mesures ont été prises pour lutter contre la désinformation en ligne, notamment en Macédoine du Nord et dans d’autres pays.

Malheureusement la diffusion de fausses informations n’a pas pris fin avec les élections puisque les fabricants de fausses nouvelles s’efforcent de trouver de nouvelles thématiques telles que la nutrition, les véhicules automobiles, la santé, afin de continuer à générer des revenus.

Plus récemment, le consortium de journalistes « Forbidden stories » a révélé les pratiques d’une société israélienne spécialisée dans la manipulation de l’information. En poursuivant le travail de Gauri Lankesh, journaliste indienne qui enquêtait sur la désinformation et « les usines à mensonges », assassinée en 2017. La reprise du projet « Story Killers » par Forbidden stories dévoile une industrie usant de toutes les armes à sa disposition pour manipuler les médias et l’opinion publique, aux dépens de l’information et de la démocratie.

Ce travail d’investigation mené par les journalistes a permis de démontrer l’implication de cette société dans la manipulation de trente-trois élections à travers le monde et revendique parmi elles vingt-sept « succès ». Son mode opératoire consistait en la propagation de fausses informations notamment par l’intermédiaire de faux profils ou de bots.

L’enquête révèle également le piratage des politiciens africains ainsi que la manipulation d’information sur une chaîne de télévision française : BFM TV.

Le présentateur Rachid M’Barki est accusé par sa hiérarchie d’avoir diffusé à l’antenne des contenus non validés avec des « soupçons d’ingérence » au service d’intérêts étrangers.

Les contenus problématiques identifiés portent sur des thèmes concernant des oligarques russes, le Qatar, le Soudan, le Sahara marocain et le Cameroun ont été présenté et fourni clés en main à la chaîne pour le compte de clients étrangers.

Ces affaires témoignent des risques que comprend la désinformation. Elle peut être utilisée pour manipuler l’opinion publique et influencer les résultats des élections, des référendums ou des votes en faveur d’un parti politique ou d’un candidat, mais pas seulement… C’est justement ce que tente de mettre en lumière le récent rapport Bronner « Les lumières à l’ère numérique ».

B. Les risques de la désinformation

De nos jours, il existe de nombreuses sources d’informations accessibles, allant des journaux traditionnels aux réseaux sociaux et aux blogs. Les médias sociaux en particulier ont modifié la manière dont les personnes obtiennent des informations. Les utilisateurs de ces plateformes peuvent accéder aux informations provenant du monde entier en temps réel et les partager facilement avec leur réseau. Cependant, cette facilité d’accès à l’information a également entraîné la propagation de la désinformation et des fausses nouvelles, rendant difficile la distinction entre les informations fiables et les informations trompeuses.

La désinformation est très préjudiciable et peut entraîner des conséquences sur les individus et la société en général, semant la confusion et créant des incertitudes dans l’esprit des personnes. Cela peut entraîner une perte de confiance dans les institutions et les sources d’informations fiables.

Les conséquences de la désinformation sont clairement visibles dans des événements récents, tels que l’attaque du Capitole en janvier 2021 ou la montée des mouvements antivaccins en France. La désinformation est donc une menace pour la sécurité des personnes et la souveraineté des États, contribuant également à la propagation des préjugés et des stéréotypes.

De plus, les fausses informations et les rumeurs peuvent causer des dommages à la réputation d’une personne, d’une entreprise ou d’une organisation. Il est donc crucial de vérifier l’exactitude des informations avant de les partager ou de prendre des décisions fondées sur celles-ci.

 

Pour lire un article plus complet sur la désinformation en ligne et les obligations des plateformes, cliquez

SOURCES :

Incitation au Dénigrement

Est-il possible d’être condamné pour incitation au dénigrement ?

Dans un jugement du 22 juin 2022, les juges ont indiqué que l’article 1240 du Code civil dispose que tout fait quelconque de l’homme, qui cause à autrui un dommage, oblige celui par la faute duquel il est arrivé à le réparer.

Pour faire supprimer un contenu qui bafoue vos droits, utilisez le service mis en place par le cabinet Murielle-Isabelle CAHEN.

Par un jugement du 25 mai 2023, le tribunal de commerce de Paris a condamné la société Gowork à verser respectivement aux sociétés Socateb et la Galerie de l’Échaudé la somme de 2 000 euros pour réparer leur préjudice moral au titre de l’incitation au dénigrement et du non-respect des obligations de transparence incombant aux plateformes de collecte d’avis.

Le tribunal a estimé que « la manière dont Gowork se rémunère, par le biais d’annonces non contrôlées et vérifiées associées à des publicités non ciblées, fait peser sur Socateb une charge, d’où un préjudice ».

La société Gowork exploite le site Gowork.fr sur lequel les internautes peuvent déposer des avis anonymes. Le 9 mars 2022, Socateb a fait établir un constat d’huissier relevant la présence sur ce site de fiches d’avis la concernant, ainsi que la Galerie de l’Échaudé car elle considère que ces fiches portent préjudice à sa communication et à son image, en raison de l’affichage d’avis anonymes non vérifiés, associés à des publicités contestables.


Besoin de l’aide d’un avocat pour un problème de diffamation ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien


Faute de n’avoir pas pu obtenir le retrait des contenus litigieux, elle a assigné Gowork en réparation de son préjudice.

Le tribunal juge que l’information fournie par Gowork sur le type d’avis qu’elle publie, sur leur nature non vérifiée, leur caractère anonyme, ne satisfait pas les conditions de l’article L 117-7-2 du code de la consommation qui impose aux plateformes d’avis une information loyale, claire et transparente sur les modalités de publication et de traitement des avis mis en ligne.

Sur le dénigrement allégué par Socateb, le tribunal relève que la consultation de la fiche d’une entreprise fait apparaître des avis et des publicités dont le caractère non pertinent voire « farfelu » est manifeste.

Cela oblige les entreprises comme Socateb, soucieuses de leur image, à exercer une surveillance constante du site pour y déceler les avis inappropriés, et les faire corriger ou en demander le retrait. Pour le tribunal, le préjudice ne vient pas de la mise en ligne des avis anonymes, dont Socateb peut demander la correction ou la suppression, mais de la nécessité pour elle d’éviter l’association à des publicités sans cohérence avec l’activité et l’image de l’entreprise, et qui ne peuvent que lui nuire.

Une incitation au dénigrement peut comporter plusieurs éléments constitutifs.

Il peut s’agir de la diffamation c’est-à-dire faire de fausses déclarations ou des allégations non prouvées qui nuisent à la réputation d’une personne ou d’une entité.

Les insultes ou propos diffamatoires visent à utiliser des mots offensants ou des propos méprisants pour discréditer quelqu’un ou une entité.

L’encouragement à la haine vise à inciter à la haine une personne ou un groupe en fonction de leur race, religion, origine ethnique, orientation sexuelle etc.

Les propos de rumeurs malveillantes peuvent être diffusés intentionnellement pour propager des informations fausses ou trompeuses dans le but de discréditer quelqu’un ou une entité.

Notons également le cyberharcèlement qui est l’utilisation des plateformes en ligne pour harceler, intimider ou diffamer une personne.

I. Distinction avec la diffamation

Il convient de distinguer le dénigrement de la diffamation.

Est définie comme une diffamation toute allégation ou imputation d’un fait qui porte atteinte à l’honneur ou à la considération d’une personne (Loi du 29-7-1881 art. 29). Ainsi, des propos critiques sur une société publiés dans un article de presse relèvent de la diffamation dès lors qu’ils visent la société elle-même et non ses services ou ses produits. L’action en diffamation est possible lorsque celle-ci a visé une personne physique ou morale. Des propos qui atteignent une profession considérée dans son ensemble ne peuvent donc pas être qualifiés de diffamatoires.

Il n’y a pas diffamation lorsque ce sont uniquement des produits ou services qui sont en cause.

Dans un cas où un article de presse s’était livré à une critique sévère de produits pharmaceutiques, il a été jugé qu’il y avait dénigrement et non diffamation. Jugé de même à propos de commentaires négatifs, publiés sur un réseau social, faisant état de l’incompétence des moniteurs d’une auto-école, d’un défaut de pédagogie et d’une recherche de profit au détriment des besoins et de l’intérêt des clients, car ces propos ne portaient pas atteinte à l’honneur ou à la considération de l’exploitant de l’auto-école, mais mettaient en cause la qualité des services proposés dans le but d’inciter une partie de la clientèle à s’en détourner (TGI Nanterre 21-11-2019 :  RJDA 10/20 n° 540).

De même, des propos malveillants tenus à l’encontre du gérant d’une société dont l’activité était concurrente ont été jugés constitutifs d’un dénigrement et non d’une diffamation, car ces propos n’avaient pour objet que de mettre en cause la qualité des prestations fournies par cette société et de détourner sa clientèle, au cas particulier, il avait été soutenu que le gérant d’une société exerçant une activité de prestataire de services auprès des professionnels de l’immobilier établissait de faux certificats et rapports).

Jugé également que les propos tenus par une société à l’encontre d’un de ses concurrents étaient constitutifs de dénigrement dès lors qu’ils portaient sur la façon dont les services étaient rendus par ce concurrent, la qualité de ses produits et services, les pratiques prétendument illicites qu’il mettait en œuvre et les diverses collusions que lui imputait cette société.

De même encore, jugé que le fait, pour une entreprise en relation d’affaires avec une autre, d’avoir divulgué aux clients de celle-ci les difficultés de paiement qu’elle rencontrait avec elle et d’avoir laissé entendre que, par la faute de cette entreprise, les prestations dues aux clients ne seraient pas exécutées, était constitutif de dénigrement et non de diffamation, car cette communication jetait le discrédit sur les services rendus par l’entreprise.

En revanche, lorsque la critique de produits ou services contient des imputations diffamatoires, c’est l’action en diffamation qui doit être exercée.

II. Exactitude des allégations

Des allégations peuvent être constitutives d’un dénigrement même si l’information est de notoriété publique. Peu importe également que celle-ci soit ou non exacte. Il a ainsi été jugé que constitue un acte de dénigrement la diffusion d’une brochure critiquant le produit d’un concurrent même si le procédé de fabrication a été remis en question ultérieurement par celui-ci.

La Cour de cassation a récemment apporté un bémol à cette solution : lorsque les informations divulguées en termes mesurés se rapportent à un sujet d’intérêt général, il n’y a pas dénigrement si elles reposent sur une base factuelle suffisante.

III. Diffusion des allégations dans le public

Pour constituer un dénigrement, il faut que la critique malveillante soit diffusée dans le public. Il n’est pas nécessaire que cette diffusion présente une certaine ampleur. Par exemple, sont répréhensibles les propos tenus par un dirigeant à l’égard d’une autre société et figurant dans le rapport de gestion déposé au registre du commerce, compte tenu de la violence des termes employés et de la publicité, si réduite soit-elle, dont bénéficie ce rapport. Constitue également un dénigrement le fait d’adresser, sous couvert de demande de renseignements, des informations malveillantes à un seul client du concurrent.

En revanche, ne constitue pas un dénigrement fautif des propos diffusés dans un document à usage interne, par exemple un bulletin destiné exclusivement aux services commerciaux d’une entreprise (CA Paris 21-1-1959 n° 2635, 4e ch. : JCP G 1959 II n° 11334 note A. Chavanne) ou une lettre circulaire adressée par une entreprise à son réseau de distributeurs (CA Paris 3-7-1991 : RJDA 10/91 n° 863).

Mais il peut y avoir abus de langage : des « notes internes » peuvent en fait avoir pour objet la diffusion à l’extérieur des informations qu’elles contiennent ; elles sont alors constitutives de concurrence déloyale. Il en a été jugé ainsi dans un cas où les destinataires d’une note interne avaient été invités à en répercuter le contenu auprès de la clientèle, consigne qui avait été respectée.

En cas d’élaboration de documents commerciaux internes, il convient donc d’attirer clairement l’attention des utilisateurs sur la stricte confidentialité de ces documents.

En définitive, l’infraction de diffamation suppose l’imputation de faits précis caractérisant une atteinte à l’honneur, à la réputation d’une personne, conformément à l’article 29 de la loi du 29 juillet 1881. Quant au dénigrement, il consiste à jeter le discrédit sur un concurrent en critiquant ses produits ou sa personnalité, afin de détourner sa clientèle. Il constitue un acte de concurrence déloyale. Compte tenu de ces définitions, si des commentaires ne se réfèrent pas à une personne en particulier, qu’il s’agisse d’une personne physique ou morale, ils demeureront non punissables du chef de diffamation.

A cet égard, la Cour de cassation a toujours considéré que lorsque les critiques portent sur des produits ou des services sans concerner une personne, aucune action en diffamation ne peut être retenue, l’action en dénigrement pouvant, à l’inverse, être recevable (Civ. 2e, 5 juill. 2000, Bull. civ. II, n° 109 ; D. 2000. AJ. 359, obs. A. Marmontel ; 8 avr. 2004, Bull. civ. II, n° 182). La différenciation de ces deux actions est alors simple. Elle devient, par contre, plus difficile lorsque les propos sont apparemment diffamatoires et, dans le même temps, créent un dénigrement. Telle était la situation soumise à la Cour de cassation dans l’arrêt rendu par la première Chambre civile le 5 décembre 2006 (Civ. 1re, 5 déc. 2006, Bull. civ. I, n° 532 ; D. 2007. AJ. 17 ; CCC, févr. 2007, Comm. n° 54, note Malaurie-Vignal).

IV. Plateforme d’avis, Dénigrement et avis en ligne

Les avis en ligne sont des opinions ou des évaluations exprimées par les utilisateurs sur des produits, des services, des entreprises ou d’autres aspects de la vie quotidienne. Ils peuvent être pratiqués sur des plateformes dédiées telles que les sites d’évaluations, les forums, les réseaux sociaux, les blogs, etc.

Les avis en ligne peuvent avoir plusieurs éléments constitutifs, tels que :

  • L’expérience personnelle : les avis en ligne sont généralement basés sur l’expérience personnelle de l’auteur. Ils peuvent partager ce qu’ils ont aimé ou n’ont pas aimé à propos d’un produit ou d’un service ;
  • L’évaluation : les avis peuvent contenir une évaluation ou une note pour refléter la satisfaction globale de l’auteur à l’égard de ce qui est évalué ;
  • Commentaires détaillés : certains avis peuvent inclure des commentaires détaillés expliquant les raisons de l’évaluation donnée, les aspects positifs ou négatifs spécifiques, ou fournissant des informations supplémentaires sur l’expérience vécue ;
  • L’objectivité : les avis peuvent varier en termes d’objectivité. Certains peuvent être basés sur des faits et des preuves tangibles, tandis que d’autres peuvent être plus subjectifs, reflétant les opinions personnelles de l’auteur ;

Il est important de noter que tous les avis en ligne ne sont pas nécessairement fiables ou représentatifs de manière objective. Il est conseillé de consulter plusieurs sources et de prendre en compte différents points de vue avant de se faire une opinion éclairée.

Par ailleurs, il est à noter que tous les avis ne sont pas émis de bonne foi. C’est le cas des avis en ligne désobligeants qui sont des commentaires négatifs ou critiques souvent publiés sur des plateformes d’évaluation ou de notation. Ces avis peuvent être subjectifs et ne pas refléter l’opinion générale. Il est important de garder à l’esprit que chaque personne a ses propres expériences et opinions. Lorsque vous lisez des avis en ligne, il peut être utile de prendre en compte plusieurs sources et de considérer l’ensemble des opinions avant de tirer des conclusions.

Les éléments constitutifs des avis désobligeants en ligne peuvent être de plusieurs ordres :

  • Les critiques négatives : les avis désobligeants comportent généralement des critiques négatives sur un produit, un service, un établissement ou une expérience spécifique ;
  • Un ton négatif : le ton utilisé dans ces avis est souvent hostile, agressif ou méprisant, exprimant ainsi un fort mécontentement ou une frustration ;
  • L’émotion subjective : les avis désobligeants peuvent être fortement influencés par les émotions personnelles de l’auteur, ce qui peut parfois conduire à des jugements exagérés ou injustes ;
  • Le manque d’objectivité : les avis en ligne désobligeants peuvent manquer d’objectivité et ne pas tenir compte des différentes perspectives ou des circonstances individuelles ;
  • Exagérations ou généralisations : certains avis désobligeants peuvent contenir des exagérations ou des généralisations, amplifiant ainsi les aspects négatifs sans tenir compte des aspects positifs.

Il est important de noter que tous les avis en ligne ne sont pas désobligeants, et qu’il est essentiel de prendre du recul et d’évaluer de manière critique les informations disponibles avant de se faire une opinion définitive.

Dans l’hypothèse où une mise en demeure restera infructueuse, celui-ci aura le choix des armes parmi lesquelles :

  • action en référé à l’encontre de Google aux fins de suppression d’avis. Dans l’hypothèse où des avis Google seraient susceptibles d’être qualifiés d’illicites, le professionnel pourra agir en référé contre la firme américaine aux fins de suppression de contenus sur le fondement de l’article 6-I-8 de la loi du 21 juin 2004, en prenant garde toutefois aux dispositions de la loi du 29 juillet 1881 s’il ressort que l’action est fondée aussi sur ce texte, au risque sinon de voir prononcer la nullité de l’assignation faute de respect des règles procédurales strictes prévues dans ses articles 53 et 65 spécialement (TGI Paris, réf., 29 juin 2018, n° 18/51423. – CA Paris, 22 mars 2019, n° 18/17204, préc.).Une solution conforme en cela à ce qui a pu déjà être retenu en matière de demande de déréférencement, dès lors qu’il est sollicité du juge qu’il se prononce sur l’existence d’un délit de presse afin d’obtenir le retrait du lien. Ceci étant, la démonstration du seul caractère manifestement illicite du propos en cause devrait être suffisante pour motiver un retrait d’avis Google, étant précisé qu’une provision sur dommages-intérêts pourra également être allouée s’il ressort que l’exploitant du moteur de recherche avait été préalablement notifié afin de supprimer le contenu conformément à l’article 6-I-5 de la loi du 21 juin 2004 et qu’il a tardé à le faire (TGI Paris, réf., 11 juill. 2019, n° 19/54734, préc.) ;
  • action en référé ou au fond à l’encontre de l’internaute aux fins de suppression d’avis et d’obtention d’une indemnité. – Le requérant dispose de la possibilité d’agir « sur le fondement de la loi du 29 juillet 1881 ou du dénigrement en application de l’article 1240 du Code civil, contre les internautes qui porteraient atteinte à son honneur ou à sa réputation ou qui publieraient une critique excessive et fautive de ses services » (TGI Paris, réf., 12 avr. 2019, préc.).Une telle action devra selon les cas nécessiter au préalable qu’un juge fasse droit à la demande de levée d’anonymat de l’auteur en requérant la communication des éléments d’identification auprès de l’exploitant du moteur de recherche sur le fondement de l’article 6-II de la loi du 21 juin 2004, une fois caractérisée l’existence du « motif légitime », au sens de l’article 145 du Code de procédure civile, que constitue la volonté d’engager une procédure pour l’indemnisation du préjudice subi (TGI Paris, réf., 11 juill. 2019, n° 19/54734, préc.). À titre d’exemple, un internaute fut condamné à payer 1800 euros à un notaire à cause d’un avis injurieux sur Google.
  • plainte avec constitution de partie civile. – Une plainte avec constitution de partie civile en matière de diffamation ou d’injure s’il y a lieu permettra de sécuriser l’action en présence d’un auteur d’avis anonyme, ceci afin de ne pas risquer le jeu de la prescription trimestrielle.

Pour lire une version plus complète de cet article sur l’incitation au dénigrement, cliquez

Sources :

 

Intelligence artificielle et droit d’auteur : un défi juridique à l’ère de la créativité automatisée

L’intelligence artificielle (IA) est en train de révolutionner de nombreux domaines, y compris celui de la créativité. Les algorithmes d’IA sont capables de générer des œuvres artistiques, de composer de la musique, d’écrire des articles et même de produire des films. Cependant, cette nouvelle ère de créativité automatisée soulève des questions juridiques complexes, en particulier en ce qui concerne le droit d’auteur.

NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire et un avocat enverra une lettre de mise en demeure !

L’œuvre créée par une IA est-elle protégée par le droit d’auteur ? L’une des principales questions qui se pose est de savoir si une œuvre créée entièrement par une IA peut bénéficier de la protection du droit d’auteur. Traditionnellement, le droit d’auteur est accordé à l’auteur humain qui a créé l’œuvre originale. Cependant, dans le cas d’une œuvre générée par une IA, l’absence d’une intervention humaine directe pose un défi pour déterminer la paternité de l’œuvre. Certains arguments soutiennent que l’IA elle-même pourrait être considérée comme l’auteur de l’œuvre. Après tout, c’est l’algorithme d’IA qui a généré l’œuvre en utilisant des données et des instructions préexistantes. Cependant, cela remettrait en question les fondements du droit d’auteur, qui a traditionnellement accordé la protection aux créations humaines.

Outre la question de la paternité, se pose également la question de la responsabilité et de la propriété de l’œuvre générée par une IA. Si une œuvre créée par une IA enfreint les droits d’auteur d’une autre personne, qui est responsable de cette violation ? Est-ce le développeur de l’algorithme, l’utilisateur de l’IA, ou l’IA elle-même ? De plus, la question de la propriété de l’œuvre se pose également. Si une entreprise utilise une IA pour générer une œuvre, est-ce que l’entreprise possède automatiquement les droits d’auteur sur cette œuvre, ou est-ce que ces droits appartiennent à l’IA ou au développeur de l’algorithme ?


Besoin de l’aide d’un avocat pour un problème de contrefaçon ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien


Face à ces défis, il est de plus en plus nécessaire d’adapter le droit d’auteur pour prendre en compte l’IA. Certains experts juridiques proposent de reconnaître légalement l’IA comme un auteur et de lui accorder des droits d’auteur spécifiques. Cela permettrait de concilier la créativité de l’IA avec les principes fondamentaux du droit d’auteur. D’autres proposent de revoir les critères d’attribution des droits d’auteur en intégrant la notion d’intervention humaine significative. Ainsi, si un auteur humain a contribué de manière substantielle à la création de l’œuvre générée par une IA, il pourrait être considéré comme l’auteur principal et bénéficier de la protection du droit d’auteur.

I – la protection du droit d’auteur appliquée aux œuvres générées à partir d’une intelligence artificielle

A – les limites invoquées à l’application du droit d’auteur

  1. L’auteur, personne physique

Traditionnellement, le droit d’auteur français protège l’auteur d’une « œuvre de l’esprit ». Les dispositions de l’article L. 112-1 du CPI prévoient en ce sens que : « Les dispositions du présent Code protègent les droits des auteurs sur toutes les œuvres de l’esprit, quels qu’en soient le genre, la forme d’expression, le mérite ou la destination. »

Dès lors, comment concevoir qu’une œuvre générée par une IA, c’est-à-dire à partir d’un ou plusieurs algorithmes, soit considérée comme une « œuvre de l’esprit » et protégée en tant que telle par le droit d’auteur ?

En effet, la jurisprudence admet que l’auteur d’une œuvre de l’esprit ne peut être qu’une personne physique, et la Cour de cassation juge à cet égard qu’une personne morale ne peut avoir la qualité d’auteur.

Dès lors, si le collectif Obvious à l’origine du Port rait de Belamy signe le tableau avec la formule de l’algorithme, il ne s’agit là bien entendu que d’un clin d’œil dans la mesure où, à ce jour, aucune personnalité juridique n’est reconnue à une IA qui ne peut dès lors se voir reconnaître la titularité des droits d’auteur.

L’idée d’une personnalité juridique propre aux robots a bien été promue, notamment et de façon étonnante par le Parlement européen dans une résolution du 16 février 2017, ce qui a donné lieu à de nombreuses critiques, en partie reprises par les auteurs du récent rapport pour qui cette option serait « largement impraticable » (cf. rapport p. 36).

  1. La condition de l’originalité

Par construction jurisprudentielle, la protection par le droit d’auteur suppose que la création soit originale. Cette condition ne ressort pas des dispositions du Code de la propriété intellectuelle, qui ne s’y réfère pas, sauf pour protéger le titre des œuvres (cf. article L. 112-4). L’originalité est ainsi appréciée par les juges, au cas par cas, comme l’expression, l’empreinte ou le reflet de la personnalité de l’auteur.

Cette conception impliquant de nouveau une intervention humaine, il apparaît difficile de qualifier d’originale une œuvre générée par une IA : comment celle-ci pourrait-elle, en effet, matérialiser le reflet de la personnalité de son auteur s’il s’agit d’une machine ? Du moins tant que les machines ne seront pas douées de conscience ou d’esprit et qu’une personnalité juridique ne leur sera pas reconnue…

Ces difficultés résultent d’une conception traditionnelle et classique du droit d’auteur français qui ne conçoit la création que comme l’apanage de l’humain et qui place toujours l’auteur, personne physique, au centre de la protection.

Toutefois, comme le relève un récent rapport déposé auprès du CSPLA le 27 janvier 2020, les difficultés ainsi soulevées ne devraient pas être « insurmontables ». Ainsi, sans remettre en cause le lien entre l’auteur et son œuvre qui fonde notre droit d’auteur, ce droit « semble suffisamment souple pour recevoir ces créations » et « l’attribution des droits au concepteur de l’IA semble de nature à apporter des solutions pertinentes ».

B – les solutions offertes par l’application du droit d’auteur

  1. Le rapport « Intelligence artificielle et culture »

Le 25 avril 2018, la Commission européenne, dans sa communication « Une intelligence artificielle pour l’Europe », a invité les États membres à réfléchir aux conséquences de l’intelligence artificielle sur la propriété intellectuelle. Dans ce contexte, le Conseil supérieur de la propriété littéraire et artistique (CSPLA) a confié aux professeures Alexandra Bensamoun et Joelle Farchy une mission sur les enjeux juridiques et économiques de l’intelligence artificielle dans les secteurs de la création culturelle, qui a donné lieu au dépôt, le 27 janvier 2020, d’un rapport intitulé « Intelligence artificielle et culture ».

Selon les auteures de ce rapport, il importe de rappeler en premier lieu que le droit d’auteur et sa mise en œuvre ne peuvent se passer de la présence humaine. Toutefois « une analyse renouvelée des conditions d’accès à la protection (création, originalité, auteur) pourrait permettre de recevoir ces réalisations culturelles au sein du droit d’auteur ».

  1. Quelle solution ?

Ledit rapport écarte ainsi dans ses conclusions toute intervention législative, en retenant qu’il importe d’abord « d’éprouver le droit positif et d’être prêt à intervenir si un éventuel besoin de régulation se révélait à l’avenir » alors que « le droit positif devrait pour l’heure pouvoir être appliqué, dans une lecture renouvelée des critères d’accès à la protection ».

Avec prudence, il est toutefois rappelé qu’il ne peut être exclu, compte tenu de la technique en constant développement, que « l’outil [de l’intelligence artificielle] gagne en autonomie, en réduisant le rôle de l’humain ».

Il ne faut donc pas complètement exclure qu’à l’avenir, une intervention du législateur soit rendue nécessaire et « une voie intéressante pourrait alors être, au vu des différentes positions et analyses, celle de la création d’un droit spécial du droit d’auteur ».

C’est alors le régime appliqué au logiciel ou celui appliqué à l’œuvre collective qui pourrait, selon les auteures du rapport « Intelligence artificielle et culture » déposé au CSPLA, servir de modèle à la création d’un droit spécial, notamment en adaptant les articles L. 113-2 et L. 113-5 du CPI pour y intégrer les créations générées par une IA.

En effet, selon le Code de la propriété intellectuelle, « la qualité d’auteur appartient, sauf preuve contraire, à celui ou à ceux sous le nom de qui l’œuvre est divulguée » (article L. 113-1 du CPI).

Ainsi, dans le cas de l’œuvre collective créée à l’initiative d’une personne physique ou morale qui la divulgue et dans laquelle la contribution de chaque auteur y ayant participé se fond dans un ensemble sans qu’il soit possible d’identifier la contribution de chacun (cf. article L. 113-2 du CPI), il est prévu par l’article L. 113-5 du CPI que cette œuvre « est, sauf preuve contraire, la propriété de la personne physique ou morale sous le nom de laquelle elle est divulguée. Cette personne est investie des droits de l’auteur ».

Il est donc admis qu’une personne morale, si elle ne peut pas être l’auteur d’une œuvre de l’esprit, peut en revanche être titulaire des droits d’auteur existant sur cette œuvre.

L’arsenal juridique de l’œuvre collective et du logiciel semble donc offrir des pistes de solutions intéressantes.

La matière étant, à l’évidence, en constante évolution, la prudence semble de mise, étant rappelé que toute issue législative devra naturellement « s’opérer dans un cadre international, a minima européen ».

II- Une protection alternative adaptée aux créations de l’intelligence artificielle

A – L’adaptation du droit d’auteur à l’intelligence artificielle

Si l’œuvre est considérée comme protégée par le droit d’auteur, la question de la paternité de l’œuvre est centrale. Certaines législations étrangères comme Hong Kong, l’Inde, l’Irlande, la Nouvelle-Zélande ou le Royaume-Uni, ont choisi d’attribuer cette paternité au concepteur du programme.

En France, le Conseil supérieur de la propriété littéraire et artistique (CSPLA) recommande, dans son rapport intitulé « Mission Intelligence artificielle et Culture » du 27 janvier 2020, de s’inspirer des mécanismes existants en droit d’auteur.

Une première piste résiderait dans l’aménagement de la notion d’originalité afin de qualifier la création de l’intelligence artificielle en œuvre de l’esprit, comme ce fut le cas pour le logiciel, où l’empreinte de la personnalité de l’auteur a été remplacée par l’apport intellectuel de son créateur.

S’agissant de la titularité, « la désignation du concepteur de l’intelligence artificielle apparaît comme la solution la plus respectueuse du droit d’auteur » selon le rapport du CSPLA. Une autre possibilité serait d’appliquer les règles de l’accession par production de l’article 546 du Code civil pour permettre au propriétaire de l’intelligence artificielle d’acquérir les accessoires que produit sa chose (les œuvres étant les fruits de l’intelligence artificielle).

Cependant, cela ne signifie nullement que la titularité des droits revienne toujours à la personne physique. En effet, l’instigateur de la technologie pourrait être récompensé sur le modèle de l’œuvre collective qui, selon l’article L. 113-2, alinéa 3, du CPI, est « une œuvre crée sur l’initiative d’une personne physique ou morale qui l’édite, la publie et la divulgue sous sa direction et en son nom ».

Par ailleurs, un droit spécifique, sorte de droit voisin, pourrait être créé pour attribuer des prérogatives patrimoniales à celui qui communique l’œuvre au public. La disposition serait alors intégrée à l’article L. 123-4 du CPI, in fine, en ces termes : « Celui qui prend les dispositions nécessaires en termes d’investissement pour communiquer au public une création de formes générées par une intelligence artificielle et assimilable à une œuvre de l’esprit jouit d’un droit d’exploitation d’une durée de X années à compter de la communication ».

Pour permettre plus de souplesse, le CSPLA suggère de privilégier les solutions contractuelles en ajoutant en début de disposition « sauf stipulations contraires ».

Derrière l’identification du titulaire des créations, se pose également la question cruciale de la responsabilité en cas de dommages provoqués par l’intelligence artificielle. En effet, la proposition de règlement de la Commission européenne du 21 avril 2021 place le fournisseur d’un système d’intelligence artificielle comme acteur central.

Il est défini comme la personne physique ou morale, l’agence ou tout autre organisme qui développe ou possède un système d’intelligence artificielle, sous son propre nom ou sa propre marque, à titre onéreux ou gratuit. Cette désignation simplifiée du responsable n’est d’ailleurs pas sans rappeler la responsabilité du producteur du fait d’un produit défectueux puisqu’est également désignée comme producteur la « personne qui se présente comme producteur en apposant sur le produit son nom, sa marque ou un autre signe distinctif ».

B – Les modes alternatifs de protection des créations de l’intelligence artificielle

Au-delà du droit  d’auteur , le Parlement européen recommande de privilégier une évaluation sectorielle et par type des implications des technologies de l’intelligence artificielle en prenant notamment en compte « le degré d’intervention humaine, l’autonomie de l’IA , l’importance du rôle et de la source des données et des contenus protégés par le droit  d’auteur  utilisés, ainsi que l’éventuelle intervention d’autres facteurs ; rappelle que toute démarche doit trouver le juste équilibre entre la nécessité de protéger les investissements en ressources et en efforts et celle d’encourager la création et le partage ».

Pour sa part, le CSPLA suggère de s’inspirer du droit accordé au producteur de bases de données en introduisant un droit sui generis visant à protéger les efforts financiers, humains ou matériels des intervenants au processus créatif développé par l’intelligence artificielle.

Appliqué à l’intelligence artificielle, ce droit sui generis permettrait un retour sur investissement, déjouant ainsi les tentatives d’appropriation de valeur et encourageant du même coup l’investissement dans le domaine de l’intelligence artificielle.

La proposition pourrait être intégrée dans la première partie du code de la propriété intellectuelle, à la suite du droit des bases de données : « Le producteur d’une intelligence artificielle permettant la génération de créations assimilables à des œuvres de l’esprit bénéficie d’une protection sur ces créations lorsque celles-ci résultent d’un investissement financier, matériel ou humain substantiel ».

En tout état de cause, d’autres modes de protection existent.

Ainsi, le programmateur de la technologie peut se faire rémunérer en concédant une licence d’utilisation de son logiciel. De plus, la directive n° 2016/943 du 8 juin 2016 sur le secret des affaires, transposée à l’article L. 151-1 du CPI, permet au concepteur de s’opposer à la divulgation illicite du savoir-faire technologique et l’appropriation de son investissement.

Enfin, une action sera toujours possible sur le fondement du droit commun de la responsabilité civile extracontractuelle contre les actes de concurrence déloyale ou les agissements parasitaires.

L’intelligence artificielle pose des défis juridiques complexes en matière de droit d’auteur. La détermination de la paternité, de la responsabilité et de la propriété des œuvres créées par une IA nécessite une réflexion approfondie et une adaptation du cadre juridique existant. Il est essentiel que les législateurs, les experts juridiques et les acteurs de l’industrie travaillent ensemble pour trouver des solutions équilibrées qui permettent de protéger les droits des créateurs tout en favorisant l’innovation dans le domaine de l’IA.

Pour lire une version plus complète de cet article sur l’intelligence artificielle et le droit d’auteur, cliquez

Sources :

Cour de cassation, civile, Chambre civile 1, 15 janvier 2015, 13-23.566, Publié au bulletin – Légifrance (legifrance.gouv.fr)

Cour de cassation, Assemblée Plénière, du 7 mars 1986, 83-10.477, Publié au bulletin – Légifrance (legifrance.gouv.fr)

Incitation au Dénigrement

Est-ce que l’incitation au dénigrement est punissable ?

Dans un jugement du 22 juin 2022, les juges ont indiqué que l’article 1240 du Code civil dispose que tout fait quelconque de l’homme, qui cause à autrui un dommage, oblige celui par la faute duquel il est arrivé à le réparer.

NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire !

Par un jugement du 25 mai 2023, le tribunal de commerce de Paris a condamné la société Gowork à verser respectivement aux sociétés Socateb et la Galerie de l’Échaudé la somme de 2 000 euros pour réparer leur préjudice moral au titre de l’incitation au dénigrement et du non-respect des obligations de transparence incombant aux plateformes de collecte d’avis.

Le tribunal a estimé que « la manière dont Gowork se rémunère, par le biais d’annonces non contrôlées et vérifiées associées à des publicités non ciblées, fait peser sur Socateb une charge, d’où un préjudice ».

La société Gowork exploite le site Gowork.fr sur lequel les internautes peuvent déposer des avis anonymes. Le 9 mars 2022, Socateb a fait établir un constat d’huissier relevant la présence sur ce site de fiches d’avis la concernant, ainsi que la Galerie de l’Échaudé car elle considère que ces fiches portent préjudice à sa communication et à son image, en raison de l’affichage d’avis anonymes non vérifiés, associés à des publicités contestables.

Faute de n’avoir pas pu obtenir le retrait des contenus litigieux, elle a assigné Gowork en réparation de son préjudice.


Besoin de l’aide d’un avocat pour un problème de contrefaçon ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien


Le tribunal juge que l’information fournie par Gowork sur le type d’avis qu’elle publie, sur leur nature non vérifiée, leur caractère anonyme, ne satisfait pas les conditions de l’article L 117-7-2 du code de la consommation qui impose aux plateformes d’avis une information loyale, claire et transparente sur les modalités de publication et de traitement des avis mis en ligne.

Sur le dénigrement allégué par Socateb, le tribunal relève que la consultation de la fiche d’une entreprise fait apparaître des avis et des publicités dont le caractère non pertinent voire « farfelu » est manifeste.

Cela oblige les entreprises comme Socateb, soucieuses de leur image, à exercer une surveillance constante du site pour y déceler les avis inappropriés, et les faire corriger ou en demander le retrait. Pour le tribunal, le préjudice ne vient pas de la mise en ligne des avis anonymes, dont Socateb peut demander la correction ou la suppression, mais de la nécessité pour elle d’éviter l’association à des publicités sans cohérence avec l’activité et l’image de l’entreprise, et qui ne peuvent que lui nuire.

Une incitation au dénigrement peut comporter plusieurs éléments constitutifs.

Il peut s’agir de la diffamation c’est-à-dire faire de fausses déclarations ou des allégations non prouvées qui nuisent à la réputation d’une personne ou d’une entité.

Les insultes ou propos diffamatoires visent à utiliser des mots offensants ou des propos méprisants pour discréditer quelqu’un ou une entité.

L’encouragement à la haine vise à inciter à la haine une personne ou un groupe en fonction de leur race, religion, origine ethnique, orientation sexuelle etc.

Les propos de rumeurs malveillantes peuvent être diffusés intentionnellement pour propager des informations fausses ou trompeuses dans le but de discréditer quelqu’un ou une entité.

Notons également le cyberharcèlement qui est l’utilisation des plateformes en ligne pour harceler, intimider ou diffamer une personne.

I. Distinction avec la diffamation

Il convient de distinguer le dénigrement de la diffamation.

Est définie comme une diffamation toute allégation ou imputation d’un fait qui porte atteinte à l’honneur ou à la considération d’une personne (Loi du 29-7-1881 art. 29). Ainsi, des propos critiques sur une société publiés dans un article de presse relèvent de la diffamation dès lors qu’ils visent la société elle-même et non ses services ou ses produits. L’action en diffamation est possible lorsque celle-ci a visé une personne physique ou morale. Des propos qui atteignent une profession considérée dans son ensemble ne peuvent donc pas être qualifiés de diffamatoires.

Il n’y a pas diffamation lorsque ce sont uniquement des produits ou services qui sont en cause.

Dans un cas où un article de presse s’était livré à une critique sévère de produits pharmaceutiques, il a été jugé qu’il y avait dénigrement et non diffamation. Jugé de même à propos de commentaires négatifs, publiés sur un réseau social, faisant état de l’incompétence des moniteurs d’une auto-école, d’un défaut de pédagogie et d’une recherche de profit au détriment des besoins et de l’intérêt des clients, car ces propos ne portaient pas atteinte à l’honneur ou à la considération de l’exploitant de l’auto-école, mais mettaient en cause la qualité des services proposés dans le but d’inciter une partie de la clientèle à s’en détourner (TGI Nanterre 21-11-2019 :  RJDA 10/20 n° 540).

De même, des propos malveillants tenus à l’encontre du gérant d’une société dont l’activité était concurrente ont été jugés constitutifs d’un dénigrement et non d’une diffamation, car ces propos n’avaient pour objet que de mettre en cause la qualité des prestations fournies par cette société et de détourner sa clientèle, au cas particulier, il avait été soutenu que le gérant d’une société exerçant une activité de prestataire de services auprès des professionnels de l’immobilier établissait de faux certificats et rapports).

Jugé également que les propos tenus par une société à l’encontre d’un de ses concurrents étaient constitutifs de dénigrement dès lors qu’ils portaient sur la façon dont les services étaient rendus par ce concurrent, la qualité de ses produits et services, les pratiques prétendument illicites qu’il mettait en œuvre et les diverses collusions que lui imputait cette société.

De même encore, jugé que le fait, pour une entreprise en relation d’affaires avec une autre, d’avoir divulgué aux clients de celle-ci les difficultés de paiement qu’elle rencontrait avec elle et d’avoir laissé entendre que, par la faute de cette entreprise, les prestations dues aux clients ne seraient pas exécutées, était constitutif de dénigrement et non de diffamation, car cette communication jetait le discrédit sur les services rendus par l’entreprise.

En revanche, lorsque la critique de produits ou services contient des imputations diffamatoires, c’est l’action en diffamation qui doit être exercée.

II. Exactitude des allégations

Des allégations peuvent être constitutives d’un dénigrement même si l’information est de notoriété publique. Peu importe également que celle-ci soit ou non exacte. Il a ainsi été jugé que constitue un acte de dénigrement la diffusion d’une brochure critiquant le produit d’un concurrent même si le procédé de fabrication a été remis en question ultérieurement par celui-ci.

La Cour de cassation a récemment apporté un bémol à cette solution : lorsque les informations divulguées en termes mesurés se rapportent à un sujet d’intérêt général, il n’y a pas dénigrement si elles reposent sur une base factuelle suffisante.

III. Diffusion des allégations dans le public

Pour constituer un dénigrement, il faut que la critique malveillante soit diffusée dans le public. Il n’est pas nécessaire que cette diffusion présente une certaine ampleur. Par exemple, sont répréhensibles les propos tenus par un dirigeant à l’égard d’une autre société et figurant dans le rapport de gestion déposé au registre du commerce, compte tenu de la violence des termes employés et de la publicité, si réduite soit-elle, dont bénéficie ce rapport. Constitue également un dénigrement le fait d’adresser, sous couvert de demande de renseignements, des informations malveillantes à un seul client du concurrent.

En revanche, ne constitue pas un dénigrement fautif des propos diffusés dans un document à usage interne, par exemple un bulletin destiné exclusivement aux services commerciaux d’une entreprise (CA Paris 21-1-1959 n° 2635, 4e ch. : JCP G 1959 II n° 11334 note A. Chavanne) ou une lettre circulaire adressée par une entreprise à son réseau de distributeurs (CA Paris 3-7-1991 : RJDA 10/91 n° 863).

Mais il peut y avoir abus de langage : des « notes internes » peuvent en fait avoir pour objet la diffusion à l’extérieur des informations qu’elles contiennent ; elles sont alors constitutives de concurrence déloyale. Il en a été jugé ainsi dans un cas où les destinataires d’une note interne avaient été invités à en répercuter le contenu auprès de la clientèle, consigne qui avait été respectée.

En cas d’élaboration de documents commerciaux internes, il convient donc d’attirer clairement l’attention des utilisateurs sur la stricte confidentialité de ces documents.

En définitive, l’infraction de diffamation suppose l’imputation de faits précis caractérisant une atteinte à l’honneur, à la réputation d’une personne, conformément à l’article 29 de la loi du 29 juillet 1881. Quant au dénigrement, il consiste à jeter le discrédit sur un concurrent en critiquant ses produits ou sa personnalité, afin de détourner sa clientèle. Il constitue un acte de concurrence déloyale. Compte tenu de ces définitions, si des commentaires ne se réfèrent pas à une personne en particulier, qu’il s’agisse d’une personne physique ou morale, ils demeureront non punissables du chef de diffamation.

A cet égard, la Cour de cassation a toujours considéré que lorsque les critiques portent sur des produits ou des services sans concerner une personne, aucune action en diffamation ne peut être retenue, l’action en dénigrement pouvant, à l’inverse, être recevable (Civ. 2e, 5 juill. 2000, Bull. civ. II, n° 109 ; D. 2000. AJ. 359, obs. A. Marmontel ; 8 avr. 2004, Bull. civ. II, n° 182). La différenciation de ces deux actions est alors simple. Elle devient, par contre, plus difficile lorsque les propos sont apparemment diffamatoires et, dans le même temps, créent un dénigrement. Telle était la situation soumise à la Cour de cassation dans l’arrêt rendu par la première Chambre civile le 5 décembre 2006 (Civ. 1re, 5 déc. 2006, Bull. civ. I, n° 532 ; D. 2007. AJ. 17 ; CCC, févr. 2007, Comm. n° 54, note Malaurie-Vignal).

IV. Plateforme d’avis, Dénigrement et avis en ligne

Les avis en ligne sont des opinions ou des évaluations exprimées par les utilisateurs sur des produits, des services, des entreprises ou d’autres aspects de la vie quotidienne. Ils peuvent être pratiqués sur des plateformes dédiées telles que les sites d’évaluations, les forums, les réseaux sociaux, les blogs, etc.

Les avis en ligne peuvent avoir plusieurs éléments constitutifs, tels que :

  • L’expérience personnelle : les avis en ligne sont généralement basés sur l’expérience personnelle de l’auteur. Ils peuvent partager ce qu’ils ont aimé ou n’ont pas aimé à propos d’un produit ou d’un service ;
  • L’évaluation : les avis peuvent contenir une évaluation ou une note pour refléter la satisfaction globale de l’auteur à l’égard de ce qui est évalué ;
  • Commentaires détaillés : certains avis peuvent inclure des commentaires détaillés expliquant les raisons de l’évaluation donnée, les aspects positifs ou négatifs spécifiques, ou fournissant des informations supplémentaires sur l’expérience vécue ;
  • L’objectivité : les avis peuvent varier en termes d’objectivité. Certains peuvent être basés sur des faits et des preuves tangibles, tandis que d’autres peuvent être plus subjectifs, reflétant les opinions personnelles de l’auteur ;

Il est important de noter que tous les avis en ligne ne sont pas nécessairement fiables ou représentatifs de manière objective. Il est conseillé de consulter plusieurs sources et de prendre en compte différents points de vue avant de se faire une opinion éclairée.

Par ailleurs, il est à noter que tous les avis ne sont pas émis de bonne foi. C’est le cas des avis en ligne désobligeants qui sont des commentaires négatifs ou critiques souvent publiés sur des plateformes d’évaluation ou de notation. Ces avis peuvent être subjectifs et ne pas refléter l’opinion générale. Il est important de garder à l’esprit que chaque personne a ses propres expériences et opinions. Lorsque vous lisez des avis en ligne, il peut être utile de prendre en compte plusieurs sources et de considérer l’ensemble des opinions avant de tirer des conclusions.

Les éléments constitutifs des avis désobligeants en ligne peuvent être de plusieurs ordres :

  • Les critiques négatives : les avis désobligeants comportent généralement des critiques négatives sur un produit, un service, un établissement ou une expérience spécifique ;
  • Un ton négatif : le ton utilisé dans ces avis est souvent hostile, agressif ou méprisant, exprimant ainsi un fort mécontentement ou une frustration ;
  • L’émotion subjective : les avis désobligeants peuvent être fortement influencés par les émotions personnelles de l’auteur, ce qui peut parfois conduire à des jugements exagérés ou injustes ;
  • Le manque d’objectivité : les avis en ligne désobligeants peuvent manquer d’objectivité et ne pas tenir compte des différentes perspectives ou des circonstances individuelles ;
  • Exagérations ou généralisations : certains avis désobligeants peuvent contenir des exagérations ou des généralisations, amplifiant ainsi les aspects négatifs sans tenir compte des aspects positifs.

Il est important de noter que tous les avis en ligne ne sont pas désobligeants, et qu’il est essentiel de prendre du recul et d’évaluer de manière critique les informations disponibles avant de se faire une opinion définitive.

Dans l’hypothèse où une mise en demeure restera infructueuse, celui-ci aura le choix des armes parmi lesquelles :

  • action en référé à l’encontre de Google aux fins de suppression d’avis. Dans l’hypothèse où des avis Google seraient susceptibles d’être qualifiés d’illicites, le professionnel pourra agir en référé contre la firme américaine aux fins de suppression de contenus sur le fondement de l’article 6-I-8 de la loi du 21 juin 2004, en prenant garde toutefois aux dispositions de la loi du 29 juillet 1881 s’il ressort que l’action est fondée aussi sur ce texte, au risque sinon de voir prononcer la nullité de l’assignation faute de respect des règles procédurales strictes prévues dans ses articles 53 et 65 spécialement (TGI Paris, réf., 29 juin 2018, n° 18/51423. – CA Paris, 22 mars 2019, n° 18/17204, préc.).Une solution conforme en cela à ce qui a pu déjà être retenu en matière de demande de déréférencement, dès lors qu’il est sollicité du juge qu’il se prononce sur l’existence d’un délit de presse afin d’obtenir le retrait du lien. Ceci étant, la démonstration du seul caractère manifestement illicite du propos en cause devrait être suffisante pour motiver un retrait d’avis Google, étant précisé qu’une provision sur dommages-intérêts pourra également être allouée s’il ressort que l’exploitant du moteur de recherche avait été préalablement notifié afin de supprimer le contenu conformément à l’article 6-I-5 de la loi du 21 juin 2004 et qu’il a tardé à le faire (TGI Paris, réf., 11 juill. 2019, n° 19/54734, préc.) ;
  • action en référé ou au fond à l’encontre de l’internaute aux fins de suppression d’avis et d’obtention d’une indemnité. – Le requérant dispose de la possibilité d’agir « sur le fondement de la loi du 29 juillet 1881 ou du dénigrement en application de l’article 1240 du Code civil, contre les internautes qui porteraient atteinte à son honneur ou à sa réputation ou qui publieraient une critique excessive et fautive de ses services » (TGI Paris, réf., 12 avr. 2019, préc.).Une telle action devra selon les cas nécessiter au préalable qu’un juge fasse droit à la demande de levée d’anonymat de l’auteur en requérant la communication des éléments d’identification auprès de l’exploitant du moteur de recherche sur le fondement de l’article 6-II de la loi du 21 juin 2004, une fois caractérisée l’existence du « motif légitime », au sens de l’article 145 du Code de procédure civile, que constitue la volonté d’engager une procédure pour l’indemnisation du préjudice subi (TGI Paris, réf., 11 juill. 2019, n° 19/54734, préc.). À titre d’exemple, un internaute fut condamné à payer 1800 euros à un notaire à cause d’un avis injurieux sur Google.
  • plainte avec constitution de partie civile. – Une plainte avec constitution de partie civile en matière de diffamation ou d’injure s’il y a lieu permettra de sécuriser l’action en présence d’un auteur d’avis anonyme, ceci afin de ne pas risquer le jeu de la prescription trimestrielle.

Pour lire cet article sur l’incitation au dénigrement  de façon plus complète, cliquez

Sources :