diffamation

Peut-on accuser une IA de diffamation ?

La montée en puissance des intelligences artificielles génératives, telles que ChatGPT, interroge la responsabilité juridique attachée à leurs productions.

NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire !

Lorsqu’un modèle diffuse de fausses informations susceptibles de nuire à la réputation d’une personne, peut-on envisager une action en diffamation ? Cette question, au croisement du droit de la presse, du droit civil et du droit des technologies, met en tension les cadres traditionnels de la responsabilité et les nouvelles réalités techniques de l’IA .

I. Conditions et difficultés juridiques pour qualifier une déclaration d’IA en diffamation

A. Les éléments classiques de la diffamation et leur adaptation à l’IA

Le droit de la diffamation repose sur plusieurs conditions :

  • Une imputation de fait précis, susceptible de vérification ;
  • La fausseté de cette imputation ;
  • Une faute imputable à un auteur ;
  • Un préjudice causé à la réputation ;
  • Un lien de causalité entre la déclaration et le dommage.

Or, dans le cas des IA génératives, ces éléments se heurtent à des obstacles majeurs :

  • L’auteur : une IA n’ayant pas de personnalité juridique, la responsabilité doit être recherchée du côté de l’éditeur, du concepteur ou de l’exploitant du système.
  • La faute : il est difficile de déterminer le standard de diligence applicable — s’agit-il d’une négligence dans la conception ou le contrôle du modèle ?
  • Le lien de causalité : la diffusion d’une information erronée peut résulter de plusieurs acteurs (utilisateur, plateforme, média) ; la part exacte de l’IA est alors complexe à établir.

En droit français, ces difficultés se doublent d’un formalisme procédural strict (délais, preuve, publicité), peu adapté aux mécanismes automatisés de génération de texte.

B. Obstacles pratiques et enseignements jurisprudentiels

Les tribunaux tendent à rejeter les actions dirigées contre les éditeurs d’IA, faute de faute caractérisée ou de dommage prouvé. Ainsi, aux États-Unis, dans Walters v. OpenAI, la cour a estimé que déployer une IA faillible ne suffisait pas à établir une négligence .


Besoin de l’aide d’un avocat pour un problème de diffamation ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien


De même, en Australie, une action en diffamation contre OpenAI a été abandonnée pour des motifs pratiques. En Europe, l’ONG NOYB a saisi les autorités norvégiennes après qu’un citoyen ait été faussement présenté comme meurtrier par ChatGPT, invoquant à la fois la diffamation et le manquement au principe d’exactitude du RGPD.

Face à ces cas, les défenses des éditeurs s’appuient sur les avertissements, les mesures de filtrage et l’absence d’imputabilité directe. Certains auteurs envisagent néanmoins une responsabilité du fait des produits lorsque l’IA serait considérée comme un produit défectueux.

II. Scénarios pratiques, évolutions possibles et recommandations

A. Stratégies de recours envisageables

En l’absence de responsabilité directe de l’IA, plusieurs voies demeurent :

  • Action contre l’éditeur pour défaut de vigilance ou conception défaillante ;
  • Action contre l’utilisateur ou diffuseur final, lorsque celui-ci reprend l’information ;
  • Recours en droit de la presse ou en ligne, fondé sur la diffusion publique ;
  • Plainte fondée sur le RGPD, lorsque les données personnelles sont inexactes ;
  • Médiation ou règlement amiable, face à la complexité procédurale.

Ces approches visent à contourner l’absence actuelle de statut juridique pour l’IA, tout en s’appuyant sur les obligations existantes en matière de données et de responsabilité civile.

B. Évolutions législatives et perspectives

Le projet de règlement européen sur l’intelligence artificielle (AI Act) entend imposer des standards élevés de transparence, de traçabilité et de sécurité aux systèmes à haut risque. S’il n’institue pas de responsabilité autonome pour l’IA, il pourrait faciliter l’identification d’un responsable humain ou moral.

Certains auteurs envisagent la reconnaissance d’une personnalité juridique partielle pour les systèmes d’IA, à l’image des personnes morales, mais cette idée reste controversée.

À court terme, la voie la plus réaliste demeure l’instauration d’obligations de diligence renforcée, d’audits réguliers et de mécanismes de correction. À moyen terme, le développement de fonds d’assurance ou de garanties spécifiques pourrait offrir une réponse pragmatique au risque de diffamation générée par l’IA.

L’action en diffamation contre une IA générative demeure, à ce jour, juridiquement incertaine.

Si les éléments constitutifs de la diffamation peuvent théoriquement être transposés, les obstacles pratiques — imputabilité, faute, causalité, absence de personnalité juridique — limitent toute condamnation directe.

Le droit positif s’oriente donc vers une responsabilité dérivée des concepteurs et opérateurs, tandis que les futures normes (telles que l’AI Act) chercheront à encadrer les risques par la prévention et la transparence plutôt que par la sanction.

Pour lire une version complète de cet article sur les IA et la diffamation, cliquez ici

Sources :

  1. Blog – ChatGPT accusé de diffamation : quand l’IA invente des meurtres d’enfants
  2. Un tribunal de Géorgie rejette une plainte en diffamation contre OpenAI : une victoire pour les développeurs d’IA et une clarté juridique dans la défense contre la diffamation
  3. Diffamation générée par l’IA : risques juridiques et affaires de responsabilité
  4. Intelligence artificielle – Vers une responsabilité civile « présumée » ?

La vie privée, la diffamation et le RGPD dans les groupes privés numériques

À l’heure où les frontières entre réel et virtuel s’estompent, les espaces numériques privés ressemblent à des citadelles fragiles : des lieux où les mots deviennent armes, les données une monnaie d’échange, et l’intimité un idéal menacé. 
NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire !

Ces sanctuaires connectés, conçus pour abriter dialogues et solidarités, sont aussi le théâtre de batailles invisibles. Entre les murs cryptés des messageries ou les forums cloîtrés, chaque clic peut libérer des torrents de désinformation, éroder des réputations ou fracturer des vies – le tout sous le regard ambigu de lois aussi nécessaires que perfectibles, comme le RGPD.

La promesse d’un *havre numérique* se fissure face à un paradoxe moderne : comment bâtir la confiance dans un espace où l’anonymat protège autant qu’il corrompt ? Les utilisateurs, en quête d’authenticité, y déposent des fragments de leur identité, ignorant parfois que ces traces échappent à leur contrôle. Les algorithmes, gardiens opaques de ces royaumes, trient, analysent et stockent, tandis que la diffamation prospère dans l’ombre, exploitant les failles d’une gouvernance souvent improvisée.

Le RGPD, bouclier législatif né en 2018, impose une discipline nouvelle : il rappelle que derrière chaque pseudonyme se cache un visage, derrière chaque message, une responsabilité. Mais légiférer sur l’éther numérique revient à sculpter des nuages – les règles peinent à suivre l’évolution des tactiques de contournement. Les modérateurs, sentinelles malgré eux, naviguent entre Charybde et Scylla : supprimer un contenu, c’est risquer l’accusation de censure ; le tolérer, c’est s’exposer à des poursuites.


Besoin de l’aide d’un avocat pour un problème de contrefaçon ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien


L’avenir de ces citadelles dépendra d’une alchimie improbable : marier l’éthique aux lignes de code, l’humain à l’artificiel. L’IA, capable de traquer la haine en temps réel, pourrait-elle incarner un juste équilibre ? Ou deviendra-t-elle l’outil d’une surveillance généralisée, étouffant la spontanéité des échanges ? La réponse exige plus que des innovations techniques : elle nécessite un pacte social redéfini, où droits individuels et bien commun ne seraient plus adversaires, mais alliés face à l’hydre des dérives numériques.

I. La vie privée dans les groupes privés numériques : Un droit fondamental à l’épreuve du numérique

A. Définition et encadrement juridique

La vie privée numérique, un élément essentiel de la dignité humaine, est reconnue comme un droit fondamental par l’article 8 de la Convention européenne des droits de l’homme. Ce droit est particulièrement pertinent dans le contexte actuel, où les technologies numériques façonnent les modes de communication et les interactions sociales.

Le Règlement général sur la protection des données (RGPD), entré en vigueur en mai 2018, renforce cette protection en redéfinissant les obligations des plateformes numériques et les droits des utilisateurs en matière de données personnelles.

La vie privée numérique englobe la capacité des individus à contrôler et à gérer leurs données personnelles, qui peuvent inclure une vaste gamme d’informations telles que le nom, l’adresse, l’adresse IP, les photos, les messages et bien d’autres éléments permettant d’identifier une personne. Dans les groupes privés numériques, tels que WhatsApp, Facebook Groups et Discord, la protection de la vie privée prend une importance cruciale, car ces espaces de communication facilitent le partage d’informations sensibles entre membres, souvent considérés comme des cercles de confiance.

Le RGPD impose plusieurs principes fondamentaux qui doivent être respectés par les plateformes. Tout d’abord, le principe de licéité, de loyauté et de transparence exige que les données soient traitées de manière légale et que les utilisateurs soient informés de la manière dont leurs données seront utilisées.

Ce principe requiert également le consentement explicite des utilisateurs avant la collecte de leurs données. Ensuite, le principe de minimisation stipule que seules les données nécessaires à la finalité pour laquelle elles sont collectées peuvent être traitées.

Enfin, le principe de limitation de la conservation impose que les données soient supprimées une fois leur utilisation achevée, afin d’éviter toute utilisation abusive ou non autorisée des informations personnelles. En France, la loi Informatique et Libertés, modifiée en 2018 pour s’aligner sur le RGPD, renforce la protection des données personnelles.

Elle établit des sanctions sévères pour les violations de la vie privée et adapte les procédures de contrôle par la Commission nationale de l’informatique et des libertés (CNIL). Ces réglementations visent à garantir que les droits des utilisateurs sont protégés dans un environnement numérique de plus en plus complexe et interconnecté.

B. Les défis de la confidentialité et de la sécurité

Malgré leur désignation de « groupes privés », les groupes numériques ne sont pas à l’abri des risques en matière de confidentialité et de sécurité. Les violations de données peuvent survenir de manière variée et souvent inattendue. Parmi les causes potentielles, on trouve des fuites accidentelles, telles que le partage d’écran lors d’une vidéoconférence ou l’envoi d’informations sensibles à un mauvais destinataire.

De plus, les cyberattaques, qui consistent en des piratages de comptes ou l’interception de messages, représentent une menace sérieuse pour la sécurité des données. Les utilisateurs peuvent également faire face à des abus de la part d’autres membres du groupe, comme la capture d’écran et le partage public d’échanges privés.

Le RGPD exige des plateformes qu’elles mettent en œuvre des mesures techniques et organisationnelles proportionnées pour protéger les données personnelles. Ces mesures doivent être adaptées à la nature des données traitées et aux risques encourus. Parmi ces mesures, le chiffrement de bout en bout est devenu une norme pour les applications de messagerie telles que WhatsApp. Ce processus garantit que seuls les utilisateurs impliqués dans la conversation peuvent accéder au contenu des échanges, rendant impossible l’accès par la plateforme elle-même.

L’authentification à deux facteurs est également un moyen efficace de sécuriser les comptes utilisateurs en ajoutant une couche supplémentaire de protection. De plus, la réalisation d’audits réguliers permet d’identifier les vulnérabilités potentielles et de mettre en œuvre des améliorations nécessaires pour renforcer la sécurité des données.

Un exemple marquant des risques liés à la sécurité des données est la fuite de données survenue en 2021, qui a exposé les informations de 533 millions d’utilisateurs de Facebook, y compris des numéros de téléphone et des informations de profil. Cet incident, bien qu’il ait eu lieu avant l’entrée en vigueur du RGPD, a conduit à de nombreuses plaintes auprès de la CNIL pour manquements à la sécurité.

Il illustre la nécessité d’une vigilance constante et d’un engagement proactif en matière de protection des données, tant pour les plateformes que pour les utilisateurs.

II. La diffamation dans les groupes privés numériques : Un délit aux multiples visages

A. Définition juridique et modalités

La diffamation est définie par l’article 29 de la loi du 29 juillet 1881, qui stipule qu’elle consiste en toute allégation ou imputation d’un fait précis portant atteinte à l’honneur ou à la considération d’une personne. Dans le contexte des groupes privés numériques, ce délit peut prendre plusieurs formes, ce qui complique la tâche des juristes et des législateurs.

Parmi les manifestations de la diffamation, on trouve les messages textuels contenant des accusations infondées dirigées contre un membre du groupe, le partage de photos ou de vidéos truquées visant à discréditer une personne, et les publications virales de fausses informations relayées, même au sein d’un cercle restreint.

Les groupes privés, bien qu’ils soient souvent perçus comme des espaces de discussion sécurisés, ne permettent pas l’impunité en matière de diffamation. Un cas pratique marquant s’est produit en 2020, lorsque qu’un salarié a été condamné par le tribunal correctionnel de Paris pour avoir diffamé son employeur dans un groupe WhatsApp professionnel.

Les messages dans lesquels il qualifiait l’entreprise de « frauduleuse » ont été jugés diffamatoires, et ce, malgré le caractère privé du groupe. Cette décision souligne l’importance de la responsabilité individuelle même dans des espaces considérés comme privés.

B. Articulation avec le RGPD : Quand la diffamation implique des données personnelles

La question se complique lorsque la diffamation s’appuie sur des données personnelles, par exemple, par la divulgation non consentie d’informations médicales. Dans de telles situations, deux violations distinctes peuvent être engagées : d’une part, une violation pénale, avec des sanctions prévues par la loi de 1881, pouvant atteindre 12 000 euros d’amende ; et d’autre part, une violation du RGPD, qui prohibe le traitement illicite de données sensibles. Les sanctions prévues par l’article 83 du RGPD peuvent aller jusqu’à 20 millions d’euros ou 4 % du chiffre d’affaires mondial de la plateforme concernée, ce qui représente un risque financier considérable pour les entreprises.

Pour illustrer cette problématique, on peut évoquer la situation où un membre d’un groupe Facebook privé publie un document confidentiel révélant l’orientation sexuelle d’un individu. Cette action constitue à la fois un acte de diffamation, si le document contient des accusations fausses, et une violation du RGPD, en raison du traitement de données sensibles sans le consentement de la personne concernée. Les conséquences juridiques peuvent être lourdes pour les individus impliqués, mais également pour les plateformes qui hébergent ces contenus.

III. L’équilibre délicat entre vie privée et lutte contre la diffamation

A. Les outils juridiques pour concilier les deux impératifs

Pour trouver un équilibre entre la protection de la vie privée et la lutte contre la diffamation, plusieurs outils juridiques sont à la disposition des acteurs concernés. Le RGPD, par exemple, offre la possibilité de traiter des données personnelles pour modérer des contenus diffamatoires au titre de l’intérêt légitime, à condition que certaines conditions soient respectées. Cela signifie que les plateformes doivent s’assurer de ne pas collecter de données excessives, en se limitant à l’analyse des messages signalés plutôt qu’à l’ensemble des conversations.

De plus, il est crucial d’informer les utilisateurs de manière transparente sur les politiques de modération mises en place. Le droit à l’oubli, inscrit à l’article 17 du RGPD, constitue un autre outil juridique important. Il permet à une personne qui a été diffamée d’exiger la suppression des données la concernant, y compris dans des groupes privés.

Cependant, le défi reste de taille : la Cour européenne des droits de l’homme (CEDH) a souligné que la modération ne doit pas entraver la liberté d’expression. Dans l’arrêt MTE et Index.hu c. Hongrie (2016), la CEDH a jugé que les plateformes ne peuvent être tenues responsables des contenus diffamatoires publiés par des utilisateurs, sauf en cas de négligence dans leur retrait.

B. Bonnes pratiques pour les plateformes

Pour mieux gérer la modération des contenus, les plateformes peuvent adopter plusieurs bonnes pratiques. L’implémentation de mécanismes de signalement simplifiés est essentielle. Cela permet aux utilisateurs de signaler un message qu’ils estiment diffamatoire en quelques clics, rendant le processus rapide et accessible.

De plus, des procédures transparentes doivent être établies pour examiner les signalements dans un délai raisonnable, idéalement sous 24 à 48 heures. Il est également crucial que les plateformes collaborent avec les autorités compétentes. Cela peut inclure la conservation temporaire des données des auteurs en cas d’enquête judiciaire, conformément à l’article 6-1-c du RGPD.

Par exemple, en 2022, Telegram a été amené à fournir à la justice française des données d’utilisateurs impliqués dans des groupes diffusant des contenus de haine. En parallèle, l’utilisation de technologies d’anonymisation, telles que le masquage automatique des noms et des photos dans les signalements, peut servir de protection pour les témoins, encourageant ainsi le signalement d’abus sans crainte de représailles.

IV. Rôles et responsabilités des acteurs : Une chaîne de responsabilité partagée

A. Les plateformes : Garantes de la conformité RGPD

Les plateformes numériques portent une responsabilité significative en matière de conformité au RGPD. Cela inclut la désignation d’un délégué à la protection des données (DPO), une exigence obligatoire pour les grandes entreprises. Le DPO joue un rôle essentiel en conseillant sur la conformité, en assurant la coopération avec la CNIL et en sensibilisant les utilisateurs à leurs droits et à la protection de leurs données.

Par ailleurs, la transparence et l’éducation des utilisateurs sont primordiales. Les plateformes doivent mettre à disposition des guides clairs sur les paramètres de confidentialité et les pratiques recommandées. Par exemple, WhatsApp offre des tutoriels pour aider les utilisateurs à limiter la visibilité de leurs groupes, renforçant ainsi leur sécurité.

En cas de manquement aux obligations de protection des données, des sanctions peuvent être appliquées. En 2023, Meta (Facebook) a été condamné à une amende de 1,2 milliard d’euros par l’Union européenne pour des transferts illégaux de données vers les États-Unis, rappelant ainsi l’importance cruciale du respect des réglementations en matière de protection des données.

B. Les utilisateurs : Acteurs responsables

Les utilisateurs jouent également un rôle actif dans la protection de leur vie privée et dans la lutte contre la diffamation. Ils doivent s’engager à vérifier la véracité des informations avant de les partager, en prenant conscience que la diffusion de fausses informations peut avoir des conséquences graves. Ils doivent également respecter les règles de modération établies dans les groupes afin de maintenir un environnement sain et sécurisé pour tous les membres.

Les utilisateurs disposent de droits importants en vertu du RGPD, tels que le droit d’accès et de rectification, qui leur permet d’obtenir une copie de leurs données ou de les corriger en cas d’inexactitude.

De plus, l’article 20 du RGPD leur confère le droit à la portabilité, c’est-à-dire la possibilité de transférer leurs données vers une autre plateforme. Un exemple concret illustre cette réalité : un utilisateur de LinkedIn a exercé son droit à l’effacement pour faire supprimer des commentaires diffamatoires publiés par un concurrent dans un groupe professionnel. Cette situation souligne l’importance pour les utilisateurs d’être proactifs dans la protection de leurs droits et de leur réputation.

V. Perspectives d’avenir et défis émergents

A. L’intelligence artificielle au service de la modération

L’émergence de l’intelligence artificielle (IA) dans le domaine de la modération des contenus pose de nouvelles questions éthiques et juridiques. Les outils d’IA, tels que les algorithmes de détection de discours haineux, peuvent avoir un impact significatif sur la manière dont les plateformes modèrent les contenus. Cependant, ces outils ne sont pas sans inconvénients.

Les biais algorithmiques peuvent entraîner des erreurs de modération, avec un risque de censure excessive ou, au contraire, de laxisme dans la surveillance des contenus. De plus, il est impératif que les traitements automatisés respectent le principe de licéité et permettent une intervention humaine, comme le stipule l’article 22 du RGPD. Par exemple, en 2021, Twitter a fait face à des critiques pour des erreurs de modération automatisée qui ont conduit à la suppression de contenus légitimes concernant la COVID-19. Cela démontre que, bien que l’IA puisse être un outil puissant pour la modération, elle ne peut pas remplacer le jugement humain et la nuance nécessaires pour évaluer le contexte des communications.

B. Vers un droit européen unifié ?

Les nouvelles réglementations, telles que le Digital Services Act (DSA) et le Digital Markets Act (DMA), qui ont été mises en œuvre en 2023, marquent une étape importante dans la régulation des plateformes numériques.  Ces lois imposent des obligations de transparence, notamment la publication de rapports sur les activités de modération, et introduisent des sanctions accrues pouvant aller jusqu’à 6 % du chiffre d’affaires mondial pour les manquements aux règles. Ces régulations visent à garantir un niveau élevé de protection des utilisateurs tout en maintenant un équilibre avec la liberté d’expression.

C. Recommandations pour les utilisateurs

À l’ère numérique, il est capital que les utilisateurs adoptent des pratiques prudentes pour protéger leur vie privée dans les groupes numériques. Ils devraient veiller à paramétrer leurs groupes de manière à limiter les ajouts de nouveaux membres à l’approbation des administrateurs, afin de s’assurer que seuls des membres de confiance peuvent accéder aux informations partagées.

De plus, désactiver les options de partage externe, comme les captures d’écran, peut limiter le risque de diffusion non autorisée d’informations sensibles. Une vigilance accrue est également nécessaire. Les utilisateurs devraient envisager d’utiliser des pseudonymes dans des groupes sensibles pour protéger leur identité et signaler immédiatement tout contenu qu’ils jugent diffamatoire ou inapproprié. En étant proactifs et informés, les utilisateurs peuvent contribuer à un environnement numérique plus sûr et respectueux pour tous.

Pour lire une version plus complète de cet article sur la diffamation sur les plateformes, cliquez

Sources:

  1. Droit au respect de la vie privée et familiale – La Convention européenne des droits de l’homme
  2. Le règlement général sur la protection des données – RGPD | CNIL
  3. https://www.cnil.fr/fr/reglement-europeen-protection-donnees/chapitre2#Article5
  4. https://www.cnil.fr/fr/definition/minimisation
  5. https://www.cnil.fr/fr/passer-laction/les-durees-de-conservation-des-donnees
  6. Mesures techniques et organisationnelles liées au RGPD pour protéger les données
  7. Facebook : Tout comprendre à la fuite de données qui concerne 533 millions d’utilisateurs
  8. https://www.cnil.fr/fr/reglement-europeen-protection-donnees/chapitre3#Article17
  9. Commentaires injurieux laissés par les internautes : l’organe d’autorégulation et le portail d’actualités sur Internet propriétaires des sites concernés n’étaient pas responsables – Portal
  10. Numérique : le règlement sur les services numériques entre en vigueur | Ministère de l’Économie des Finances et de la Souveraineté industrielle et numérique

Est-il possible de demander le retrait d’une vidéo sur YouTube ?

Dans un monde où les plateformes numériques et les réseaux sociaux occupent une place prépondérante dans la diffusion de l’information, la question du retrait de contenus, notamment de vidéos sur des sites comme YouTube, suscite des débats juridiques de plus en plus complexes.
NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire !

L’émergence de ces nouveaux canaux de communication a profondément modifié la manière dont l’information est produite, partagée et consommée, tout en soulevant des problématiques cruciales concernant la liberté d’expression et la protection des droits individuels.

Ces droits, qui incluent le droit à l’honneur, à la réputation et à la présomption d’innocence, deviennent des enjeux centraux dans le paysage juridique du XXIe siècle, où les frontières entre l’information et la diffamation peuvent être floues. Une illustration saisissante de cette dynamique a été fournie par l’affaire portée devant la Cour de cassation française le 26 février 2025.

Ce litige oppose plusieurs personnalités, dont un avocat, un magistrat et un ancien ministre, à Google Ireland Limited, la société mère de YouTube. Les plaignants ont demandé le retrait de six vidéos diffusées sur la chaîne YouTube « Les dossiers de Monaco », lesquelles les accusaient de faire partie d’un réseau de corruption au sein de la Principauté. Ces allégations, jugées diffamatoires par les intéressés, ont conduit à une demande de suppression des vidéos, sur la base d’une atteinte présumée à leur honneur et leur dignité professionnelle.


Besoin de l’aide d’un avocat pour un problème de diffamation ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien


Cette affaire s’inscrit dans le cadre de l’article 6-I.8 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN), qui établit un cadre procédural pour la gestion des contenus diffamatoires en ligne. Elle soulève des questions fondamentales concernant le régime de responsabilité des hébergeurs, comme YouTube, et les obligations de modération qui leur incombent. En effet, la jurisprudence actuelle doit prendre en compte l’équilibre délicat entre la liberté d’expression, protégée par des conventions internationales telles que la Convention européenne des droits de l’homme (CEDH), et la nécessité de protéger les droits individuels des personnes mises en cause dans des contenus potentiellement nuisibles.

La Cour de cassation, en examinant ce dossier, se confronte également à des défis contemporains liés à la viralité des réseaux sociaux. Dans un environnement où l’information peut se propager instantanément et largement, la mise en œuvre de régulations ex post peut sembler insuffisante pour traiter les préjudices causés avant qu’un litige ne soit résolu. Ce constat remet en question l’efficacité des mécanismes juridiques traditionnels et appelle à une réflexion sur la manière dont les plateformes numériques peuvent être tenues responsables des contenus qu’elles hébergent.

Par ailleurs, cette affaire met en lumière les enjeux d’extraterritorialité qui se posent dans les relations entre les États et les acteurs numériques. Google Ireland Limited, en tant qu’entité européenne opérant YouTube, illustre l’asymétrie de pouvoir persistante entre les juridictions nationales et les grandes entreprises technologiques.

La réponse de la Cour de cassation à ces questions déterminera non seulement la manière dont les droits fondamentaux seront protégés dans le cadre de la liberté d’expression, mais aussi la capacité des juridictions nationales à établir des normes éthiques dans un environnement dématérialisé, où l’immédiateté et la viralité peuvent souvent éclipser la rigueur factuelle.

Ainsi, l’analyse de cette décision judiciaire ne peut se limiter à une simple évaluation des faits. Elle doit intégrer une compréhension multidimensionnelle des enjeux juridiques, en prenant en compte les spécificités du droit français en matière de diffamation, ainsi que les obligations résultant du droit de l’Union européenne, y compris la directive sur le commerce électronique et le RGPD.

En définitive, cette affaire se pose comme un véritable révélateur des tensions inhérentes à notre époque, interrogeant la compatibilité entre la liberté d’expression et les droits individuels dans un monde où l’information, souvent non vérifiée, circule librement et sans entrave.

 

I. Le cadre juridique et procédural du retrait de contenus en ligne : entre obligations des hébergeurs et droits des utilisateurs

A. Les obligations de modération des plateformes numériques sous l’empire de la LCEN.

  1. Le statut d’hébergeur et la limitation de responsabilité conditionnelle (Art. 6-I.2 LCEN)

La loi du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN) pose les fondements du régime de responsabilité des intermédiaires techniques, en distinguant clairement les éditeurs de contenus, responsables a priori de leurs publications, des hébergeurs, dont la responsabilité est conditionnée à une connaissance effective des contenus illicites.

L’article 6-I.2 LCEN, transposant la directive européenne sur le commerce électronique (2000/31/CE), définit l’hébergeur comme une entité stockant des données « pour le compte de tiers », sans en contrôler a priori la légalité.

Cette distinction est cruciale : elle libère les plateformes comme YouTube d’une obligation générale de surveillance, conformément au principe de neutralité technologique. Toutefois, cette immunité relative n’est pas absolue. Elle est subordonnée à deux conditions cumulatives :

– L’absence de connaissance effective du caractère illicite du contenu.

– L’action prompte pour retirer ou rendre inaccessible le contenu dès que cette illicéité est portée à leur connaissance. La Cour de justice de l’Union européenne (CJUE) a précisé, dans l’arrêt Google c/ González (2014), que cette connaissance ne peut résulter d’une notification vague ou générique, mais doit être « suffisamment précise et motivée » pour permettre une appréciation concrète. Dans l’affaire MM. U., G., I. et E., la qualification de YouTube en tant qu’hébergeur est donc un préalable essentiel : si la plateforme avait exercé un contrôle éditorial sur les vidéos (modification, catégorisation active), elle aurait pu être requalifiée en éditeur, engageant sa responsabilité de plein droit.

  1. L’obligation de retrait prompt des contenus illicites : portée et limites de l’article 6-I.8 LCEN

L’article 6-I.8 LCEN instaure une procédure de signalement accéléré permettant à toute personne s’estimant victime d’un contenu préjudiciable d’exiger son retrait. Ce mécanisme, souvent invoqué dans les affaires de diffamation, repose sur un équilibre délicat :

– L’obligation de réactivité : Dès réception d’une notification valide, l’hébergeur doit agir « promptement » pour retirer le contenu ou en bloquer l’accès. La notion de promptitude, laissée à l’appréciation des juges, varie selon la gravité des allégations et leur viralité. Dans une affaire, un délai de 48 heures a été jugé raisonnable pour des propos haineux.

– Les limites procédurales : L’hébergeur n’a pas à statuer sur le fond du litige ; son rôle est purement réactif. Cependant, une application trop zélée de cette obligation pourrait conduire à une censure privée excessive, contraire à la liberté d’expression. La CJUE, dans l’affaire Glawischnig-Piesczek c/ Facebook (2019), a ainsi rappelé que les mesures de retrait doivent être proportionnées et ciblées géographiquement.

Dans l’espèce, Google Ireland Limited, en refusant de retirer les vidéos malgré les notifications des plaignants, a invoqué le caractère insuffisamment précis des signalements et la nécessité de préserver le débat d’intérêt public sur la corruption. La Cour de cassation devra donc vérifier si les notifications remplissaient les critères de l’article 6-I.8 LCEN et si le refus de retrait était justifié au regard des impératifs de liberté d’expression.

B. La procédure accélérée au fond : un mécanisme adapté aux exigences du numérique ?

  1. L’urgence caractérisée par la viralité des contenus diffamatoires

La viralité des réseaux sociaux, où un contenu peut atteindre des millions d’utilisateurs en quelques heures, rend obsolètes les procédures judiciaires traditionnelles. L’article 6-I.8 LCEN, en prévoyant une procédure accélérée, répond à cette nécessité d’urgence.

Toutefois, cette célérité soulève des questions :

– La preuve de l’urgence : Les plaignants doivent démontrer un préjudice actuel et irréversible. Dans l’affaire Cour d’appel de Paris, la simple possibilité d’un préjudice réputationnel a été jugée insuffisante pour activer la procédure.

– L’effet Streisand : Une demande de retrait trop médiatisée peut amplifier la diffusion du contenu incriminé, aggravant le préjudice. Les juges doivent donc évaluer si le retrait est réellement protecteur ou contre-productif.

  1. Les garanties procédurales pour les parties : équilibre entre célérité et droits de la défense

La procédure accélérée ne doit pas sacrifier les droits de la défense, garantis par l’article 6 de la Convention européenne des droits de l’homme (CEDH). La Cour européenne a rappelé, dans l’affaire MGN Limited c/ Royaume-Uni (2011), que les mesures provisoires doivent respecter le principe du contradictoire.

Dans le cas des vidéos de « Les dossiers de Monaco », YouTube et les créateurs de contenus ont-ils été entendus avant le retrait ? La Cour de cassation examinera si le juge des référés a correctement pondéré les intérêts en présence, notamment en vérifiant :

– La motivation détaillée de la décision.

– L’existence d’un débat contradictoire, même succinct.

– La proportionnalité de la mesure (retrait total vs. Restriction géographique ou temporelle).

 

II. L’arbitrage jurisprudentiel entre liberté d’expression et protection des droits individuels

A. La qualification des propos diffamatoires : critères et enjeux pour les professions réglementées

  1. L’appréciation in concreto du caractère injurieux ou diffamatoire (Art. 29 loi de 1881)

La diffamation, définie par l’article 29 de la loi du 29 juillet 1881, suppose l’allégation ou l’imputation d’un fait précis portant atteinte à l’honneur ou à la considération.

La jurisprudence exige une analyse contextuelle :

– La distinction entre faits et opinions : Les juges distinguent les assertions factuelles (vérifiables et potentiellement diffamatoires) des opinions, protégées par la liberté d’expression.

– La preuve de la mauvaise foi : En matière de diffamation envers des personnalités publiques, la Cour européenne exige que les plaignants démontrent que l’auteur a agi avec « négligence fautive » (CEDH, Pedersen et Baadsgaard c/ Danemark, 2004).

Dans l’affaire des « Dossiers de Monaco », les vidéos dénoncent un réseau de corruption en citant des noms et des fonctions. La Cour devra déterminer si ces allégations relèvent de l’investigation journalistique (protégée) ou de la diffamation. La charge de la preuve incombe aux plaignants, qui doivent démontrer le caractère mensonger des faits énoncés.

  1. La prise en compte du statut des plaignants (ministre, magistrat, avocat) et de l’intérêt public du débat

Les personnalités publiques, en raison de leur exposition médiatique, bénéficient d’une protection atténuée de leur vie privée (CEDH, Axel Springer c/ Allemagne, 2012).  Cependant, cette tolérance varie selon leur fonction :

– Le ministre : Son action étant d’intérêt général, les critiques à son encontre sont largement admises, sauf en cas de propos excessifs ou mensongers.

– Le magistrat : La défense de l’autorité judiciaire justifie une protection renforcée, car les accusations de corruption peuvent ébranler la confiance publique dans l’institution.

– L’avocat : Son honneur professionnel est protégé, mais les critiques sur son exercice doivent être permises si elles participent d’un débat légitime.

La Cour de cassation évaluera donc si les vidéos, en visant ces trois professions, ont franchi la frontière entre le droit à l’information et l’abus de liberté d’expression. Elle s’appuiera sur la jurisprudence CEDH, Morice c/ France (2015), qui exige une « contribution pertinente au débat d’intérêt général ».

B. Les implications de l’arrêt de la Cour de cassation sur la gouvernance des plateformes

  1. Vers une responsabilisation accrue des hébergeurs dans la modération des contenus ?

La décision pourrait marquer un tournant dans l’interprétation des obligations des hébergeurs :

– Un standard de diligence renforcé : Si la Cour estime que Google aurait dû retirer les vidéos malgré des signalements partiels, cela créerait une obligation proactive de modération, contraire à l’esprit initial de la LCEN.

– L’impact du RGPD et du Digital Services Act (DSA) : Le règlement européen de 2022 impose déjà aux très grandes plateformes (comme YouTube) des mesures de transparence et d’audit. Un arrêt sévère contre Google anticiperait l’application stricte du DSA, qui prévoit des amendes pouvant atteindre 6 % du chiffre d’affaires mondial.

  1. L’impact sur la liberté d’expression et le rôle des lanceurs d’alerte dans les affaires de corruption

En condamnant Google, la Cour de cassation risquerait de créer un effet dissuasif pour les lanceurs d’alerte et les médias investigatifs, déjà fragilisés par les lois anti-fake news.

À l’inverse, un arrêt favorable à la plateforme pourrait encourager la diffusion non contrôlée de calomnies. Pour éviter cet écueil, la Cour pourrait :

– Exiger un encadrement procédural : Créer des mécanismes de contre-expertise (ex : avis d’un comité d’éthique) avant le retrait.

– Distinguer les cas selon la nature des contenus : Une accusation de corruption, si elle s’appuie sur des indices sérieux, devrait bénéficier d’une protection accrue au nom de l’intérêt public (CEDH, Steel et Morris c/ Royaume-Uni, 2005).

L’arrêt de la Cour de cassation du 26 février 2025 s’annonce comme un marqueur essentiel de l’évolution du droit numérique français. En arbitrant entre la protection des droits individuels et la liberté d’expression, il devra concilier des impératifs contradictoires : la rapidité nécessaire face à la viralité, le respect des procédures équitables, et la préservation d’un espace public numérique libre mais responsable. Au-delà de l’affaire monégasque, c’est l’équilibre même de la démocratie à l’ère digitale qui se joue dans cette décision.

Pour lire une version plus complète de cet article sur la possibilité de demander le retrait d’une video sur Youtube, cliquez

Sources :

  1. Demande de retrait de vidéos à caractère diffamatoire publiées sur Youtube selon la procédure accélérée au fond – Communications électroniques
  2. Loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique (1). – Légifrance
  3. Directive – 2000/31 – EN – EUR-Lex
  4. EUR-Lex – 62012CA0131 – FR – EUR-Lex
  5. EUR-Lex – 62018CJ0018 – FR – EUR-Lex
  6. CEDH, Cour (Quatrième Section), AFFAIRE MGN LIMITED c. ROYAUME-UNI, 18 janvier 2011, 39401/04
  7. CEDH, 17 décembre 2004, n° 49017/99 | Doctrine
  8. CEDH, AFFAIRE AXEL SPRINGER AG c. ALLEMAGNE, 2012, 001-109035
  9. CEDH, AFFAIRE MORICE c. FRANCE, 2015, 001-154264
  10. AFFAIRE STEEL ET MORRIS c. ROYAUME-UNI

 

Loi sur la majorité numérique et la haine en ligne : LOI n° 2023-566 du 7 juillet 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne

La Loi sur la majorité numérique et la haine, également connue sous le nom de Loi numéro 2023-566 du 7 juillet 2023, est une législation révolutionnaire qui vise à instaurer une majorité numérique et à lutter contre la propagation de la haine en ligne.

NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire !

Cette loi a été créée en réponse à l’augmentation préoccupante des discours de haine et des comportements nuisibles sur les plateformes numériques.

La majorité numérique, telle que définie par cette loi, fait référence à l’âge auquel une personne est considérée comme suffisamment mature et responsable pour participer activement à la vie en ligne et prendre des décisions éclairées. Selon la loi, l’âge de la majorité numérique est fixé à 15 ans. Cela signifie que les individus âgés de 15 ans et plus sont considérés comme étant pleinement responsables de leurs actions en ligne et sont soumis aux mêmes droits et obligations que dans le monde réel.

La loi vise également à lutter contre la propagation de la haine en ligne, qui est devenue un problème majeur dans notre société moderne. Elle prévoit des mesures strictes pour identifier, signaler et réprimer les contenus haineux sur les plateformes numériques.

Les fournisseurs de services en ligne sont tenus de mettre en place des mécanismes de signalement efficaces, de collaborer avec les autorités compétentes et de prendre des mesures pour supprimer rapidement les contenus haineux. En vertu de cette loi, les auteurs de discours de haine en ligne peuvent être tenus responsables de leurs actes et faire l’objet de poursuites judiciaires. Des sanctions sévères, telles que des amendes et des peines d’emprisonnement, sont prévues pour dissuader les individus de propager la haine en ligne.


Besoin de l’aide d’un avocat pour un problème de vie privée ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien


La loi encourage également la sensibilisation et l’éducation sur les conséquences néfastes de la haine en ligne, afin de promouvoir un comportement respectueux et inclusif sur Internet. La Loi sur la majorité numérique et la haine est une étape importante dans la protection des individus contre les discours de haine et les comportements nuisibles en ligne. Elle vise à créer un environnement numérique plus sûr et plus respectueux, où chacun peut s’exprimer librement sans craindre d’être victime de harcèlement ou de discrimination.

En promouvant la responsabilité individuelle et en imposant des sanctions pour les comportements haineux, cette loi contribue à préserver les valeurs fondamentales de notre société dans le monde digitalisé d’aujourd’hui.

La loi a été promulguée le 7 juillet 2023. Elle a été publiée au Journal officiel du 8 juillet 2023.

I. Définition de la notion de réseau social (en lien avec le Digital Markets Act [DMA]), avec une exclusion de ce régime pour divers contenus encyclopédiques, éducatifs ou scientifiques non lucratifs.

L’article 1er de la LOI n° 2023-566 du 7 juillet 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne définit les réseaux sociaux de la manière suivante : « On entend par service de réseaux sociaux en ligne toute plateforme permettant aux utilisateurs finaux de se connecter et de communiquer entre eux, de partager des contenus et de découvrir d’autres utilisateurs et d’autres contenus, sur plusieurs appareils, en particulier au moyen de conversations en ligne, de publications, de vidéos et de recommandations. ».

Un réseau social est une plateforme en ligne qui permet aux individus de créer des profils personnels, de partager des informations, de communiquer avec d’autres utilisateurs et de participer à des interactions sociales.

Les réseaux sociaux facilitent la connexion entre les individus en leur permettant de se connecter, de suivre, de partager du contenu, d’interagir par le biais de commentaires, de mentions J’aime et d’autres fonctionnalités. Les exemples courants de réseaux sociaux incluent Facebook, Twitter, Instagram, LinkedIn, TikTok et Snapchat.

L’utilisation des réseaux sociaux par les mineurs peut avoir différentes conséquences, à la fois positives et négatives :

  1. Interaction sociale : Les réseaux sociaux offrent aux mineurs la possibilité de se connecter avec leurs pairs, de partager des intérêts communs et de développer des relations sociales en ligne.
  2. Accès à l’information : Les réseaux sociaux permettent aux mineurs d’accéder à une vaste quantité d’informations et de ressources en ligne, ce qui peut faciliter l’apprentissage et l’élargissement de leurs connaissances.
  3. 3. Cyberintimidation : Les réseaux sociaux peuvent être le lieu de la cyberintimidation, où les mineurs peuvent être victimes de harcèlement, de moqueries ou de menaces en ligne, ce qui peut avoir des conséquences néfastes sur leur bien-être émotionnel et mental
  4. Confidentialité et sécurité : Les mineurs peuvent être vulnérables à des problèmes de confidentialité et de sécurité en ligne. Ils peuvent être exposés à des personnes mal intentionnées, à des contenus inappropriés ou à des pratiques de collecte de données personnelles.
  5. Dépendance et gestion du temps : L’utilisation excessive des réseaux sociaux peut entraîner une dépendance et affecter la gestion du temps des mineurs, perturbant leurs activités scolaires, leur sommeil et leurs interactions en dehors du monde virtuel.

Il est important que les mineurs et leurs parents ou tuteurs soient conscients de ces conséquences et établissent des règles et des pratiques saines pour une utilisation responsable des réseaux sociaux. La supervision et la communication ouverte entre les adultes et les mineurs sont essentielles pour minimiser les risques potentiels et maximiser les avantages des réseaux sociaux.

II. Instauration d’une majorité numérique à 15 ans pour s’inscrire sur ces réseaux, sauf autorisation parentale (avec information obligatoire sur les durées de déconnexion et une procédure de sortie du réseau social à la demande des parents pour les moins de 15 ans) ; les réseaux sociaux auront deux ans pour recueillir l’accord des parents pour les inscriptions antérieures à la loi.

L’article 4 de la LOI n° 2023-566 du 7 juillet 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne dispose comme suit :

Après l’article 6-5 de la loi n° 2004-575 du 21 juin 2004 précitée, il est inséré un article 6-7 ainsi rédigé :

« Art. 6-7.-I.-Les fournisseurs de services de réseaux sociaux en ligne exerçant leur activité en France refusent l’inscription à leurs services des mineurs de quinze ans, sauf si l’autorisation de cette inscription est donnée par l’un des titulaires de l’autorité parentale sur le mineur.

Ils recueillent également, dans les mêmes conditions et dans les meilleurs délais, l’autorisation expresse de l’un des titulaires de l’autorité parentale relative aux comptes déjà créés et détenus par des mineurs de quinze ans. Lors de l’inscription, ces entreprises délivrent une information à l’utilisateur de moins de quinze ans et aux titulaires de l’autorité parentale sur les risques liés aux usages numériques et les moyens de prévention. Elles délivrent également à l’utilisateur de moins de quinze ans une information claire et adaptée sur les conditions d’utilisation de ses données et de ses droits garantis par la loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés.

« L’un des titulaires de l’autorité parentale peut demander aux fournisseurs de services de réseaux sociaux en ligne la suspension du compte du mineur de quinze ans.

« Lors de l’inscription d’un mineur, les fournisseurs de services de réseaux sociaux en ligne activent un dispositif permettant de contrôler le temps d’utilisation de leur service et informent régulièrement l’usager de cette durée par des notifications.

  • Les solutions techniques à cet effet pour vérifier cet âge relèveront des réseaux sociaux, mais sur la base d’un référentiel qui sera fait par l’ARCOM après consultation de la CNIL (avec des amendes à la clef à défaut, plafonnées à 1% du chiffre d’affaires mondial)

« Afin de vérifier l’âge des utilisateurs finaux et l’autorisation de l’un des titulaires de l’autorité parentale, les fournisseurs de services de réseaux sociaux en ligne utilisent des solutions techniques conformes à un référentiel élaboré par l’Autorité de régulation de la communication audiovisuelle et numérique, après consultation de la Commission nationale de l’informatique et des libertés.

« II.-Lorsqu’il constate qu’un fournisseur de services de réseaux sociaux en ligne n’a pas mis en œuvre de solution technique certifiée pour vérifier l’âge des utilisateurs finaux et l’autorisation de l’un des titulaires de l’autorité parentale de l’inscription des mineurs de quinze ans, le président de l’Autorité de régulation de la communication audiovisuelle et numérique adresse à ce fournisseur, par tout moyen propre à en établir la date de réception, une mise en demeure de prendre toutes les mesures requises pour satisfaire aux obligations prévues au I.

Le fournisseur dispose d’un délai de quinze jours à compter de la mise en demeure pour présenter ses observations.

« A l’expiration de ce délai, en cas d’inexécution de la mise en demeure, le président de l’Autorité de régulation de la communication audiovisuelle et numérique peut saisir le président du tribunal judiciaire de Paris aux fins d’ordonner au fournisseur de mettre en œuvre une solution technique conforme.

« Le fait pour un fournisseur de services de réseaux sociaux en ligne de ne pas satisfaire aux obligations prévues au même I est puni d’une amende ne pouvant excéder 1 % de son chiffre d’affaires mondial pour l’exercice précédent (article 6-7.-II de la loi n° 2004-575 du 21 juin 2004 précitée).

III. Il est prévu un décret d’application et, pour certaines dispositions, un délai d’entrée en vigueur d’un an.

Article 6 de la loi 7 juillet 2023 précise que le gouvernement remet au Parlement, dans un délai d’un an à compter de la promulgation de la présente loi, un rapport présentant les conséquences de l’utilisation des plateformes en ligne, de la surinformation et de l’exposition aux fausses informations sur la santé physique et mentale des jeunes, notamment des mineurs, ainsi que sur leurs capacités d’apprentissage.

  1. Impose la diffusion de messages de prévention contre le cyberharcèlement avec indication du n° vert 3018 et règle de procédure pénale

La loi impose aux réseaux sociaux de :

diffuser des messages de prévention contre le cyberharcèlement et indiquer le numéro 3018, le numéro vert pour lutter contre le cyberharcèlement ;

permettre à tous leurs utilisateurs de signaler davantage de contenus illicites afin qu’ils soient retirés. Outre notamment l’apologie d’actes terroristes, l’incitation à la haine, les harcèlements sexuel et scolaire, sont aussi dorénavant concernés le harcèlement conjugal ou moral, le chantage (chantage à la cam, sextorsion), l’atteinte à la vie privée (cyber-outing, diffusion de contenus intimes ou de données personnelles) et l’atteinte à la représentation de la personne (deepfake).

De plus, dans le cadre d’une enquête pénale, les réseaux sociaux et autres plateformes en ligne devront répondre aux réquisitions judiciaires portant sur des contenus électroniques (textes, photos, vidéos…) dans un délai de dix jours, voire de huit heures maximum en cas d’urgence « résultant d’un risque imminent d’atteinte grave aux personnes ».

Ces délais sont ceux prévus par le futur règlement européen dit « e-evidence » sur les injonctions européennes de production et de conservation de preuves électroniques en matière pénale. Aujourd’hui, aucun délai n’est imposé aux services de communication en ligne pour répondre aux demandes des autorités en cas de délit en ligne (cyberharcèlement, pédopornographie…). Articles 2, 3 et 5 de la LOI n° 2023-566 du 7 juillet 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne.

  1. Impose au Gouvernement la remise d’un rapport sur les conséquences de l’utilisation des plateformes en ligne, de la surinformation et de l’exposition aux fausses informations sur la santé physique et mentale des jeunes.

L’article 6 de la LOI n° 2023-566 du 7 juillet 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne dispose que le gouvernement remet au Parlement, dans un délai d’un an à compter de la promulgation de la présente loi, un rapport présentant les conséquences de l’utilisation des plateformes en ligne, de la surinformation et de l’exposition aux fausses informations sur la santé physique et mentale des jeunes, notamment des mineurs, ainsi que sur leurs capacités d’apprentissage.

Pour lire une version plus complète de cet article sur la loi sur la haine en ligne, cliquez

Sources :