Résultats de recherche pour: cnil

RÈGLEMENT « DIGITAL SERVICES ACT » POUR UNE RESPONSABILISATION DES PLATEFORMES

Face à la montée de problématiques telles que la haine en ligne, la manipulation de l’information, la désinformation, et la contrefaçon, l’Union européenne (UE) a adopté une nouvelle mesure réglementaire, le Digital Services Act (DSA), pour réguler les activités des plateformes numériques, en particulier celles des géants du web, les GAFAM.

Pour faire supprimer un contenu qui bafoue vos droits, utilisez le service mis en place par le cabinet Murielle-Isabelle CAHEN.

Promulgué le 19 octobre 2022, ce règlement a pour but d’accroître la protection des Européens dans un monde numérique en constante évolution. Il agit en tant que modernisation de la Directive du 8 juin 2000 sur le commerce électronique, cherchant à mettre à jour et à renforcer les dispositions de cette directive pour tenir compte de l’évolution rapide du paysage numérique.

Ainsi, Les plateformes en ligne devront proposer aux internautes un outil leur permettant de signaler facilement les contenus illicites. Une fois le signalement effectué, elles devront rapidement retirer ou bloquer l’accès au contenu illégal. Dans ce cadre, elles devront coopérer avec des « signaleurs de confiance ». Ce statut sera attribué dans chaque pays à des entités ou organisations en raison de leur expertise et de leurs compétences. Leurs notifications seront traitées en priorité.

Le règlement s’applique à tous les services intermédiaires fournis aux internautes et ayant leur lieu d’établissement ou de résidence dans l’union européenne.


Besoin de l’aide d’un avocat pour un problème de contrefaçon ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien


Autrement dit, le lieu d’établissement de la plateforme ou du prestataire est sans incidence dès lors que la seule utilisation du service dans le territoire de l’union européenne permet au DSA d’être applicable.

Un tel règlement permet de protéger la cible des plateformes : les utilisateurs. En effet, tous les prestataires seront soumis aux mêmes obligations prévues par le DSA.

En somme, doivent se soumettre au DSA :

Les fournisseurs d’accès à internet ;

Les fournisseurs de services intermédiaires (services d’information, de mise en marche et d’hébergement) ;

Les plateformes en ligne telles que les réseaux sociaux, les plateformes marchandes, ou les plateformes de voyage et d’hébergement ;

Les moteurs de recherches et plateformes en ligne utilisés par plus de 45 millions d’Européens par mois et désignés comme « Très grande plateforme » par la Commission européenne.

A ce titre, en avril 2023, la Commission européenne a adopté les premières décisions listant 17 très grandes plateformes en ligne et 2 très grands moteurs de recherche en ligne touchant au moins 45 millions d’utilisateurs européens actifs par mois.

De ce fait, ces règlements pourront avoir un impact significatif et déterminant sur l’économie numérique mondiale.

Inquiets et désabusés devant les pratiques des géants du numérique qui constituent les GAFAM ou MAMAA, les institutions Européennes entendent bien mettre au pas ces grandes sociétés tentaculaires qui occupent une position presque oligopolistique sur ces différents marchés que sont le numérique et la publicité.

Ces règlements s’inscrivent également dans un mouvement de régulation sur internet qui vise notamment à stopper certains agissements des grandes plateformes, mieux protéger les internautes et à favoriser le jeu de la concurrence sur les marchés numériques. Responsabiliser ces acteurs incontournables semble donc nécessaire.

L’opacité des méthodes déployées par ces derniers engendre également de nombreux problèmes. C’est la raison pour laquelle le règlement DSA vise à apporter un nouveau cadre au système de recommandation de contenu aux utilisateurs (I) afin de mieux réguler les publicités ciblées (II).

I) Un cadre nouveau pour les systèmes de recommandations en ligne

Vous l’avez sans doute remarqué en surfant sur le web : les recommandations foisonnent sur les réseaux sociaux et les moteurs de recherche. Celles-ci sont rendues possibles grâce aux algorithmes de recommandation. (A) Pour faire face à ce système bien rôdé qui présente des risques certains pour les utilisateurs, l’Europe a mis en place un cadre juridique basé sur la transparence (B).

A) L’univers numérique : un monde gouverné par les algorithmes

De manière générale l’accès à l’information implique nécessairement l’usage d’algorithme. Tous les moteurs de recherche que nous utilisons les utilisent afin de nous diriger de manière optimale vers l’information recherchée. Les plateformes de partage de vidéos tels que Youtube ou Netflix ne sont pas en reste et les utilisent massivement.

Ces algorithmes influencent de manière radicale nos choix, nos goûts et nos envies.

C’est d’ailleurs ce qui avait été reproché à Google Shopping qui avait été condamnée en 2021 par le Tribunal de l’UE à une amende record de 2,42 milliards d’euros. Google avait alors auto préférencé les liens dirigeant vers Google Shopping, son propre comparateur de produit au détriment des autres concurrents. Cette pratique pourrait par le biais des recommandations être appliquée.

Dans une étude publiée par le Conseil supérieur de l’Audiovisuel en 2019, il ressortait que les critères qui gouvernent les algorithmes sont : les préférences et historique de consommation des utilisateurs, les types de contenus, les partages, les commentaires, les likes, les sites visités… La manière dont ces données alimentent les algorithmes et l’utilisation qui en est faite par ces derniers reste un mystère.

Le système manque singulièrement de transparence et aucune explication n’est faite à propos des contenus qui sont proposés aux utilisateurs.

Pourtant comme cela a été mis en évidence dans l’affaire Google Shopping l’importance du classement d’une information ou d’un produit est déterminante, et c’est bien le danger que représente ce système opaque qui peut engendrer non seulement des comportements déloyaux envers les concurrents, mais également des effets extrêmement négatifs sur les habitudes de consommation de l’ensemble des utilisateurs.

Un mauvais usage de cette puissance informationnelle pourrait conduire à biens des catastrophes (manipulation des utilisateurs, relayage de fausses informations). C’est d’ailleurs ce point qui ressort dans les considérants du règlement ici présenté : les systèmes de recommandation algorithmique jouent un rôle important dans l’amplification de certains messages et la diffusion d’informations.

On est alors en mesure de s’interroger sur la variété et la qualité des points de vue donnés par le moteur de recherche sur un sujet donné à ses utilisateurs.

Déjà sanctionnées sous le prisme du droit de la concurrence par le Digital Market Act, le règlement qui accompagne le DSA vient interdite les pratiques d’auto-préférence, lorsqu’elles revêtent un caractère anticoncurrentiel, les modes de fonctionnement des algorithmes devront être dévoilées au grand jour par l’instauration par le DSA d’obligations de transparence et d’explicabilité.

B) Une obligation renforcée de transparence et d’explication

Explicabilité et transparence sont les maitres mots du DSA. L’importance des systèmes de recommandation algorithmique n’est plus à prouver et les risques qu’ils entrainent sont certains. Le législateur Européen l’a bien compris et le DSA désigne désormais ces systèmes de recommandation comme étant de potentiels « facteurs d’aggravation des risques systémiques » portés par les très grandes plateformes.

Le règlement vient imposer à ces dernières de prévoir au moins une option de système de recommandation n’étant pas fondée sur le profilage.

A l’égard de toutes les plateformes le DSA vient créer des obligations de transparence et d’explicabilité de leur système de recommandation.

L’article 24 bis du DSA prévoit ainsi une obligation pour les plateformes d’intégrer dans leurs conditions générales « dans un langage clair et compréhensible, les principaux paramètres utilisés dans leurs systèmes de recommandation, ainsi que toute option permettant aux bénéficiaires du service de modifier et d’influencer ces principaux paramètres ».  Les plateformes devront ainsi permettre aux utilisateurs de paramétrer eux-mêmes les algorithmes de recommandation.

L’article apporte par la suite des précisions sur les informations qui devront figurer dans les conditions générales pour satisfaire aux exigences du paragraphe susmentionné. Ces informations devront comprendre les critères les plus significatifs qui permettent aux algorithmes de dresser leurs recommandations.

L’objectif visé par le législateur est de contraindre les plateformes à informer les utilisateurs que d’une part les informations qui lui sont présentées ont fait l’objet d’un reclassement par ordre de priorité, et comment d’autre part cet ordre de priorité est déterminé et à partir de quelles informations.

L’explicabilité et la transparence impliquent nécessairement une exigence de clarté et d’intelligibilité des explications ainsi transmises à l’utilisateur. C’est la raison pour laquelle l’article 24 bis du DSA mentionne un « langage clair et compréhensible ».

Cette obligation d’intelligibilité s’inscrit dans la continuité du règlement RGPD qui visait à rendre l’utilisation des données personnelles des utilisateurs par les plateformes numériques compréhensible. La formule « langage clair et compréhensible » sera par la suite reprise dans de nombreux points du DSA. (Article 12 du DSA qui oblige à faire usage d’un langage clair et compréhensible dans les conditions générales, ou encore l’article 38 qui impose une fois encore une obligation spécifique de clarté et d’adaptation du langage utilisé dès lors que le public visé est constitué de mineurs).

Dorénavant les grandes plateformes devront également fournir un résumé clair et concis des habituelles conditions générales interminables, dont personne ne daigne réellement prêter attention.

Cet encadrement des systèmes de recommandation a de toute évidence pour finalité de protéger l’utilisateur des plateformes. L’utilisateur doit rester conscient du fonctionnement de ces dernières afin de préserver un consentement libre et éclairé à tout acte qu’il effectuera sur les plateformes.

II) L’émergence d’un cadre juridique pour la publicité ciblée

La publicité ciblée est massivement utilisée par les plateformes du numérique et génère des revenus considérables. Pouvant avoir de nombreuses conséquences sur le comportement des consommateurs et sur le jeu de la concurrence, le recours à ces méthodes de publicité doit être fortement encadré. C’est la raison pour laquelle le législateur vient ici encore imposer aux plateformes une obligation renforcée de transparence en ce qui concerne la publicité ciblée (A). Ces obligations vont bouleverser les méthodes des plateformes numériques et fortement sensibiliser les consommateurs, ce qui risque de mener à une forte réduction de ces dernières (B).

A. La publicité ciblée au cœur des obligations de transparence

La CNIL définit la publicité ciblée comme étant une technique publicitaire qui vise à identifier les personnes individuellement afin de leur diffuser des messages publicitaires spécifiques en fonction de leurs caractéristiques individuelles.

Ce procédé représente aujourd’hui une part de revenus considérable pour les plateformes du numérique (près de 7 678 milliards d’euros de recette rien qu’en France en 2021) et apparait être l’un des piliers de l’économie numérique ainsi que la principale cause de collectes des données personnelles.

A la différence des publicités classiques qui font l’objet d’espaces dédiés et sont clairement identifiées, les publicités ciblées sont intégrées dans le flux de contenu habituel des utilisateurs.

Partant de ce constat, le DSA instaure un nouveau cadre particulièrement restrictif et allant au-delà de ce qui découlait de l’application du RGPD et de la directive e-privacy,  sans préjudice des principes posés par ces textes.

Désormais les plateformes devront veiller à ce que les utilisateurs soient informés de la présence de ces publicités. Ces dernières devront également être clairement identifiables par le consommateur moyen et ce de manière non ambiguë. Cette identification passera par l’apposition obligatoire de marques visuelles et sonores qui devront être adaptées à la nature de l’interface en question (Youtube, Facebook, Instagram etc…).

L’article 24 du DSA viendra ainsi contraindre les plateformes à :

  • Rendre visible et identifiable tout contenu publicitaire ;
  • Rendre identifiable la personne au nom et pour le compte de qui la publicité est diffusée ;
  • Exposer les paramètres utilisés pour cibler le consommateur

Désormais le ciblage publicitaire ne pourra plus être réalisé sur la base de données « sensibles » au sens du RGPD et ne pourra plus être réalisé à destination des mineurs.

Ces obligations ne sont pas sans faire échos au scandale « Cambridge Analytica » et à l’utilisation de données personnelles liées aux convictions politiques dans un but d’influencer le comportement les électeurs.

Il est à espérer que ces obligations auront un impact significatif sur la perception du consommateur ainsi que sur l’usage de la publicité ciblée.

B. L’éventuel impact sur les revenus des plateformes générés par la publicité ciblée

Il est probable que les limites posées par le DSA à l’utilisation des systèmes de profilage pour proposer des publicités aux utilisateurs pourraient conduire à une forte diminution de son importance.

L’interdiction faite aux plateformes de proposer de la publicité au mineur risque de bouleverser considérablement le modèle économique de ces dernières. En effet le DSA précise que les plateformes ne pourront proposer de la publicité ciblée lorsqu’elles savent avec « une certitude raisonnable que les utilisateurs sont mineurs ».

L’article 52 du DSA vient par la suite préciser qu’une plateforme est considérée comme accessible aux mineurs lorsque ses conditions générales permettent à ces derniers d’utiliser le service.

Si l’on retient une interprétation stricte de cet article, toute plateforme qui autorise aux mineurs l’accès à ses services devrait soit bannir toute publicité ciblée de son modèle, soit parvenir à distinguer parmi ses utilisateurs lesquels sont mineurs ou majeurs de manière fiable.

Une autre disposition intéressante fait son apparition à la lecture de l’article 24 du DSA qui prévoit que les plateformes ne pourront collecter plus d’informations qu’habituellement au prétexte de pouvoir continuer à mettre en œuvre la publicité ciblée.

Les plateformes pourraient mettre en place des mécanismes afin de contourner ces obligations, tels que l’instauration d’un système déclaratif de l’âge des utilisateurs ou autres déclarations sur l’honneur. Ces mécanismes ont déjà sur certaines plateformes été mis en place et ont brillé par leur inefficacité. En l’absence d’identité numérique, toute identification effective reste pour l’instant impossible.

L’article 29 du DSA vient également préciser que les très grandes plateformes (Youtube, Google, Facebook, Tiktok etc..) doivent fournir au moins une option pour leurs systèmes de recommandation qui ne soit pas fondée sur le profilage. Les très grandes plateformes devront donc proposer aux utilisateurs un moyen de désactiver les publicités ciblées.

Toutes ces mesures devraient conduire inexorablement de nombreux utilisateurs à désactiver les publicités ciblées de leur interface, et ainsi par voie de conséquence conduire à une forte diminution des recettes astronomiques réalisées par les très grandes plateformes.

Certaines plateformes qui visent principalement un public mineur (Tiktok, Snapchat) se verront en principe interdire totalement le recours à la publicité ciblée.

Bien que le DSA n’entraine pas l’interdiction complète de l’usage de la publicité ciblée, il en réduira très certainement la portée.

Toutes ces mesures sont à saluer dans un contexte tel que celui que nous connaissons aujourd’hui, fortement marqué par la montée en puissance de ces géants du numérique. Ces derniers disposant d’un pouvoir financier et d’influence sans limite ne devraient plus continuer bien longtemps à œuvrer en toute impunité.

Pour lire une version plus complète de cet article sur le digital act et la responsabilité des plateformes de commerce électronique, cliquez

Sources :

https://www.vie-publique.fr/eclairage/285115-dsa-le-reglement-sur-les-services-numeriques-ou-digital-services-act#:~:text=Les%20plateformes%20en%20ligne%20devront,des%20″signaleurs%20de%20confiance« .
https://www.plravocats.fr/blog/technologies-propriete-intellectuelle-media/tout-comprendre-du-digital-services-act-dsa
https://www.vie-publique.fr/dossier/284898-dsa-et-dma-tout-savoir-sur-les-nouveaux-reglements-europeens
https://www.vie-publique.fr/eclairage/285115-dsa-le-reglement-sur-les-services-numeriques-ou-digital-services-act
https://www.economie.gouv.fr/legislation-services-numeriques-dsa-adoption-definitive-text
https://eur-lex.europa.eu/legal-content/FR/TXT/PDF/?uri=CELEX:32022R2065
Communications électroniques – Quel système de gouvernance pour le DMA et le DSA ? – Focus par Laurence IDOT (Lexis)

Qu’est-ce qu’un traitement « illicite » ?

L’article 4.1 du RGPD définit les «données à caractère personnel» comme toute information se rapportant à une personne physique identifiée ou identifiable (ci-après dénommée «personne concernée»).

NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire !

Ainsi est réputée être une «personne physique identifiable» une personne physique qui peut être identifiée, directement ou indirectement, notamment par référence à un identifiant, tel qu’un nom, un numéro d’identification, des données de localisation, un identifiant en ligne, ou à un ou plusieurs éléments spécifiques propres à son identité physique, physiologique, génétique, psychique, économique, culturelle ou sociale.

De plus, l’article 6 de la loi informatique et liberté prévoit une liste des données dites sensibles. Le traitement de ces dernières est par principe interdit, en effet « Il est interdit de traiter des données à caractère personnel qui révèlent la prétendue origine raciale ou l’origine ethnique, les opinions politiques, les convictions religieuses ou philosophiques ou l’appartenance syndicale d’une personne physique ou de traiter des données génétiques, des données biométriques aux fins d’identifier une personne physique de manière unique, des données concernant la santé ou des données concernant la vie sexuelle ou l’orientation sexuelle d’une personne physique. »


Besoin de l’aide d’un avocat pour un problème de vie privée ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien


Quant au « traitement », c’est toute opération ou tout ensemble d’opérations effectuées ou non à l’aide de procédés automatisés et appliquées à des données ou des ensembles de données à caractère personnel, telles que la collecte, l’enregistrement, l’organisation, la structuration, la conservation, l’adaptation ou la modification, l’extraction, la consultation, l’utilisation, la communication par transmission, la diffusion ou toute autre forme de mise à disposition, le rapprochement ou l’interconnexion, la limitation, l’effacement ou la destruction.

Revenons à notre interrogation de l’article intitulée « qu’est-ce qu’un traitement illicite ».

Le 7 mai 2019, un demandeur d’asile a déposé une demande de protection internationale auprès de l’Office fédéral allemand.

Sa demande a été rejetée en se basant sur les informations contenues dans le dossier électronique « MARIS ». Ce dossier, compilé par l’Office fédéral, contient des données personnelles relatives aux demandeurs, telles que leur identité, leurs antécédents et les motifs de leur demande de protection.

Suite à ce rejet, le demandeur a décidé de contester la décision devant le tribunal administratif de Wiesbaden, en Allemagne. Dans le cadre de cette procédure, le dossier électronique « MARIS » a été transmis au tribunal.

Cependant, la légalité de cette transmission a été remise en question par le tribunal, car l’Office fédéral n’a pas été en mesure de prouver qu’il respectait les obligations prévues par le RGPD, notamment en ce qui concerne :

(1) la tenue d’un registre des activités de traitement (art. 30 RGPD) et

(2) l’établissement d’un accord pour une responsabilité conjointe (art.26 RGPD).

Le tribunal s’interroge au premier chef sur les conséquences de ces potentielles violations : le traitement en devient-il illicite au sens de l’article 17 d) RGPD, entrainant dès lors l’effacement des données ?

Avant de nous prononcer sur la l’illicéité d’un traitement de données personnelles (II), examinons la question de la licéité du traitement (I).

I. La licéité du traitement des données personnelles

A. La « base légale » d’un traitement de données personnelles ?

La base légale d’un traitement est ce qui autorise légalement sa mise en œuvre, ce qui donne le droit à un organisme de traiter des données à caractère personnel. On peut également parler de « fondement juridique » ou de « base juridique » du traitement.

Quelles sont les bases légales prévues par le RGPD ?

Il est permis de traiter des données personnelles lorsque le traitement repose sur une des 6 bases légales mentionnées à l’article 6 du RGPD :

le consentement : la personne a consenti au traitement de ses données ;

le contrat : le traitement est nécessaire à l’exécution ou à la préparation d’un contrat avec la personne concernée ;

l’obligation légale : le traitement est imposé par des textes légaux ;

la mission d’intérêt public : le traitement est nécessaire à l’exécution d’une mission d’intérêt public ;

l’intérêt légitime : le traitement est nécessaire à la poursuite d’intérêts légitimes de l’organisme qui traite les données ou d’un tiers, dans le strict respect des droits et intérêts des personnes dont les données sont traitées ;

la sauvegarde des intérêts vitaux : le traitement est nécessaire à la sauvegarde des intérêts vitaux de la personne concernée, ou d’un tiers.

Lorsqu’un même traitement de données poursuit plusieurs finalités, c’est-à-dire plusieurs objectifs, une base légale doit être définie pour chacune de ces finalités. En revanche, il n’est pas possible de « cumuler » des bases légales pour une même finalité : il faut en choisir une seule.

Exemple : un fichier « clients et prospects » d’une entreprise peut poursuivre plusieurs finalités, qui doivent chacune reposer sur une base légale : le contrat pour la gestion des commandes, des livraisons ou du service après-vente ; l’obligation légale pour la tenue de la comptabilité ; le consentement pour les opérations de prospection commerciale par voie électronique ; etc.

B. Licéité et consentement

Le consentement est défini comme « toute manifestation de volonté, libre, spécifique, éclairée et univoque par laquelle la personne concernée accepte, par une déclaration ou par un acte positif clair, que des données à caractère personnel la concernant fassent l’objet d’un traitement ».

Le consentement n’est pas un concept nouveau, puisqu’il était déjà inscrit dans la loi Informatique et Libertés. Le RGPD complète néanmoins sa définition et précise cette notion sur certains aspects, afin de permettre aux personnes concernées d’exercer un contrôle réel et effectif sur le traitement de leurs données.

Le consentement est une des 6 bases légales prévues par le RGPD autorisant la mise en œuvre de traitements de données à caractère personnel.

Le responsable de traitement doit être en mesure de démontrer la validité du recours à cette base légale.

Tout changement important des conditions de mise en œuvre du traitement (finalité, données, durées de conservation, etc.) est susceptible d’avoir une incidence sur la validité de la base légale retenue : la démarche d’évaluation de cette validité doit donc, dans ce cas, être réitérée.

4 critères cumulatifs doivent être remplis pour que le consentement soit valablement recueilli. Le consentement doit être :

Libre : le consentement ne doit pas être contraint ni influencé. La personne doit se voir offrir un choix réel, sans avoir à subir de conséquences négatives en cas de refus.

Le caractère libre du consentement doit faire l’objet d’une attention particulière dans le cas de l’exécution d’un contrat, y compris pour la fourniture d’un service : refuser de consentir à un traitement qui n’est pas nécessaire à l’exécution du contrat ne doit pas avoir de conséquence sur son exécution ou sur la prestation du service.

Par exemple, un opérateur de téléphonie mobile recueille le consentement de ses clients pour l’utilisation de leurs coordonnées par des partenaires à des fins de prospection commerciale. Le consentement est considéré comme libre à condition que le refus des clients n’impacte pas la fourniture du service de téléphonie mobile.

Spécifique : un consentement doit correspondre à un seul traitement, pour une finalité déterminée.

Dès lors, pour un traitement qui comporte plusieurs finalités, les personnes doivent pouvoir consentir indépendamment pour l’une ou l’autre de ces finalités. Elles doivent pouvoir choisir librement les finalités pour lesquelles elles consentent au traitement de leurs données.

Par exemple, un organisateur d’évènements culturels souhaite recueillir le consentement des spectateurs pour deux types de prestations : la conservation de leurs coordonnées de paiement (carte bancaire) afin de faciliter leurs prochaines réservations ; la collecte de leur adresse électronique pour leur adresser des courriels concernant des prochaines représentations. Pour que le consentement soit valide, les spectateurs doivent pouvoir consentir librement et séparément pour chacun de ces deux traitements : la conservation des coordonnées bancaires et l’utilisation de leur adresse électronique.

Eclairé : pour qu’il soit valide, le consentement doit être accompagné d’un certain nombre d’informations communiquées à la personne avant qu’elle ne consente.

Au-delà des obligations liées à la transparence, le responsable du traitement devrait fournir les informations suivantes aux personnes concernées pour recueillir leur consentement éclairé :

l’identité du responsable du traitement ;

les finalités poursuivies ;

les catégories de données collectées ;

l’existence d’un droit de retrait du consentement ;

selon les cas : le fait que les données seront utilisées dans le cadre de décisions individuelles automatisées ou qu’elles feront l’objet d’un transfert vers un pays hors Union européenne.

Univoque : le consentement doit être donné par une déclaration ou tout autre acte positif clairs. Aucune ambiguïté quant à l’expression du consentement ne peut demeurer.

Les modalités suivantes de recueil du consentement ne peuvent pas être considérées comme univoques :

les cases pré-cochées ou pré-activées

les consentements « groupés » (lorsqu’un seul consentement est demandé pour plusieurs traitements distincts)

l’inaction (par exemple, l’absence de réponse à un courriel sollicitant le consentement)

II. L’illicéité du traitement

La notion de licéité apparait ici et là dans le règlement, sans que l’on perçoive toujours la portée exacte du terme. On sent l’importance de la notion, transversale, mais moins bien sa portée exacte.

Si l’on adopte une approche restrictive, la licéité du traitement se limite à respecter les conditions de l’article 6 intitulé … « licéité du traitement ». Dans cette approche restrictive, l’illicéité du traitement viserait les hypothèses de violation de l’article 6.

Si l’on adopte à l’inverse une approche large, dans laquelle est illicite tout ce qui ne respecte pas la règle de droit ou la norme de bon comportement, l’illicéité du traitement viserait la violation de n’importe quelle disposition du RGPD.

La question est importante, non seulement par rapport aux dommages et intérêts ou aux mesures correctrices que l’autorité peut prendre, mais aussi par rapport aux dispositions du RGPD qui visent spécifiquement les hypothèses d’illicéité. La première d’entre elles étant l’article 17 d) consacré au droit à l’oubli lorsque « les données à caractère personnel ont fait l’objet d’un traitement illicite. »

A. Le rejet de l’approche restrictive

On savait déjà que l’approche restrictive n’est pas celle retenue par la CJUE.

Dans l’arrêt Google Spain, la Cour a considéré que le caractère illicite peut résulter « non seulement du fait que ces données sont inexactes mais, en particulier, aussi du fait qu’elles sont inadéquates, non pertinentes ou excessives au regard des finalités du traitement, qu’elles ne sont pas mises à jour ou qu’elles sont conservées pendant une durée excédante celle nécessaire, à moins que leur conservation s’impose à des fins historiques, statistiques ou scientifiques ».

Il en découle :

d’une part, que la Cour élargit la notion d’illicéité au-delà de la violation du seul article 6 et y englobe l’article 5 ; et

d’autre part, que la Cour semble considérer qu’une illicéité fondée sur l’article 5 peut naitre de la violation de n’importe quel principe énoncé au 1er paragraphe de cette disposition : licéité, loyauté, transparence ; limitation des finalités ; minimisation des données ; exactitude ; limitation de la conservation ; intégrité et confidentialité.

La Cour rejetait donc clairement une approche restrictive qui limiterait le concept d’illicéité aux seules violations de l’article 6.

B. Le rejet d’une approche (trop) extensive

En substance, la question préjudicielle posée par le tribunal administratif allemand porte sur l’élasticité du concept d’illicéité : une violation des articles 26 et 30, consacrés respectivement à l’établissement de règles entre responsables conjoints du traitement et à l’obligation de tenue d’un registre, constituerait-elle une illicéité au sens de l’article 17 d) (droit à l’oubli) ?

La logique du juge allemand n’est pas dénuée de logique. Puisque la CJUE a elle-même élargi la notion d’illicéité à tous les principes énoncés à l’article 5.1, pourquoi ne pas aller au bout de la logique et considérer que toute violation du RGPD est une violation du principe de responsabilité énoncé à l’article 5.2 et, dès lors, une illicéité au sens de l’article 17 d) ?

La CJUE s’y refuse.

Avant de se consacrer à l’illicéité visée à l’article 17 d), la Cour commence par s’intéresser à la notion de licéité.

Elle rappelle tout d’abord sa jurisprudence selon laquelle « tout traitement de données à caractère personnel doit être conforme aux principes relatifs au traitement des données énoncés à l’article 5, paragraphe 1, de ce règlement et satisfaire aux conditions de licéité du traitement énumérées à l’article 6 dudit règlement [voir, notamment, arrêts du 6 octobre 2020, La Quadrature du Net e.a., C‑511/18, C‑512/18 et C‑520/18, EU:C:2020:791, point 208 ; du 22 juin 2021, Latvijas Republikas Saeima (Points de pénalité), C‑439/19, EU:C:2021:504, point 96, ainsi que du 20 octobre 2022, Digi, C‑77/21, EU:C:2022:805, points 49 et 56] ».

La Cour ajoute ensuite une précision importante pour la suite du raisonnement : les articles 7 à 11 du RGPD, qui figurent, à l’instar des articles 5 et 6 de celui-ci, dans le chapitre II relatif aux principes, ont pour objet de préciser la portée des obligations incombant au responsable du traitement en vertu de l’article 5, paragraphe 1, sous a), et de l’article 6, paragraphe 1.

Il s’ensuit, selon la Cour que « le traitement de données à caractère personnel, afin d’être licite, doit également respecter, ainsi qu’il ressort de la jurisprudence de la Cour, ces autres dispositions dudit chapitre qui concernent, en substance, le consentement, le traitement de catégories particulières de données personnelles à caractère sensible et le traitement de données personnelles relatives aux condamnations pénales et aux infractions ».

Ayant posé les bases, la Cour s’attache enfin à l’hypothèse spécifique d’une violation des articles 26 et 30 : pareille violation, à la supposer établie, est-elle une illicéité au sens de l’article 17 d) qui autorise la personne concernée à exiger l’effacement de données, le lien entre les deux étant le concept de responsabilité (accountability) énoncé à l’article 5.2 ?

Elle répond par la négative, soulignant que :

Les articles 26 et 30 ne font pas partie du chapitre 2 consacré aux « principes » ;

La distinction opérée entre le chapitre 2 et le reste du règlement se reflète dans les dispositions relatives aux amendes administratives et aux mesures correctrices, qui varient selon le niveau de gravité des violations constatées ;

Cette interprétation est également corroborée par l’objectif du règlement qui est de garantir un niveau élevé de protection aux personnes concernées. Or relève la Cour, autant une violation des principes est susceptible de mettre en cause cet objectif, autant on ne peut affirmer de manière générale qu’une violation des articles 26 et 30 porte, en tant que telle, atteinte à cet objectif.

En conséquence, la Cour juge qu’une violation des articles 26 et 30 n’est pas une illicéité au sens des articles 17.1 d) (oubli) et 18.1 b) (limitation) dès lors qu’une telle méconnaissance n’implique pas, en tant que telle, une violation par le responsable du traitement du principe de « responsabilité » tel qu’énoncé à l’article 5, paragraphe 2, dudit règlement, lu conjointement avec l’article 5, paragraphe 1, sous a), et l’article 6, paragraphe 1, premier alinéa, de ce dernier.

Pour lire une version plus complète de cet article sur le traitement illicite des données, cliquez

Sources :
https://curia.europa.eu/juris/document/document.jsf?text=&docid=273289&pageIndex=0&doclang=FR&mode=lst&dir=&occ=first&part=1&cid=12884265
https://www.cnil.fr/fr/les-bases-legales/liceite-essentiel-sur-les-bases-legales
https://www.cnil.fr/fr/les-bases-legales/consentement

Les outils d’IA qui déshabillent

L’intelligence artificielle (IA) est un domaine de la science informatique qui vise à créer des machines capables d’imiter les facultés cognitives humaines, telles que la perception, le raisonnement, l’apprentissage et la prise de décision.

NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire !

Considérée comme l’une des avancées technologiques les plus prometteuses de notre époque, l’IA a le potentiel de transformer de nombreux aspects de notre vie quotidienne, de l’industrie à la médecine en passant par les transports.

En ce qui concerne les fondements de l’intelligence artificielle, on peut dire que : – L’intelligence artificielle repose sur des algorithmes complexes et des modèles mathématiques qui permettent aux machines de traiter et d’analyser de grandes quantités de données. – La capacité à apprendre à partir de ces données est l’un des éléments clés de l’IA. Les machines peuvent s’améliorer et s’adapter en fonction des informations qu’elles reçoivent.


Besoin de l’aide d’un avocat pour un problème de vie privée ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien


Pour ce qui est des différentes formes d’intelligence artificielle, on pourrait avoir : – L’IA faible, également connue sous le nom d’IA spécialisée, est conçue pour exécuter des tâches spécifiques et limitées. Par exemple, les assistants virtuels, les systèmes de recommandation et les logiciels de reconnaissance vocale. – L’IA forte, en revanche, vise à reproduire l’intelligence générale humaine et à être capable de comprendre et d’accomplir n’importe quelle tâche cognitive. Cependant, cette forme d’IA est encore en développement.

Les domaines d’application de l’intelligence artificielle :

– L’IA est utilisée dans de nombreux secteurs, tels que la santé, où elle peut aider à diagnostiquer et à traiter les maladies de manière plus précise.

– Dans l’industrie, l’IA permet d’automatiser les processus de fabrication et d’améliorer l’efficacité de la production.

– Les voitures autonomes sont un autre exemple d’application de l’IA, offrant la possibilité de réduire les accidents de la route et d’améliorer la mobilité.

L’intelligence artificielle est une réalité de plus en plus présente dans notre société. Ses applications sont vastes et promettent d’améliorer notre qualité de vie de manière significative. Cependant, il est également important de prendre en compte les enjeux éthiques et sociaux liés au développement de l’IA.

L’intelligence artificielle soulève des questions sur la sécurité des données, l’impact sur l’emploi et la prise de décision automatisée mais aussi sur la vie privée.

L’émergence d’outils d’IA capables de « déshabiller » les individus à partir d’images a suscité des préoccupations croissantes quant à leurs conséquences juridiques et à leurs implications éthiques.

Les outils d’IA qui prétendent déshabiller les individus reposent sur des techniques de vision par ordinateur et d’apprentissage profond sophistiquées. Cependant, il est important de prendre en compte leurs limites et de considérer les implications éthiques et juridiques qui les entourent.

La protection de la vie privée, le consentement des individus et la prévention de l’utilisation abusive de ces outils sont des enjeux cruciaux à aborder dans notre société.

Cet article examine les défis juridiques posés par ces outils et explore les questions éthiques qui les entourent.

I. Les outils d’IA qui déshabillent : Comment fonctionnent-ils ?

La vision par ordinateur et l’apprentissage profond : La vision par ordinateur est une branche de l’IA qui se concentre sur l’interprétation et l’analyse des informations visuelles. Elle implique l’utilisation d’algorithmes et de techniques spécifiques pour extraire des caractéristiques des images et comprendre leur contenu. L’apprentissage profond, également connu sous le nom de deep learning, est une approche de l’IA qui utilise des réseaux de neurones artificiels pour apprendre à partir de données. Ces réseaux sont capables d’apprendre et de généraliser à partir d’un grand nombre d’exemples, leur permettant ainsi de reconnaître des motifs et des structures complexes dans les images.

Techniques de déshabillage : Les outils d’IA qui prétendent déshabiller les individus exploitent diverses techniques pour générer des représentations virtuelles du corps nu à partir d’images habillées. Voici quelques-unes des approches couramment utilisées :

– Segmentation sémantique : Cette technique consiste à diviser l’image en différentes régions et à attribuer des étiquettes sémantiques à chaque région (par exemple, corps, vêtements, arrière-plan). En utilisant des modèles d’apprentissage profond, l’outil peut prédire les régions du corps sous les vêtements en se basant sur des caractéristiques visuelles.

– Génération de texture : Ces outils utilisent des modèles d’apprentissage profond pour générer des textures réalistes du corps humain nu. Ils apprennent à partir d’un grand nombre d’images de personnes nues afin de capturer les caractéristiques et les variations de la texture de la peau.

– Reconstruction 3D : Certains outils exploitent des techniques de reconstruction 3D pour estimer la forme et la structure du corps humain sous les vêtements. Ils utilisent des informations géométriques et des modèles statistiques pour générer une représentation en trois dimensions du corps nu.

Limitations et précisions : Il est essentiel de noter que les outils d’IA qui prétendent déshabiller les individus sont loin d’être parfaits et comportent des limites importantes. Les résultats peuvent être imprécis, avec des erreurs de segmentation et des artefacts visuels. De plus, ces outils ne sont généralement pas en mesure de prédire avec précision les détails anatomiques spécifiques. De plus, l’utilisation de ces outils soulève des préoccupations éthiques et juridiques majeures en termes de vie privée, de consentement et de respect des droits fondamentaux des individus.

II. Les conséquences juridiques

Violation de la vie privée : L’utilisation de l’IA pour déshabiller les individus soulève des questions fondamentales en matière de vie privée. Le fait de manipuler des images pour révéler le corps nu d’une personne sans son consentement constitue une violation flagrante de sa vie privée (Article 9 du Code civil et Article 8 de la Convention de sauvegarde des droits de l’Homme et des libertés fondamentales). Les individus ont le droit d’avoir le contrôle sur leur propre image et de décider de la manière dont ils sont présentés au public. Les outils d’IA qui déshabillent peuvent être utilisés à des fins malveillantes, tels que la diffusion d’images manipulées sans consentement, entraînant des dommages considérables pour la réputation et l’intégrité personnelle des individus concernés. Cette violation de la vie privée peut également avoir des répercussions sur leur bien-être psychologique et émotionnel.

Diffamation et atteinte à la réputation : L’utilisation abusive de ces outils d’IA peut également entraîner des conséquences juridiques liées à la diffamation et à l’atteinte à la réputation. La diffusion d’images manipulées sans consentement peut causer des préjudices importants aux personnes concernées, les exposant à des critiques, des discriminations ou des conséquences néfastes sur leur vie professionnelle et personnelle.  Dans certains cas, les individus pourraient être faussement accusés de comportements immoraux ou illégaux en raison de l’utilisation de ces outils. Cela soulève des questions juridiques complexes en termes de diffamation et de préjudice moral, nécessitant une réponse légale adéquate pour protéger les droits des individus.

Propriété intellectuelle et droits d’auteur : Les outils d’IA qui déshabillent peuvent également porter atteinte aux droits de propriété intellectuelle et aux droits d’auteur. Lorsque des images originales, protégées par le droit d’auteur, sont utilisées sans autorisation pour générer des versions déshabillées, cela constitue une violation des droits de propriété intellectuelle du créateur de l’image. Il est essentiel d’établir des réglementations claires pour régir l’utilisation de ces outils afin de protéger les droits des créateurs d’images et de prévenir la violation des droits de propriété intellectuelle.

Cadre juridique insuffisant : Le développement rapide de l’IA et des outils de déshabillage pose un défi pour le cadre juridique existant. Les lois sur la protection de la vie privée et les atteintes à la réputation doivent être adaptées pour prendre en compte ces nouvelles technologies et leurs implications. Il est nécessaire de mettre en place des réglementations spécifiques pour encadrer l’utilisation de ces outils, définir les limites légales et imposer des sanctions dissuasives en cas d’abus.

L’utilisation de l’IA pour déshabiller les individus soulève des préoccupations majeures en termes de protection de la vie privée, de diffamation, de droits d’auteur et de propriété intellectuelle. Il est essentiel de développer un cadre juridique solide pour réglementer ces technologies et prévenir les abus. La protection des droits individuels et la préservation de la dignité humaine doivent être au cœur des préoccupations lors de l’utilisation de ces outils d’IA controversés.

III. Les enjeux éthiques

Cette technologie soulève des préoccupations majeures en matière de vie privée, de consentement, de sécurité et d’exploitation.

Consentement et vie privée : L’utilisation de l’IA qui déshabille soulève des questions fondamentales de consentement et de vie privée. Lorsque des images sont modifiées pour montrer des personnes nues, cela viole leur intimité et leur droit à contrôler leur propre image. Les individus doivent être informés de l’utilisation de cette technologie et donner leur consentement éclairé pour que leurs images soient modifiées de cette manière.

Prévention des abus et de l’exploitation : L’IA qui déshabille peut potentiellement être utilisée à des fins d’exploitation et de harcèlement. Il est essentiel de mettre en place des mesures de prévention pour empêcher l’utilisation abusive de cette technologie, telles que la création et la diffusion non consensuelle de fausses images dénudées. Des réglementations strictes et des mécanismes de signalement doivent être mis en place pour protéger les individus contre ces abus.

Biais et discrimination : L’IA qui déshabille peut également perpétuer des biais et des discriminations existants. Si cette technologie est utilisée de manière discriminatoire, elle peut causer des dommages considérables en renforçant les stéréotypes de genre, en alimentant la culture du viol et en exacerbant les inégalités. Il est crucial de prendre en compte ces préoccupations lors du développement et de l’utilisation de tels systèmes.

Sécurité des données : L’utilisation de l’IA qui déshabille implique la collecte, le stockage et le traitement de grandes quantités de données sensibles. Il est primordial de mettre en place des protocoles de sécurité robustes pour protéger ces données contre les atteintes à la vie privée et les cyberattaques. La transparence et la responsabilité sont également essentielles pour garantir que les données ne soient pas utilisées à des fins malveillantes.

L’IA qui déshabille est une technologie controversée qui soulève des préoccupations éthiques majeures. Pour que cette technologie puisse être utilisée de manière éthique, il est crucial de protéger la vie privée, d’obtenir un consentement éclairé, de prévenir les abus, de lutter contre les discriminations et de garantir la sécurité des données. Les réglementations appropriées doivent être mises en place pour encadrer l’utilisation de cette technologie et prévenir les conséquences néfastes. En fin de compte, il est essentiel de trouver un équilibre entre l’innovation technologique et le respect des droits et de la dignité des individus.

III. Les mesures légales et réglementaires

L’IA qui déshabille est une technologie controversée qui soulève des inquiétudes considérables en matière de vie privée, de consentement et de sécurité. Face à ces préoccupations, il est impératif de mettre en place des mesures légales et réglementaires pour encadrer l’utilisation de cette technologie et protéger les droits fondamentaux des individus.

Consentement éclairé et divulgation : L’une des premières mesures légales à envisager est l’exigence d’un consentement éclairé et spécifique de la part des individus dont les images pourraient être manipulées par l’IA qui déshabille. Les lois devraient exiger que les développeurs d’IA et les utilisateurs finaux obtiennent un consentement explicite et informé avant de traiter les images des individus. De plus, des informations claires et transparentes sur l’utilisation de cette technologie devraient être fournies aux personnes concernées.

Interdiction de l’utilisation abusive : Il est essentiel d’établir des lois qui interdisent explicitement l’utilisation abusive de l’IA qui déshabille, telle que la création et la diffusion non consensuelle d’images dénudées. Ces lois devraient prévoir des sanctions appropriées pour ceux qui enfreignent ces interdictions, afin de dissuader les comportements malveillants et de protéger les victimes potentielles.

Transparence algorithmique et responsabilité : Les développeurs d’IA qui déshabille devraient être tenus de fournir des informations détaillées sur les algorithmes utilisés, afin de garantir la transparence et de permettre une évaluation indépendante des risques et des biais potentiels. De plus, les entreprises et les organisations qui utilisent cette technologie devraient être tenues responsables de son utilisation appropriée et de ses éventuels abus.

Protection des données sensibles : Les lois sur la protection des données devraient être renforcées pour prendre en compte les risques liés à l’IA qui déshabille. Les réglementations devraient exiger des normes de sécurité strictes pour le stockage et le traitement des données sensibles utilisées par cette technologie. De plus, des protocoles de consentement clairs devraient être mis en place pour garantir que les individus aient un contrôle total sur l’utilisation de leurs données.

Coopération internationale et normes communes : Étant donné que l’IA qui déshabille peut circuler à l’échelle mondiale via Internet, il est important d’établir une coopération internationale et de développer des normes communes pour réglementer son utilisation. Des accords internationaux et des initiatives multilatérales pourraient être envisagés pour harmoniser les réglementations et faciliter la collaboration entre les pays dans la lutte contre les abus de cette technologie.

De plus, la sensibilisation et l’éducation du public sur les risques liés à l’utilisation de ces outils sont essentielles. Il est important de promouvoir une utilisation éthique de l’IA et de sensibiliser les individus aux conséquences néfastes de la manipulation d’images.

Face aux enjeux éthiques posés par l’IA qui déshabille, des mesures légales et réglementaires solides sont nécessaires pour protéger la vie privée, garantir le consentement éclairé des individus et prévenir les abus. Les gouvernements, les institutions juridiques et les organismes de réglementation doivent travailler ensemble pour élaborer des lois adaptées à cette technologie émergente, tout en trouvant un équilibre entre l’innovation technologique et la protection des droits fondamentaux des individus.

Pour lire une version plus complète de cet article sur l’IA et les logiciels qui déshabillent, cliquer

Sources :

  1. Cour de cassation, civile, Chambre sociale, 2 février 2011, 09-72.450, Inédit – Légifrance (legifrance.gouv.fr)
  2. Cour de cassation, civile, Chambre civile 1, 11 juillet 2018, 17-22.381, Publié au bulletin – Légifrance (legifrance.gouv.fr)
  3. Cour de cassation, civile, Chambre civile 1, 20 octobre 2021, 20-14.354, Inédit – Légifrance (legifrance.gouv.fr)
  4. Cour de Cassation, Chambre civile 2, du 30 juin 2004, 02-19.599, Publié au bulletin – Légifrance (legifrance.gouv.fr)
  5. Cour de cassation, civile, Chambre commerciale, 15 septembre 2015, 14-20.320, Inédit – Légifrance (legifrance.gouv.fr)
  6. https://www.cnil.fr/fr/reglement-europeen-protection-donnees/chapitre2#Article9
  7. https://www.cnil.fr/fr/reglement-europeen-protection-donnees/chapitre2#Article5
  8. https://www.cnil.fr/fr/reglement-europeen-protection-donnees/chapitre2#Article7
  9. https://www.cnil.fr/fr/reglement-europeen-protection-donnees/chapitre1#Article4
  10. https://www.cnil.fr/fr/reglement-europeen-protection-donnees/chapitre2#Article6

LE ROLE DES PLATEFORMES EN LIGNE DANS LA LUTTE CONTRE LA MANIPULATION DE L’INFORMATION

La révolution numérique a apporté de nombreux changements et notamment un accès illimité à l’information. Or dans le même temps, le développement d’Internet et des réseaux de télécommunications a permis à n’importe qui de s’exprimer, de partager et de créer des contenus informationnels. La manière dont nous nous informons a parallèlement radicalement changé et la crédibilité accordée aux médias ainsi qu’aux institutions publiques s’est affaiblie au profit de nouveaux acteurs émergeant sur Internet qui tirent souvent leur légitimité par le nombre de personnes qui les suivent.  

NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire !

Par ailleurs, les bulles algorithmiques créées par les plateformes que nous utilisons nous confortent dans nos idées et bien souvent le sensationnisme est préféré au réalisme qui laisse place à une euphorie générale.

Mais comment s’assurer que les informations que nous consultons sont bel et bien fiables ?
Comment être sûr que nous ne subissons aucune influence de la part des algorithmes ?
Et surtout quels sont les risques liés à la manipulation de l’information ?

Comme en témoigne les récentes élections présidentielles américaines de 2016, les élections françaises de 2017 et la campagne du Brexit influencée par la société Cambridge Analytica, ce phénomène de déstructuration du paysage de l’information a des répercussions sur notre conception du monde et peut donc influencer le choix final à l’occasion d’élections.

Face aux risques grandissants de manipulation à grande échelle, la France a fait le choix en 2018, d’ajouter à son arsenal législatif une nouvelle loi visant à lutter contre la manipulation de l’information.

Tout d’abord, cette loi introduit une nouvelle mesure de référé visant à lutter contre la manipulation de l’information à l’heure numérique et de permettre d’endiguer la diffusion de fausses informations pendant les périodes de campagne électorale (article L. 163-2 du Code électoral). Cette mesure ne fera pas l’objet d’un développement ici.


Besoin de l’aide d’un avocat pour un problème de contrefaçon ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien


En parallèle, elle sollicite les plateformes dans cette lutte en leur imposant un certain nombre d’obligations de moyens et de transparence. D’une part, elle permet de responsabiliser les plateformes en leur imposant la mise à disposition d’outils qui permettent aux utilisateurs de signaler les contenus. D’autre part, elle tend à rendre plus transparents le fonctionnement et l’effectivité des mesures en instaurant un mécanisme de coopération avec l’ARCOM (anciennement le CSA).

Cependant les récentes révélations impliquant une société israélienne dans la manipulation d’élections à grande échelle et le piratage de responsables politiques africains remuent les inquiétudes liées à la diffusion de fausses informations en ligne. Il semble donc nécessaire de rester vigilant et de lutter à notre échelle contre la diffusion de fausses informations.

 I. Le devoir de coopération des opérateurs de plateforme en ligne lors des périodes électorales

Même si le juge peut prendre des mesures pour lutter contre la manipulation de l’information, les opérateurs de plateformes en ligne ont la responsabilité de réguler les contenus qui se propagent sur leur plateforme. Dans cet objectif, la loi du 22 décembre 2018 impose aux plateformes en ligne un devoir de coopération durant les périodes électorales, qui implique à la fois des obligations de moyens et des obligations de transparence.

A. Les plateformes concernées

Codifié à l’article 163-1 du Code électoral, les opérateurs plateformes en ligne concernés par ces obligations lors des périodes électorales sont ceux visés à l’article L. 111-7 du Code de la consommation.

Comme le précise cet article « Est qualifiée d’opérateur de plateforme en ligne toute personne physique ou morale proposant, à titre professionnel, de manière rémunérée ou non, un service de communication au public en ligne reposant sur :

1 o Le classement ou le référencement, au moyen d’algorithmes informatiques, de contenus, de biens ou de services proposés ou mis en ligne par des tiers ;

 2o Ou la mise en relation de plusieurs parties en vue de la vente d’un bien, de la fourniture d’un service ou de l’échange ou du partage d’un contenu, d’un bien ou d’un service. »

Conformément au décret du 10 avril 2019, sont uniquement visés les opérateurs de plateforme en ligne dépassant un seuil de 5 millions de visiteurs unique par mois calculé sur la base de la dernière année civile (Décret n° 2019-297, 10 avr. 2019 relatif aux obligations d’information des opérateurs de plateforme en ligne assurant la promotion de contenus d’information se rattachant à un débat d’intérêt général, JO 11 avr., n° 40). Ce décret est désormais codifié aux articles D. 102-1, I et suivants du Code électoral.

B. Les obligations des opérateurs de plateformes en ligne lors des périodes électorales

La loi du 22 décembre 2018 relative à la manipulation de l’information poursuit une logique de responsabilisation des opérateurs de plateforme en ligne, dans l’objectif de construire une relation de confiance entre eux, les pouvoirs publics et la société civile.

  1. Périodes électorales

Les obligations visées à l’article 163-1 du Code électoral ont vocation à s’appliquer « pendant les trois mois précédant le premier jour du mois d’élections générales et jusqu’à la date du tour de scrutin où celles-ci sont acquises ».

Sont visées par ces dispositions l’élection du Président de la République, les élections générales des députés, l’élection des sénateurs, l’élection des représentants au Parlement européen et les consultations référendaires.

  1. Détails des obligations

Le dispositif légal exige des principaux opérateurs de plateformes en ligne de fournir des informations claires et transparentes sur l’identité des personnes ou des entreprises qui paient pour promouvoir des contenus liés à des débats d’intérêt général toujours dans l’optique de lutter contre la propagation de fausses informations pendant les périodes électorales.

Par ailleurs, ils devront « fournir à l’utilisateur une information loyale, claire et transparente sur l’utilisation de ses données personnelles dans le cadre de la promotion d’un contenu d’information se rattachant à un débat d’intérêt général ».

Enfin, ces opérateurs de plateforme devront également « rendre public le montant des rémunérations reçues en contrepartie de la promotion de tels contenus d’information lorsque leur montant est supérieur à un seuil déterminé. »

L’article D. 102-1 du Code électoral précise que « le montant de rémunération à partir duquel ces opérateurs sont soumis aux obligations du 3 o de l’article L. 163-1 est fixé à 100 euros hors taxe, pour chaque contenu d’information se rattachant à un débat d’intérêt général. »

Conformément aux dispositions des articles L. 163-1 et D.102-2 du Code électoral, ces informations sont agrégées au sein d’un registre mis à la disposition du public par voie électronique, dans un format ouvert, et régulièrement mis à jour pendant les trois mois précédant le premier jour du mois d’élections générales et jusqu’à la date du tour de scrutin où celles-ci sont acquises.

II. La responsabilisation des opérateurs de plateformes en ligne pour la lutte contre la manipulation de l’information

La loi du 22 décembre 2018 instaure un devoir de coopération aux opérateurs de plateforme en ligne dans la lutte contre la manipulation de l’information, et ce, même en dehors des périodes électorales. Le dispositif légal donne également des prérogatives nouvelles à l’ARCOM (anciennement le CSA) dans la lutte contre la diffusion de fausses informations.

A. Les obligations des opérateurs de plateformes en ligne dans la lutte contre la désinformation

L’article 11 de la loi du 22 décembre 2018 prévoit une série d’obligations que les opérateurs de plateformes en ligne doivent mettre en place.

En complément des obligations imposées aux opérateurs de plateformes en ligne, le Conseil Supérieur de l’Audiovisuel (CSA) a publié une recommandation le 15 mai 2019 pour améliorer la lutte contre la propagation de fausses informations qui pourraient perturber l’ordre public ou compromettre l’intégrité des élections (mentionnées dans l’article 33-1-1 de la loi du 30 septembre 1986). Cette recommandation est basée sur les initiatives de l’Union européenne pour lutter contre la désinformation, notamment la communication de la Commission européenne du 26 avril 2018 intitulée « Lutter contre la désinformation en ligne : une approche européenne », le code de pratique sur la désinformation du 26 septembre 2018 et la communication conjointe fixant le plan d’action contre la désinformation de l’Union européenne du 5 décembre 2018.

  1. La mise en place d’un dispositif de signalement facilement visible et accessible

Le dispositif de signalement doit être facile d’accès et visible. Concrètement, un intitulé clair doit désigner le dispositif et le rendre identifiable, il peut s’agir par exemple d’un intitulé « Signaler le contenu ». Les plateformes sont incitées à prévoir, dans leur formulaire de signalement, une catégorie « Fausse information ».

L’affichage de ce dispositif doit se trouver à proximité immédiat du contenu ou du compte susceptible d’être signalé.

Enfin, la recommandation incite à simplifier au maximum le dispositif de signalement en rendant possible la finalisation de cette procédure en trois clics.

B. Les obligations de transparence des opérateurs de plateformes en ligne envers leurs utilisateurs

En sus de l’obligation légale de fournir un outil de signalement, les opérateurs doivent mettre en œuvre des mesures supplémentaires concernant la transparence de leurs algorithmes. Cela implique d’indiquer la promotion de contenus provenant d’entreprises, d’agences de presse et de services de communication audiovisuelle, de lutter contre les comptes qui propagent de fausses informations de manière massive, de fournir aux utilisateurs des informations sur les contenus sponsorisés qui se rapporte aux débats d’intérêt général, ainsi que d’assurer une éducation aux médias et à l’information.

  1. La transparence des algorithmes

L’objectif clairement affiché ici est de redonner aux utilisateurs le contrôle et la capacité d’exercer leur esprit critique en toute connaissance de cause vis-à-vis des contenus proposés par les plateformes en ligne. Pour y parvenir, ils doivent pouvoir accéder à des informations leur permettant de comprendre les principes de fonctionnement des algorithmes qui régissent la sélection, l’organisation et l’ordonnancement de ces contenus.

Cette obligation est motivée par le souci de faciliter la compréhension des algorithmes utilisés pour la sélection de contenus, afin d’éviter les risques associés aux bulles algorithmiques qui renforcent les convictions, attisent l’extrémisme, la discorde, la violence, les dérives sectaires et les obscurantismes.

  1. La promotion des contenus issus d’entreprises, d’agences de presse et de services de communication audiovisuelle

À travers cette obligation, le législateur souhaite que les plateformes en ligne valorisent les contenus fiables.

La recommandation du 15 mai 2019 encourage à ce titre les opérateurs de plateforme en ligne à tenir compte des démarches de labellisation, notamment celles réalisées par les entreprises et agences de presse et les services de communication audiovisuelle et de déployer des moyens technologiques visant à mettre en avant les informations provenant de ces sources et en particulier les contenus dits de « fact-checking » dans les résultats des moteurs de recherche, les fils d’actualité et les autres canaux de diffusion opérant par classement automatisé.

Comme le relève l’ARCOM dans son bilan annuel pour l’année 2021, le module NewsGuard, en partenariat avec Bing, permet d’indiquer au moyen d’un code-couleur la fiabilité d’une source d’information, ce qui contribue à la bonne information des utilisateurs. Ce dispositif insérer directement sur le navigateur web permet aux internautes qui le souhaitent, de vérifier si un site d’information est fiable et crédible sur la base de neuf critères réunis dans une « étiquette » informative dite « étiquette nutritionnelle ».

  1. La lutte contre les comptes propageant massivement de fausses informations

Les plateformes doivent mettre en place des mesures pour détecter et signaler les comportements inauthentiques et les activités de manipulation automatisée des contenus (bots).

L’ARCOM recommande des procédures appropriées afin d’assurer la détection des comptes propageant massivement de fausses informations et destinées à faire obstacle à l’action de ces comptes (avertissement, suppression, mise en quarantaine, restrictions des droits de l’utilisateur ou de la portée des contenus qu’il diffuse, etc.) dans le respect de la liberté d’expression et de communication.

  1. L’information des utilisateurs sur la nature, l’origine, les modalités de diffusion des contenus et l’identité des personnes versant des rémunérations en contrepartie de la promotion de contenus d’information

Il s’agit encore une fois de déployer des dispositifs appropriés permettant aux utilisateurs d’être informés sur la nature, l’origine et les modalités de diffusion des contenus.

Plusieurs opérateurs ont mis en place des bibliothèques publicitaires permettant d’accéder à tout ou partie des contenus sponsorisés.

  1. Favoriser l’éducation aux médias et à l’information

Les opérateurs sont encouragés à sensibiliser les utilisateurs à l’influence de leurs propres contenus. Ils doivent contribuer à développer leur sens critique, particulièrement celui des plus jeunes.

À ce titre, l’ARCOM incite les plateformes à développer des outils adaptés d’analyse de la fiabilité des sources d’information, tels que des modules vidéo et des guides qui pourront aider les utilisateurs à identifier les sources fiables.

À titre d’exemple, il est possible de citer le programme « Be Internet Awesome » lancé en 2017 par Google. Il vise à éduquer les enfants de 9 à 14 ans aux rudiments de la citoyenneté à l’ère du numérique et à la sécurité en ligne afin qu’ils puissent « explorer le monde avec confiance ».

C. La coopération des opérateurs de plateformes en ligne avec l’ARCOM

Au-delà de ces obligations, les opérateurs de plateformes en ligne sont tenus de transmettre une déclaration annuelle à l’ARCOM et de désigner un interlocuteur référent.

  1. Les informations à transmettre à l’ARCOM

  1. Déclaration annuelle des opérateurs de plateforme en ligne

Conformément à l’article 11 de cette loi, les opérateurs de plateforme en ligne dépassant un seuil de connexion de 5 millions d’utilisateurs uniques par mois (moyenne annuelle), sont tenus de transmettre au Conseil supérieur de l’audiovisuel une déclaration annuelle faisant état des moyens déployés pour œuvrer à cette lutte.

Chaque année, l’ARCOM adresse un questionnaire aux opérateurs de plateformes en ligne. Ce questionnaire a pour objectifs d’accompagner les opérateurs dans la préparation de leur déclaration annuelle. Il est possible de visualiser l’ensemble des questionnaires directement depuis son site internet.

L’article 12 de la même loi confie à l’autorité le soin d’établir un bilan de l’application et de l’effectivité de ces mesures.

En 2022, douze opérateurs ont adressé une déclaration à l’autorité de régulation de la communication audiovisuelle et numérique (ARCOM). Parmi eux, Dailymotion, Google, LinkedIn, Meta, Microsoft, Pinterest, Snapchat, TikTok, Twitter, Webedia, la Fondation Wikimédia et Yahoo!.

  1. Désignation d’un interlocuteur référent

Au titre de l’article 13 de la loi du 22 décembre 2018, chaque opérateur de plateforme en ligne est tenu de désigner un représentant légal exerçant les fonctions d’interlocuteur référent sur le territoire français.

Dans sa recommandation du 15 mai 2019 aux opérateurs de plateforme en ligne dans le cadre du devoir de coopération en matière de lutte contre la diffusion de fausses informations, l’ARCOM invite chaque opérateur à lui faire connaître ce représentant par le biais d’un formulaire de déclaration disponible en ligne.

  1. Sanctions

En cas de manquement à ces obligations, les opérateurs de plateforme en ligne peuvent être sanctionnés par la CNIL (Commission nationale de l’informatique et des libertés) ou par le CSA (Conseil supérieur de l’audiovisuel). La CNIL est compétente pour sanctionner les manquements aux obligations en matière de protection des données personnelles, tandis que le CSA est compétent pour les manquements aux obligations en matière de diffusion de contenus audiovisuels.

Les sanctions peuvent inclure des amendes, des injonctions, des retraits de contenus, voire la suspension ou la fermeture de la plateforme en ligne en cas de récidive ou de manquements graves. La loi prévoit également que les utilisateurs puissent signaler les contenus qu’ils considèrent comme faux ou trompeurs aux opérateurs de plateforme en ligne et que ces derniers devront les examiner et les traiter dans un délai raisonnable.

III. La genèse de la désinformation et les risques

À une échelle plus large, la manipulation de l’information se répand dans différents domaines et ne se limite pas aux seules élections. La diffusion de fausses informations a pris ses quartiers sur les plateformes en ligne que nous utilisons quotidiennement, et pour lutter contre ce fléau, il apparaît essentiel de comprendre son origine et d’évaluer ses conséquences sur nos sociétés.

A. L’origine de la désinformation

La désinformation ne se limite pas aux « fake news », mais englobe toute information fausse, inexacte ou trompeuse qui est délibérément conçue, présentée et promue dans le but de causer un préjudice public ou de réaliser des gains financiers. Cependant, cela n’inclut pas les problèmes résultant de la création et de la diffusion en ligne de contenus illégaux, tels que la diffamation, les discours haineux ou l’incitation à la violence, qui sont réglementés par la législation européenne ou nationale, ni d’autres formes de déformation délibérée mais non trompeuse des faits.

En 2018, le scandale « Cambridge Analytica » avait permis de révéler comment l’entreprise britannique avait acquis les données personnelles de près de 87 millions d’utilisateurs de Facebook pour influencer les électeurs à « une échelle industrielle ». La société, qui vendait ses services dans une soixantaine d’États (en passant du régime iranien à la compagnie pétrolière nationale malaisienne) s’est à ce titre retrouvée accusée d’avoir manipulé de nombreuses élections. Elle a notamment contribué à la victoire de Donald Trump en 2016 aux États-Unis et au vote du Brexit en Angleterre. Lorsque l’affaire a fait la une des journaux, le nom de Cambridge Analytica est devenu synonyme de désinformation dans le monde entier.

En 2016, la Macédoine du Nord a été impliquée dans une affaire de désinformation liée aux élections présidentielles américaines. Des individus basés sur ce pays ont été créés et diffusés de fausses informations en ligne pour influencer l’opinion publique américaine et soutenir le candidat républicain Donald Trump en discréditant sa rivale, la candidate démocrate Hillary Clinton. Ces fausses nouvelles ont permis aux créateurs de sites web de générer des revenus publicitaires, certains gagnant jusqu’à 3 000 dollars par mois. Une véritable fortune dans un pays où le salaire moyen est de 409 euros. La différence avec le salaire moyen en France est de 82 %. : (https://www.etui.org/fr/themes/sante-et-securite-conditions-de-travail/hesamag/ou-va-le-travail-humain-a-l-ere-du-numerique/a-veles-a-la-rencontre-des-fabricants-de-fausses-nouvelles)

Cette affaire a suscité des inquiétudes quant à la capacité des groupes et des individus à utiliser la désinformation en ligne pour influencer les résultats des et l’opinion publique. Depuis, plusieurs mesures ont été prises pour lutter contre la désinformation en ligne, notamment en Macédoine du Nord et dans d’autres pays.

Malheureusement la diffusion de fausses informations n’a pas pris fin avec les élections puisque les fabricants de fausses nouvelles s’efforcent de trouver de nouvelles thématiques telles que la nutrition, les véhicules automobiles, la santé, afin de continuer à générer des revenus.

Plus récemment, le consortium de journalistes « Forbidden stories » a révélé les pratiques d’une société israélienne spécialisée dans la manipulation de l’information. En poursuivant le travail de Gauri Lankesh, journaliste indienne qui enquêtait sur la désinformation et « les usines à mensonges », assassinée en 2017. La reprise du projet « Story Killers » par Forbidden stories dévoile une industrie usant de toutes les armes à sa disposition pour manipuler les médias et l’opinion publique, aux dépens de l’information et de la démocratie.

Ce travail d’investigation mené par les journalistes a permis de démontrer l’implication de cette société dans la manipulation de trente-trois élections à travers le monde et revendique parmi elles vingt-sept « succès ». Son mode opératoire consistait en la propagation de fausses informations notamment par l’intermédiaire de faux profils ou de bots.

L’enquête révèle également le piratage des politiciens africains ainsi que la manipulation d’information sur une chaîne de télévision française : BFM TV.

Le présentateur Rachid M’Barki est accusé par sa hiérarchie d’avoir diffusé à l’antenne des contenus non validés avec des « soupçons d’ingérence » au service d’intérêts étrangers.

Les contenus problématiques identifiés portent sur des thèmes concernant des oligarques russes, le Qatar, le Soudan, le Sahara marocain et le Cameroun ont été présenté et fourni clés en main à la chaîne pour le compte de clients étrangers.

Ces affaires témoignent des risques que comprend la désinformation. Elle peut être utilisée pour manipuler l’opinion publique et influencer les résultats des élections, des référendums ou des votes en faveur d’un parti politique ou d’un candidat, mais pas seulement… C’est justement ce que tente de mettre en lumière le récent rapport Bronner « Les lumières à l’ère numérique ».

B. Les risques de la désinformation

De nos jours, il existe de nombreuses sources d’informations accessibles, allant des journaux traditionnels aux réseaux sociaux et aux blogs. Les médias sociaux en particulier ont modifié la manière dont les personnes obtiennent des informations. Les utilisateurs de ces plateformes peuvent accéder aux informations provenant du monde entier en temps réel et les partager facilement avec leur réseau. Cependant, cette facilité d’accès à l’information a également entraîné la propagation de la désinformation et des fausses nouvelles, rendant difficile la distinction entre les informations fiables et les informations trompeuses.

La désinformation est très préjudiciable et peut entraîner des conséquences sur les individus et la société en général, semant la confusion et créant des incertitudes dans l’esprit des personnes. Cela peut entraîner une perte de confiance dans les institutions et les sources d’informations fiables.

Les conséquences de la désinformation sont clairement visibles dans des événements récents, tels que l’attaque du Capitole en janvier 2021 ou la montée des mouvements antivaccins en France. La désinformation est donc une menace pour la sécurité des personnes et la souveraineté des États, contribuant également à la propagation des préjugés et des stéréotypes.

De plus, les fausses informations et les rumeurs peuvent causer des dommages à la réputation d’une personne, d’une entreprise ou d’une organisation. Il est donc crucial de vérifier l’exactitude des informations avant de les partager ou de prendre des décisions fondées sur celles-ci.

 

Pour lire un article plus complet sur la désinformation en ligne et les obligations des plateformes, cliquez

SOURCES :