A propos de Murielle Cahen

https://www.murielle-cahen.fr/

Avocat à la cour (Paris 5eme arrondissement) J'interviens principalement en droit de la propriété intellectuelle, droit des nouvelles technologies, droit civil & familial, droit pénal, droit de l'immobilier, droit du travail, droit de la consommation Consultation juridique en ligne - Réponse en 24/48h max. (€100 TTC) Titulaire du certificat de spécialisation en droit de l'informatique et droit de l'internet. Editrice du site web : Avocat Online depuis 1999. Droit de l'informatique, du logiciel et de l'Internet. Propriété intellectuelle, licence, presse, cession, transfert de technologie. droit d'auteur, des marques, négociation et arbitrage... Cabinet d'avocats à Paris. Droit internet et droit social, droit des affaires spécialisé dans les nouvelles technologies et lois internet...

Articles de Murielle Cahen:

LE DROIT AU DEREFERENCEMENT

L’arrivée d’internet a grandement contribué au développement de nouveaux usages facilitant notre vie. Le développement des plateformes de services en ligne telles que les réseaux sociaux et les moteurs de recherches ont permis de faciliter nos échanges et notre accès à l’information.

Les moteurs de recherche sont des outils formidables qui correspondent à un grand répertoire d’informations libres qui, une fois en ligne, ne sont plus maîtrisées. Internet accroît le sentiment d’impunité et lorsque les informations sont accessibles à n’importe qui, nombreux sont les usages dérivés qui en sont fait pour ternir la réputation.

Pour faire supprimer un contenu qui bafoue vos droits, utilisez le service mis en place par le cabinet Murielle-Isabelle CAHEN.

Face au problème grandissant, le droit est venu préciser le rôle des plateformes dans la gestion de leur contenu, mais également accorder des droits aux utilisateurs afin qu’internet ne deviennent pas une zone de non-droit.

Parmi ces droits, le droit au déréférencement permet de lutter contre la publication de données à caractère personnel qui porte atteinte aux droits fondamentaux de la personne ou à sa vie privée. Il permet de faire supprimer un ou plusieurs résultats fournis par un moteur de recherche à l’issue d’une requête effectuée à partir de l’identité (nom et prénom) d’une personne.

Aussi souvent appelé « droit à l’oubli », le droit au déréférencement était déjà prévu par la Directive 95/46/CE, et aujourd’hui intégré à l’article 17 du RGPD. (https://www.cnil.fr/fr/reglement-europeen-protection-donnees/chapitre3#Article17).
Issu d’une longue réflexion, cet article a créé le droit à l’effacement et a permis une inversion de la charge de la preuve, à présent le responsable de traitement supporte la charge de la preuve. Ce droit a vu son application précisée par une série d’arrêts rendus entre 2014 et 2020.


Besoin de l’aide d’un avocat pour un problème de droit à l’oubli ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien


A travers cette saga jurisprudentielle, la Cour européenne de justice, mais également le Conseil d’État se sont attelés à définir les modalités de mise en œuvre du droit au déréférencement aux moteurs de recherche (I). En pratique, le droit au déréférencement a connu différentes évolutions, mais connaît également de nombreuses limites aussi bien à travers sa mise en œuvre, qu’à travers le rôle accordé aux moteurs de recherche (II).

I. La définition des modalités de mise en œuvre du droit au déréférencement

Afin de garantir une protection adéquate des personnes faisant l’objet d’un traitement de données par les moteurs de recherche, la CJUE a dû déterminer les responsabilités et devoirs de ces nouveaux acteurs au regard de la législation existante. Pour se faire, elle a d’abord procédé à la vérification de l’applicabilité de la directive européenne 95/46/CE aux moteurs de recherche (A). Elle a ensuite fixé un ensemble d’obligations découlant de la réglementation et définit leurs modalités de mise en œuvre par ces mêmes acteurs (B).

A. L’intervention de la CJUE dans la détermination de l’application de la Directive 95/46/CE aux moteurs de recherche

C’est à l’occasion de sa célèbre décision en date du 13 mai 2014 que la CJUE est venue préciser les modalités d’application du droit au déréférencement par les moteurs de recherche.  (CJUE, 13 mai 2014, affaire C-131/12, Google Spain SL, Google Inc. c/ Agencia Española de Protección de Datos)

Dans un premier temps, la CJUE procède à la vérification de l’applicabilité de la Directive 95/46/CE (aujourd’hui abrogée) au moteur de recherche, en l’occurrence Google.
Pour se faire elle effectue une qualification des activités du moteur de recherche qu’elle considère par extension de son interprétation classique, être des traitements de données. Puis, elle effectue un contrôle sur la qualité du moteur de recherche, et au regard de ses activités et de son rôle dans la détermination des finalités et moyens du traitement, lui confère la qualité de responsable de traitement.

La Cour l’existence d’un lien de cause à effet entre les résultats indexés par le moteur de recherche dans le cadre de ses activités et les atteintes à la vie privée dont sont victimes les personnes concernées.

Cette décision s’accorde difficilement avec la position antérieure de la CJUE qui considérait que ce même moteur de recherche, Google, avait un rôle « purement technique, automatique et passif ». (Arrêt de la CJUE du 23 mars 2010, affaires jointes C-236/08 à C-238/08 : )

Ce raisonnement adopté par la Cour témoigne de sa volonté de faire produire ses effets à la directive européenne afin de réguler les activités du moteur de recherche. La CJUE confirme l’application de la Directive 95/46/CE et ordonne à Google de la respecter afin de garantir une protection efficace et complète des personnes concernées.

Dans un second temps la Cour doit déterminer si la localisation de Google n’empêche pas l’application de la Directive 95/46/CE. Pour se faire, elle analyse si l’entreprise remplie une des trois conditions fixées par la directive. La Cour se livre alors à une réécriture du considérant 19 de la directive et procède à la qualification d’établissement stable de Google Spain.

Cette mise en balance des différents intérêts a permis de renforcer la protection des personnes concernées et de responsabiliser Google envers ses utilisateurs. Cette décision ne responsabilise pas seulement Google, elle apporte ainsi un cadre nouveau pour les moteurs de recherches qui devront, dès à présent, se conformer à la Directive 95/46/CE.

B. La définition des critères d’évaluation du droit au déréférencement

En vertu de la Directive 95/46/CE, les États membres garantissent aux personnes concernées le droit d’obtenir du responsable de traitement, en l’occurrence le moteur de recherche, l’effacement, la rectification ou le verrouillage des données dont le traitement n’est pas conforme à la directive, notamment en raison du caractère incomplet ou inexact des données.

A travers cette décision, la CJUE définit les critères qui devront permettre aux moteurs de recherche de statuer sur une demande de déréférencement.

Dès lors, chaque demande de déréférencement devra être appréciée au cas par cas afin d’effectuer un juste équilibre (principe de proportionnalité) entre les atteintes aux droits fondamentaux, au respect de la vie privée et à la protection des données que sont susceptibles de provoquer les traitements de données, et le droit à l’information et le droit de la presse. Le droit à l’oubli n’est par conséquent pas un droit absolu.

Précisé par la jurisprudence de 2019, cet examen devra se faire à la lumière d’autres critères que sont la notoriété et la fonction de la personne concernée, il s’agira de déterminer si c’est une personne publique. L’âge de la personne concernée, notamment son âge au moment de la publication, mais aussi la nature des contenus en cause leur caractère plus ou moins objectif, leur exactitude, de s’interroger sur leurs sources.

Le responsable de traitements devra également vérifier les conditions et la date de mise en ligne des contenus, et enfin les éventuelles répercussions que leur référencement est susceptible d’avoir pour la personne concernée (par exemple si la personne rencontre des difficultés à obtenir un prêt, car un article concernant d’anciennes insolvabilités est en ligne).

Cet examen doit se faire à la lumière de différents critères que sont la notoriété, l’âge de minorité, la nature des informations référencées, l’éventuel préjudice subi, le contexte de la publication. Ce qui n’est pas sans rappeler les éléments pris en compte par les juridictions françaises pour déterminer une atteinte à la vie privée.

Ainsi « l’exploitant d’un moteur de recherche est obligé de supprimer de la liste de résultats, affichée à la suite d’une recherche effectuée à partir du nom d’une personne, des liens vers des pages web, publiées par des tiers et contenant des informations relatives à cette personne, également dans l’hypothèse où ce nom ou ces informations ne sont pas effacés préalablement ou simultanément de ces pages web, et ce, le cas échéant, même lorsque leur publication en elle-même sur lesdites pages est licite ».

Finalement, la nouveauté de cet arrêt réside dans le fait que le moteur de recherche peut être obligé de désindexer lesdits liens, même si les données à caractère personnel continuent à demeurer sur les sites web.

II. Les évolutions et les limites de la pratique du droit au déréférencement/du droit à l’oubli

La jurisprudence européenne offre de nouvelles perspectives en instaurant de nouvelles obligations aux moteurs de recherches. Précisé par une série d’arrêts qui découlent de cette première décision, la portée territoriale du droit au déréférencement fait aujourd’hui l’objet de discussions (A). La jurisprudence a amené à la fois des évolutions, mais également d’autres limites dans l’octroi du droit au déréférencement (B).

A. Les limites de la portée territoriale

A la suite d’un différend opposant Google Inc. et la CNIL, le Conseil d’État saisi d’une question préjudicielle la CJUE afin de déterminer la portée territoriale du droit au déréférencement. Autrement dit, s’arrête-t-il aux frontières de l’Union européenne ?

En réponse à cette question, la portée et les limites du droit au déréférencement ont été précisées par la CJUE dans deux nouveaux arrêts du 24 septembre 2019. (https://curia.europa.eu/juris/document/document.jsf?text=&docid=218105&pageIndex=0&doclang=fr&mode=lst&dir=&occ=first&part=1&cid=9762 et https://curia.europa.eu/juris/document/document.jsf?text=&docid=218106&pageIndex=0&doclang=fr&mode=lst&dir=&occ=first&part=1&cid=9963)

A travers l’un de ses deux arrêts, la CJUE répond et considère que le droit au déréférencement doit être respecté dans les États membres de l’Union européenne. Il n’est pas contraignant pour les autres pays. Un moteur de recherche qui reçoit une demande de déréférencement par un citoyen européen n’est obligé de supprimer les résultats concernés que pour ses noms de domaines européens (google.fr, google.be, google.de, etc.).

Toutefois, la Cour de justice de l’Union européenne précise que, si le droit de l’Union n’impose pas cette portée mondiale, « il ne l’interdit pas non plus », ce qui permet à une autorité de contrôle ou à une autorité judiciaire d’ordonner un déréférencement à portée mondiale.

Par une série de décisions rendues le 6 décembre 2019, le Conseil d’État tire les conséquences des décisions de la CJUE.

Cette saga jurisprudentielle s’achèvera le 27 mars 2020, date à laquelle le Conseil d’État prend acte du jugement rendu par la Cour de justice de l’Union européenne et annule la délibération de la CNIL ordonnant un déréférencement mondial. En France, aucune mesure législative ne permet en effet à la CNIL d’exiger de procéder à un déréférencement d’une telle envergure.

Cette décision révèle des difficultés techniques propres aux nouvelles technologies, mais aussi législatives et soulève des interrogations.

L’approbation du déréférencement à échelle européenne n’empêche pas en effet l’utilisation d’outils techniques (VPN) permettant d’outrepasser la mise en œuvre du déréférencement, ce qui remet en cause l’effectivité de ce procédé visant à protéger les utilisateurs. Ne devrait-on pas adapter cette solution à l’état de l’art ?

B. Les évolutions et les limites de l’exercice du droit au déréférencement induites par la jurisprudence

Ces jurisprudences ont allégé le processus judiciaire auparavant requis pour faire droit à une demande de déréférencement. Il n’est plus nécessaire de passer au préalable par la case tribunal. Les moteurs de recherche mettent à disposition des formulaires qui permettent d’effectuer une demande de déréférencement. . En cas de recours contre une décision prise par un moteur de recherche, il n’est pas non plus nécessaire non plus d’emprunter le chemin des tribunaux. La CNIL sert d’intermédiaire. Cela évite des frais judiciaires aux personnes qui souhaiteraient exercer ce droit.

En revanche, le pouvoir conféré aux moteurs de recherche fait l’objet de débats. En effet, ils sont, dans la première partie du processus, les seuls a apprécié s’ils accordent le déréférencement ou non, et ce même pour des contenus licites. Il s’agit de conférer à un acteur privé le rôle de concilier deux libertés fondamentales, le droit au respect de sa vie privée et la liberté de la presse. Ce qui entre dans le domaine de compétence des juges et non pas des acteurs privés.

Pour lire une version plus complète de cet article sur le droit à l’oubli, cliquez

SOURCES :

LES INFLUENCEURS ET LA PUBLICITE

Depuis plusieurs années déjà, les stratégies des entreprises et des marques pour faire la promotion de leurs biens et services ont pris une nouvelle tournure. Aussi appelée « marketing d’influence », cette stratégie vise pour ces dernières à collaborer avec des influenceurs.

L’influenceur est un créateur de contenu et traite de diverses thématiques qu’il partage avec sa communauté qui le suit, le plus souvent sur les réseaux sociaux. L’espace de divertissement initialement offert par ce dernier peut dans certains cas se transformer en un espace publicitaire et créer la confusion chez l’internaute.

NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire !

Cette stratégie offre de nombreux avantages aux entreprises qui l’utilisent. Il s’agit d’une nouvelle forme de promotion ou de publicité qui tire profit de la visibilité qu’offre l’influenceur grâce à sa communauté. Elle leur permet également de cibler au mieux le public souhaité au regard des thématiques que l’influenceur aborde.

Malheureusement, cette stratégie fait l’objet de nombreux abus et les influenceurs peu scrupuleux n’hésitent pas à enfreindre les règles pourtant déjà fixées par le droit. Ces pratiques représentent aussi bien des risques pour la santé des consommateurs que pour leur stabilité financière, etc.

Les députés se sont donc saisis de ce phénomène en pleine expansion pour proposer l’adoption de nouvelles lois qui visent à encadrer les pratiques des influenceurs. Déposées à l’Assemblée nationale entre novembre et décembre 2022, ces propositions de loi sont en cours d’examen.


Besoin de l’aide d’un avocat pour un problème de contrefaçon ?

Téléphonez-nous au : 01 43 37 75 63

ou contactez-nous en cliquant sur le lien


Avant d’étudier les apports de ces propositions de loi, il conviendra de dresser le portrait des obligations existantes pour les influenceurs.

I. Les obligations des influenceurs au regard du cadre juridique en vigueur

Au même titre que tous les opérateurs économiques, l’influenceur est soumis à diverses réglementations permettant notamment d’assurer la protection du consommateur. Pour autant, dans la pratique, les influenceurs ne respectent pas tous la réglementation en vigueur. (A) Afin d’assurer la protection des consommateurs, plusieurs autorités veillent au respect des bonnes pratiques commerciales et publicitaires. (B)

A. La protection du consommateur au cœur des obligations des influenceurs

Contrairement à un contenu dit éditorial, lorsque l’influenceur produit un contenu commercial il n’établit pas librement son contenu, et fait la promotion d’une marque, de produits ou d’un évènement en contrepartie d’une rémunération.

Créant de fait une potentielle confusion chez les internautes qui le suivent, l’influenceur doit se conformer à certaines obligations prévues par la loi. Ces obligations permettent de signaler aux internautes que le contenu ou ce qui y est mis en avant relève de la pratique commerciale.

  • La notion de pratique commerciale

La notion de “pratique commerciale” est plus large que la notion de publicité.

Elle n’est pas définie dans le Code de la consommation, mais la directive européenne n° 2005-29 du 11 mai 2005 relative aux pratiques commerciales déloyales des entreprises vis-à-vis des consommateurs en donne la définition suivante : « toute action, omission, conduite, démarche ou communication commerciale, y compris la publicité et le marketing, de la part d’un professionnel, en relation directe avec la promotion, la vente ou la fourniture d’un produit au consommateur ». (https://eur-lex.europa.eu/legal-content/FR/TXT/PDF/?uri=CELEX:32005L0029&from=FR)

En France, l’article L. 121-1 du Code de la consommation pose un principe général d’interdiction des pratiques commerciales déloyales. Parmi les pratiques commerciales déloyales, on distingue notamment les pratiques commerciales trompeuses et les pratiques commerciales agressives.

Afin de ne pas être identifié comme relevant des pratiques commerciales déloyales, l’influenceur doit se conformer lors de la diffusion de son contenu à un ensemble d’obligations déjà existantes. Il doit donc procéder à l’identification des contenus publiés, condition de loyauté de la pratique commerciale.

  • L’indication du caractère publicitaire de la publication

Selon la recommandation de l’ARPP, le caractère publicitaire d’un contenu est établi lorsque trois conditions sont réunies. Le contenu est commercial en ce qu’il fixe une obligation de publication et qu’il est rémunéré à cette occasion. Il existe contrôle éditorial prépondérant puisque le contenu fait la promotion d’un produit ou d’un service.

L’ARPP précise que l’identification de la publicité doit permettre au public d’avoir immédiatement connaissance de la nature publicitaire du contenu. L’éditeur de contenu a donc une obligation de transparence envers les internautes qui visionneront son contenu. L’article 20 de la loi pour la confiance dans l’économie numérique (LCEN) du 21 juin 2004 rend obligatoire l’identification du caractère publicitaire en rappelant que « Toute publicité, sous quelque forme que ce soit, accessible par un service de communication au public en ligne, doit pouvoir être clairement identifiée comme telle. Elle doit rendre clairement identifiable la personne physique ou morale pour le compte de laquelle elle est réalisée.

L’alinéa précédent s’applique sans préjudice des dispositions réprimant les pratiques commerciales trompeuses prévues à l’article L. 121-1 du code de la consommation. »

En pratique, l’indication de la nature promotionnelle du message doit être claire, facilement accessible, non équivoque, lisible et visible. Ainsi, la mention du caractère publicitaire ou du partenariat commercial doit être faite dans la langue française. À titre d’exemple il peut s’agir des mentions suivantes : « Partenariat rémunéré avec… », « sponsorisé », « avec @… », « #partenariat », « vidéo produite par… », « contenu sponsorisé par », « publicité ».

Cette mention doit également apparaître dès le début du post ou de la vidéo afin de ne pas être immergée dans le contenu et par conséquent semer le doute chez l’internaute.

  • Les opérations de promotion non autorisées

Au-delà des règles générales applicables en matière de pratiques commerciales loyales et de publicité, certains secteurs sont régis par des dispositions spécifiques en matière de publicité qui s’appliquent en cas de recours à des influenceurs.

Afin de protéger les consommateurs de la publicité de produits qui pourraient constituer des dangers, un certain nombre d’opérations de promotions sont prohibées ou font l’objet d’un encadrement très strict.

La loi du 10 janvier 1991 relative à la lutte contre le tabagisme et l’alcoolisme, dite loi Évin fixe des cas limitatifs où la publicité de ces produits peut être effectuée. (https://www.cairn.info/revue-journal-du-droit-de-la-sante-et-de-l-assurance-maladie-2021-1-page-15.htm)

Ainsi, l’alinéa 1 de l’article L. 3512-4 du code de la Santé publique dispose : « La propagande ou la publicité, directe ou indirecte, en faveur du tabac, des produits du tabac, des ingrédients […] sont interdites. » Le parrainage comme le mécénat sont prohibés. Les exceptions à ce principe sont prévues par l’article L. 3512-4 du code de la santé publique et sont extrêmement limitées. (Cass. crim., 18 mai 2016, n° 15-80922).

L’article L. 3323-2 du Code de la santé publique précise les cas dans lesquels la propagande ou la publicité, directe ou indirecte, en faveur des boissons alcooliques sont autorisées. Elle ne peut emprunter que certains supports limitativement énumérés : presse écrite, radiodiffusion, affichage, et depuis 2009, les services de communication en ligne. (Cass. 1re civ., 3 juill. 2013, n° 12-22.633)

Selon l’ARPP, seuls les influenceurs qui sont des professionnels du vin (sommelier, chef de cuisine, etc.) ou des amateurs éclairés (ce qui implique une analyse au cas par cas du degré de professionnalisation au regard de la récurrence de l’activité de l’influenceur, de sa compétence et des revenus qu’il en tire) peuvent publier des contenus en ligne.

Il en va de même pour les produits de vapotage, les produits de santé et à finalité cosmétique, les jeux et paris en ligne ainsi que des placements financiers ou encore les produits alimentaires.

Enfin, l’influenceur n’est pas le seul à devoir rendre des comptes. L’article L.1453-1 du Code de la santé publique prévoit une obligation à la charge des entreprises œuvrant dans le secteur des produits de santé à usage humain. Celles-ci doivent notamment publier sur un site internet public toute convention conclue avec un influenceur.

Toutes ces catégories de produits font l’objet d’une réglementation très stricte qui n’est malheureusement pas toujours respectée, notamment sur les réseaux sociaux.

B. Les autorités compétentes en France et leurs pouvoirs

Ce sont notamment deux entités qui veillent au bon respect des pratiques commerciales et publicitaires. Elles sont l’Autorité de régulation professionnelle de la publicité, la Direction générale de la concurrence, de la consommation et de la répression des fraudes.

  • Le rôle de l’autorité de régulation professionnelle de la publicité (ARPP)

L’ARPP est une association (loi 1901) indépendante des pouvoirs publics. Il s’agit de l’organisme de régulation professionnelle de la publicité en France. Elle intervient en faveur d’une publicité transparente, loyale et véridique. Elle établit à ce titre de nombreuses recommandations et œuvre afin d’encadrer les pratiques des influenceurs dans le secteur de la publicité.

Elle a ainsi élaboré avec les professionnels du secteur, une recommandation en matière d’identification des contenus publiés par les influenceurs (Recommandation communication publicitaire digitale). Afin d’inciter les influenceurs et de les sensibiliser aux recommandations de l’ARPP, cette dernière a procédé à la création du Certificat de l’influence responsable.

Dans le but d’élaborer des plans d’action en vue de favoriser le respect des bonnes pratiques l’ARPP collabore avec l’Observatoire de l’influence responsable. Elle s’appuie sur les rapports produits par l’Observatoire.

Afin de mettre en exergue les publicités déguisées dans les posts d’influenceurs, l’Observatoire a recours à l’utilisation de deux plateformes spécialisées : Reech et Traackr. Elles permettent de détecter par l’intermédiaire de l’intelligence artificielle, des posts qui seraient éventuellement litigieux. L’information est ensuite relayée à un être humain afin d’être vérifiée puis traitée si cela est nécessaire. Selon l’Observatoire de l’influence responsable entre 2021 et 2022, seuls 47 % des contenus sponsorisés ont été correctement signalés.

  • Le rôle de la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF)

La DGCCRF est une émanation du ministre de l’Économie chargée de veiller au respect du droit de la consommation, qui peut donc intervenir dans le cadre de cette mission auprès des influenceurs. Elle diligente des enquêtes, notamment à la suite de signalements en ligne effectués par des particuliers qui suspectent des publicités déguisées et, partant, des comportements trompeurs de la part d’influenceurs.

C’est d’ailleurs à ce titre que l’influenceuse Nabilla Benattia-Vergara avait été condamnée en 2021 à la suite d’une enquête menée par la DGCCRF. Dans sa publication sur le réseau social Snapchat, cette dernière avait omis de signaler qu’elle avait été rémunérée par un site pour faire la promotion des bitcoins. De plus, elle avait communiqué des allégations trompeuses quant à la gratuité du service proposé par le site et les rendements espérés des placements en bitcoin. À la suite d’un accord avec le Procureur de la République du tribunal judiciaire de Paris, cette dernière avait dû payer une amende transactionnelle d’un montant de 20 000 euros.

Pour rappel, le défaut d’identification du caractère commercial ou publicitaire d’un contenu publié par un influenceur est susceptible d’engager la responsabilité pénale de ce dernier en matière de protection du consommateur sur le fondement notamment des pratiques commerciales déloyales interdites, ce qui n’exclut pas la mise en cause de la responsabilité de l’annonceur.

La DGCCRF a le pouvoir d’intervenir afin de faire cesser une pratique commerciale trompeuse. Un agent habilité a la possibilité d’émettre des injonctions. Dans les autres cas, la cessation peut être ordonnée soit par un juge d’instruction ou par le tribunal saisi des poursuites.

II. Vers l’émergence d’un cadre juridique adapté

Les abus perpétrés par les influenceurs nécessitent la création de nouvelles obligations afin de les responsabiliser (A). Par la même occasion, le législateur souhaite renforcer les pouvoirs attribués aux autorités de contrôle ainsi que les obligations de certains acteurs économiques (B).

A. L’élaboration de nouvelles obligations applicables aux influenceurs

La première proposition de loi visant à encadrer les pratiques commerciales et publicitaires liées au marché de l’influence sur internet, a été déposée à l’Assemblée nationale le 15 novembre 2022. Elle vise à créer un cadre légal général dans lequel pourra s’inscrire l’activité des influenceurs. (https://www.assemblee-nationale.fr/dyn/16/textes/l16b0456_proposition-loi)

Son premier article prévoit l’insertion de nouveaux articles au Code du travail (L.7125-1 à L.7125-8).

Ces dispositions permettraient d’introduire la définition de l’influenceur. Ainsi, l’influenceur correspondrait à « toute personne physique ou morale qui détient, exploite ou anime, à titre professionnel ou non, une page ou un compte personnel accessible sur une plateforme en ligne […] en vue du partage de contenus exprimant un point de vue ou donnant des conseils susceptibles d’influencer les habitudes de consommation. » L’article prévoit que le seuil d’audience d’un influenceur soit défini par décret. Elles ajoutent également la définition de l’agent d’influenceur.

Dans un souci de sécurisation juridique, cet article pose également l’obligation d’établir un contrat comprenant des mentions obligatoires entre un influenceur et son agent. L’absence de contrat entre un influenceur et son agent, pourrait être sanctionné de 75 000 euros d’amende et 6 mois d’emprisonnement.

Par ailleurs, force est de constater que de nombreux influenceurs ne mentionnent pas le caractère publicitaire de leurs publications. Son deuxième article prévoit donc l’insertion des articles L.122-26 à L.122-30 au Code de la consommation. Ces derniers imposeraient de nouvelles obligations de transparence pour les influenceurs. Enfin un contrat écrit est rendu obligatoire entre l’influenceur et l’utilisateur de ses services. Il devra également comprendre des mentions obligatoires.

Son troisième envisage de nouvelles sanctions administratives et pénales qui seront insérées aux articles L. 132-29 à L. 132-33 du Code de la consommation. Dès lors qu’un manquement de l’influenceur à son devoir d’information et de transparence est constaté, il pourra encourir 300 000 euros d’amende ou 10% du CA annuel.

En cas absence de contrat entre l’influenceur et l’annonceur, ces derniers pourront être sanctionnés de 75 000 euros d’amende et 6 mois d’emprisonnement.

La dernière proposition de loi visant à lutter contre les dérives des influenceurs sur les réseaux sociaux, déposée à l’Assemblée nationale le 27 décembre 2022, avait pour objectif d’interdire certains placements de produits sur les réseaux sociaux compte tenu des intérêts de santé et d’ordre public. Elle a cependant fait l’objet d’un retrait le 9 février 2023.

Elle prévoyait d’interdire la promotion des produits pharmaceutiques, médicaux et investissements financiers et tendait à responsabiliser les influenceurs dans leurs pratiques en instaurant une obligation de vérification sur les produits dont ils font la publicité (drop shipping).

B. Le renforcement de la lutte contre les dérives et abus commis par les influenceurs

La première proposition de loi prévoit également en son article 4 une modification de l’article 7 de la loi pour la confiance dans l’économie numérique. Cette modification permettrait de soumettre les opérateurs de plateformes en ligne à l’obligation de mettre en place un dispositif de signalement des contenus relevant des pratiques commerciales interdites, agressives et trompeuses. On retrouve également cette suggestion dans la seconde proposition.

La seconde proposition de loi datée du 15 décembre 2022, vient quant à elle renforcer la prévention des fraudes en ligne et les moyens des autorités de répression des fraudes. (https://www.assemblee-nationale.fr/dyn/16/textes/l16b0653_proposition-loi.pdf)

Pour ce faire, elle envisage en son article premier de mettre à disposition de nouveaux moyens et d’effectif à la DGCCRF en complétant l’article L. 511-3 du code de la consommation. En effet, comme le soulignent députés dans leur proposition « les agents de la DGCCRF ne sont pas assez nombreux pour pouvoir agir sereinement et efficacement sur un pan entier du numérique en constante expansion.

Un nombre conséquent d’influenceuses et d’influenceurs et leurs agences sont domiciliés dans d’autres pays tels que les Émirats arabes unis ou l’Arabie Saoudite afin de payer moins d’impôts et de rendre les sanctions à leur égard plus difficilement applicables et ce alors qu’une part considérable de leurs revenus provient de consommateurs français. » (https://www.vie-publique.fr/en-bref/287945-marketing-dinfluence-6-influenceurs-sur-10-en-infraction)

Il est également abordé la possible création d’un Comité interministériel de prévention contre les pratiques commerciales illégales en ligne afin de veiller sur les différentes pratiques commerciales illégales en ligne, et de proposer des politiques de prévention en adéquation avec les différents publics touchés par ces pratiques.

Selon les députés « Les plateformes qui hébergent ces marchés de l’influence devront prendre leur part dans la lutte contre les arnaques en ligne. » Ils proposent ainsi de nouvelles obligations qui incomberont aux fournisseurs de services de communications en ligne. Ces derniers devront veiller à informer les utilisateurs sur les pratiques commerciales et favoriser les signalements de pratiques commerciales trompeuses.

Enfin, elle introduirait pour les banques et les services de paiements en ligne de nouvelles obligations relatives à la lutte contre les pratiques commerciales illégales.

Les propositions initiées par ces textes nous permettent de saisir l’ampleur du phénomène et des dérives qui nécessitent aujourd’hui un cadre juridique. Elles sont le reflet de la volonté des députés d’alerter le Gouvernement sur le problème que ces pratiques représentent pour l’intérêt général. Cette stratégie semble avoir porté ses fruits comme en témoigne la mise en place début janvier 2023, d’une consultation sur le métier d’influenceur. Cette consultation était disponible sur le site internet make.org, et devait permettre aux citoyens de donner leurs avis sur l’encadrement des pratiques commerciales des influenceurs.

Pour lire une version plus complète de cet article sur les influenceurs et  la publicité, cliquez

SOURCES :

LE SHARENTING

Depuis plusieurs années, internet est devenu un moyen de générer des revenus. Nombreuses sont les personnes qui exposent leur vie de famille ou leur quotidien en vue de souder une communauté. Désigné comme du « sharenting », cette pratique est née de l’union des termes « share » (partager) et parenting (la parentalité). Elle consiste en la divulgation de sa vie privée sur les réseaux sociaux notamment en y incluant ses enfants.

La course aux « likes », aux commentaires semble avoir pris le pas sur la raison, et de nombreux créateurs de contenus n’hésitent plus à se mettre en scène dans des situations de la vie de tous les jours. L’enfant est devenu l’instrument d’un besoin en satisfaction. En effet, il est possible de constater que les publications de nos créateurs préférés les plus appréciées sont souvent celles les mettant en scène avec leurs enfants.

Prenant exemple sur leurs créateurs de contenus préférés, les parents d’aujourd’hui ne se rendent pas nécessairement compte des problématiques que peut engendrer une telle pratique.

NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire !

Sensibiliser les parents à ces risques devient donc une priorité afin de protéger les mineurs et veiller au respect de leur vie privée et de leur droit à l’image.

Dans cet objectif, une lutte contre la surexposition des enfants sur internet est engagée par le législateur français qui depuis plusieurs années déjà s’attelle à définir les contours de la protection des mineurs sur internet en déployant un arsenal législatif adapté.


Besoin de l’aide d’un avocat pour un problème de contrefaçon ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien


I. Les conséquences de l’exposition des mineurs sur les plateformes numériques

On estime en moyenne qu’un enfant apparaît sur 1 300 photographies publiées en ligne avant l’âge de 13 ans, sur ses comptes propres, ceux de ses parents ou de ses proches. Le partage d’images sur les réseaux sociaux n’est pas sans conséquence et constitue aujourd’hui un vecteur d’atteinte aux droits du mineur.

A. La gestion du droit à l’image du mineur

A priori, le droit à l’image doit être défini comme « le pouvoir de maîtriser la figuration de son apparence » (I. Tricot-Chamard, Contribution à l’étude des droits de la personnalité, l’influence de la télévision sur la conception juridique de la personnalité : PUAM 2004, p. 42, n° 37).

Selon la Cour de cassation, « Toute personne a sur son image et sur l’utilisation qui en est faite, un droit exclusif et peut s’opposer à sa diffusion sans son autorisation » (Cass. Civ.1er, 27 février 2007, n° 06-10393).

Or un mineur n’est pas en capacité avant sa majorité de gérer les attributs relatifs à sa personne. Aux termes de l’article 371-1 du Code civil, cette responsabilité revient aux titulaires de l’autorité parentale le plus souvent incarnée par les parents. L’autorité parentale a pour principal objectif de protéger l’enfant en s’assurant de sa sécurité, de sa santé et sa moralité, de son éducation et de permettre son développement, dans le respect dû à sa personne.

L’exercice de l’autorité parentale est assumé de manière commune. Cependant, dans certains cas, il arrive que cet exercice soit mis à mal par une séparation intervenue entre les parents. L’article 373-2 du Code civil précise que « La séparation des parents est sans incidence sur les règles de dévolution de l’exercice de l’autorité parentale ».

La diffusion de l’image du mineur est un acte qui mérite l’approbation des deux titulaires de l’autorité parentale. Comme le rappelle la jurisprudence « Il appartient aux deux parents de prendre en commun toute décision de diffusion de l’image des enfants sur des réseaux sociaux, dans le cadre de l’autorité parentale conjointe. La diffusion de photos d’un enfant mineur ne peut être en effet considérée comme un acte usuel » (décisions rendues dans ce sens TGI Toulouse, JAF, 19 oct. 2017, n° 227/24. – CA Versailles, 1re ch., 25 juin 2015, n° 13/08349).

Cependant qu’en est-il du pouvoir de décision de l’enfant ?

Selon les dispositions de l’article 371-1 du Code civil « Les parents associent l’enfant aux décisions qui le concernent, selon son âge et son degré de maturité. » L’enfant peut donc être associé à la décision de diffuser son image avec ses parents quand ces derniers le pensent assez mature.

Mais que faire en cas de discorde à ce propos ? Qu’en est-il des photos postées par le passé qui risquent d’être à jamais gravées dans la mémoire de l’Internet ?

B. Les atteintes au droit à l’image du mineur

En 2010, Research Now avait interrogé pour AVG, une société pionnière en matière de logiciels de sécurité, 2200 femmes mères d’un enfant de moins de 2 ans, en Europe (Grande-Bretagne, Allemagne, France, Italie, Espagne), aux États-Unis, au Canada, en Australie, en Nouvelle-Zélande et au Japon. L’étude révélait que 81 % des enfants de moins de 2 ans avaient alors un profil numérique, clairement une empreinte numérique, avec des photos d’eux postées en ligne. Aux États-Unis, 92 % des enfants sont ainsi présents en ligne avant l’âge de 2 ans, ils sont 74 % en France, 73 % en moyenne en Europe. (1)

C’est ainsi que le « digital birth », l’âge moyen de naissance sur le web, se situait en 2010 en moyenne à 6 mois pour un tiers des enfants.

Plus récemment, dans une étude publiée le 6 février 2023 par l’Observatoire de la parentalité et de l’éducation numérique plus d’un parent sur deux a déjà partagé du contenu vidéo ou photo de ses enfants sur les réseaux sociaux.

L’étude montre que 91 % des parents qui publient des photos de leurs enfants l’ont fait avant qu’ils n’atteignent l’âge de cinq ans. Parmi eux, 43 % ont même commencé à publier ces contenus dès la naissance et parfois même avant.

Les risques induits par l’exposition sur internet de l’image d’un mineur se matérialisent d’abord par la difficulté à contrôler la diffusion de ces images, qui constituent des données personnelles sensibles.

Des pratiques inquiétantes découlent du sharenting, il est possible de citer le « digital kidnapping » qui consiste à voler la photo d’un bébé ou d’un enfant, postée par un internaute sur sa page Facebook ou son compte Instagram, et la reposter ici ou là, voire faire passer l’enfant pour le sien, se fabriquer une famille et se mettre en scène.

Par ailleurs, il a été révélé que 50 % des photographies qui s’échangent sur les forums pédopornographiques avaient été initialement publiées par les parents. Depuis 2020, Europol et Interpol alertent sur la prévalence des contenus autoproduits par les jeunes (avec le développement de plateformes comme Only Fan ou MYM) ou par leur entourage dans les échanges pédocriminels.

Les publications, les photos ou les commentaires que les parents laissent sur ces plateformes au sujet de leurs enfants peuvent également se révéler nuisibles et porter atteinte à leur réputation à l’avenir.

Dans le cas des familles d’influenceurs, comment garantir une sécurité à l’enfant qui peut être victime de cyberharcèlement par exemple ? En outre, comment s’assurer que ces pratiques qui se professionnalisent n’impactent pas le développement de l’enfant ?

En effet comme le souligne l’étude publiée par l’Observatoire de la parentalité et de l’éducation numérique 60 % des parents assurent que chaque photo ou vidéo publiée nécessite jusqu’à une heure de préparation. Six sur dix déclarent d’ailleurs avoir besoin de tourner de deux à dix prises avant de publier le contenu sur les réseaux sociaux. (2)

En outre, 85 % d’entre eux publient au moins une fois par semaine des contenus sur leurs enfants sur les réseaux sociaux et 38 % d’entre eux le font au moins une fois par jour. Quatre parents sur dix assurent que ce temps de publication n’empiète pas sur le temps de repos de leur progéniture.

L’exposition des enfants apparaît très précoce puisque 75 % des enfants d’influenceurs sont exposés sur les réseaux sociaux avant leurs 5 ans, dont 21 % dès leurs premiers jours et seulement 17 % ont entre 10 et 16 ans lors de la première publication. (3)

II. Les récentes dispositions législatives relatives à la protection des mineurs sur internet

Depuis plusieurs années déjà, le législateur français s’est attelé à modeler un arsenal législatif qui vise à réduire les risques induits par l’utilisation des plateformes en ligne pour les mineurs. Les thématiques qui y sont abordées sont diverses, preuve du besoin d’encadrer les nouvelles pratiques et dérives dont internet est le vecteur.  La priorité affichée est de faire émerger le respect de la vie privée en général et des enfants en particulier comme une préoccupation majeure dans la régulation du numérique.

A. La prise en compte de la protection du mineur dans l’environnement numérique

La loi n° 2020-1266 du 19 octobre 2020 visant à encadrer l’exploitation commerciale de l’image d’enfants de moins de 16 ans sur les plateformes en ligne a apporté une réponse à la diffusion sur les plateformes de partage de vidéos, mettant en scène des enfants dans des activités ou situations de la vie quotidienne pour la plupart réalisées par les parents et partagées au-delà du cercle familial. (4)

La loi ouvre aussi le droit à l’effacement des données à caractère personnel, sans que le consentement des titulaires de l’autorité parentale soit nécessaire, et invite les services de plateforme à informer les mineurs des modalités de mise en œuvre de ce droit de façon aisément compréhensible. (5) Cette capacité d’agir de manière autonome est sans préjudice de la possibilité pour les parents d’exercer les droits au nom de leur enfant et de l’accompagner dans cette démarche.

Comme le rappelle la CNIL : « La Convention internationale des droits de l’enfant (CIDE) reconnaît au mineur un droit au respect de sa vie privée (art. 16) et un droit d’être entendu (art. 12). Ces droits fondamentaux n’ont de sens concret et effectif que s’ils donnent aux mineurs un certain pouvoir d’agir pour les faire respecter, ne serait-ce que parce que ce sont parfois leurs parents qui sont à l’origine de la diffusion de leurs données personnelles. »

Dans une autre mesure, la loi Studer adoptée le 2 mars 2022 entend obliger les fabricants d’appareils connectés (smartphones, tablettes…) à installer un dispositif de contrôle parental et à proposer son activation gratuite lors de la première mise en service de l’appareil. Un décret rend applicable la loi depuis le 5 septembre 2022. Ces Logiciels permettent de limiter la durée et horaire de connexion de l’enfant. (6)

Cette loi tend à compléter le besoin d’encadrement des activités des mineurs sur internet qui sont souvent laissés à « l’abandon » par leurs parents dans ce vaste cyberespace. Elle leur facilite donc l’accès aux outils qui leur sont parfois inconnus ou mal maîtrisé.

B. La prise en compte des nouveaux usages numériques dans l’exercice de l’autorité parentale

Déposée le 6 mars 2023 à l’Assemblée nationale par Bruno Studer, la proposition de loi visant à garantir le respect du droit à l’image des enfants, se veut avant tout une loi de pédagogie avant que d’être une loi répressive ou sanctionnatrice. (7)

Elle vise à encadrer les abus du droit à l’image de l’enfant par les parents en s’articulant autour d’un principe « à la tentation de la viralité, il faut privilégier l’impératif de l’intimité ».

D’une part la première responsabilité des parents est de protéger l’enfant et ses intérêts. La proposition ne recherche pas à substituer la puissance publique aux parents, mais à intervenir lorsque l’intérêt supérieur de l’enfant se trouve menacé. Afin de rappeler cette responsabilité, le texte entreprend de modifier des articles particulièrement importants du Code civil relatifs à l’autorité parentale et précise les conditions de l’exercice conjoint du droit à l’image de l’enfant. D’autre part, elle permettrait d’apporter une réponse aux situations de conflits d’intérêts dans l’exercice du droit à l’image de l’enfant.

Le premier article prévu par cette loi vise ainsi à introduire la notion de vie privée dans la définition de l’autorité parentale.

Le deuxième article précise que l’exercice du droit à l’image de l’enfant mineur est exercé en commun par les deux parents. Cet article ne fait que réaffirmer l’existence d’une obligation déjà reconnue par la jurisprudence. Dans le contexte actuel de développement du numérique, cet article permettrait d’éveiller les consciences et d’affirmer qu’il relève de l’exercice normal de l’autorité parentale.

Le troisième article explicite les mesures que peut prendre le juge en cas de désaccord entre les parents dans l’exercice du droit à l’image de l’enfant mineur.

Selon la direction de la recherche, des études, de l’évaluation et des statistiques, depuis le début des années 2010, 425 000 séparations conjugales (divorces, ruptures de PACS ou d’union libres) ont lieu en moyenne chaque année et environ 379 000 enfants mineurs expérimentent la rupture de l’union des adultes qui en ont la charge. Cette réalité sociale nécessite d’adapter le droit afin de protéger l’intérêt supérieur de l’enfant qui peut se retrouver dans au milieu de situations de conflits entre ses parents. Dans cet optique, l’article souhaite instaurer des mesures de référés en cas d’urgence. (8)

L’article 4 ouvre la voie à une délégation forcée de l’autorité parentale dans les situations où l’intérêt des parents rentre en conflit avec l’intérêt de l’enfant dans l’exercice du droit à l’image de ce dernier.

Une autre proposition de loi a également été déposée le 17 janvier 2023. Cette dernière vise à instaurer une majorité numérique et à lutter contre la haine en ligne. Pour protéger les enfants des réseaux sociaux, la proposition de loi prévoit d’instaurer une majorité numérique à 15 ans pour s’inscrire sur ces réseaux. (9)

Elle tend à compléter la loi du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN) afin contraindre les réseaux sociaux à refuser l’inscription à leurs services des enfants de moins de 15 ans, sauf si les parents ont donné leur accord. Pour se faire, ces plateformes devront mettre en place une solution technique permettant de vérifier l’âge de leurs utilisateurs et l’autorisation des parents.

Comme le révèle l’enquête de l’association Génération Numérique, en 2021, 63 % des moins de 13 ans avaient un compte sur au moins un réseau social, bien que ces réseaux leur soient en théorie interdits en vertu de leurs conditions générales d’utilisation. Parallèlement, les parents supervisent peu ou pas les activités en ligne de leurs enfants. À peine plus de 50 % des parents décideraient du moment et de la durée de connexion de leurs enfants et 80 % déclarent ne pas savoir exactement ce que leurs enfants font en ligne.

Cette loi permettrait d’instaurer un âge à partir duquel le mineur est doté de discernement et est donc plus à même de faire attention à ses activités en ligne. Enfin, elle replace l’autorité parentale comme un élément nécessaire à l’inscription, elle tend donc à éveiller les parents à ces nouveaux usages afin qu’ils protègent au mieux leurs enfants.

Pour lire une version plus complète de cet article sur le sharenting, cliquez

SOURCES :

INTELLIGENCE ARTIFICIELLE ET DROIT D’AUTEUR

L’intelligence artificielle fait partie de notre quotidien, qu’il s’agisse de la reconnaissance vocale sur nos téléphones portables, des suggestions personnalisées de films sur des plates-formes de streaming (certes, plus ou moins convaincantes…) ou des systèmes de reconnaissance d’images permettant de « taguer » des visages ou de filtrer des contenus violents ou pornographiques publiés sur les réseaux sociaux.

NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire !

Le statut des créations issues de l’intelligence artificielle est nettement plus délicat. Le Petit Robert définit l’intelligence artificielle comme « la partie de l’informatique qui a pour but la simulation des facultés cognitives afin de suppléer l’être humain pour assurer des fonctions dont on convient, dans un contexte donné, qu’elles requièrent de l’intelligence ». Nous basculons de la création assistée par ordinateur vers la création générée par ordinateur. Or les créations de ces machines intelligentes (que d’aucuns aiment à qualifier de robots sont très nombreuses dans la littérature, spécialement de science-fiction.

L’on se souvient, par exemple, des belles sculptures de lumière réalisées par le majordome robot de Madame Lardner (Max) dans la nouvelle de Asimov, Light Verse, œuvres que le propriétaire du robot s’approprie indûment. Ces créations, accidentelles, cesseront lorsque John Semper Trevis réparera malencontreusement le robot créateur.


Besoin de l’aide d’un avocat pour un problème de contrefaçon ?

Téléphonez-nous au : 01 43 37 75 63

ou contactez-nous en cliquant sur le lien


Les créations de ces machines intelligentes ne sont plus aujourd’hui accidentelles et la Commission juridique du Parlement européen a invité le 12 janvier 2017 la Commission européenne à soumettre une directive envisageant « la création d’une personnalité juridique spécifique aux robots, pour qu’au moins les robots autonomes les plus sophistiqués puissent être considérés comme des personnes électroniques dotées de droits et de devoirs bien précis » et définissant « des critères de création intellectuelle propres applicables aux œuvres protégeables par droit d’auteur créés par des ordinateurs ou des robots » – ce qui est riche d’un implicite sur lequel nous reviendrons.

Les défenseurs de cette position soulignent qu’une telle protection stimulerait ainsi la création dans ces domaines et conférerait à l’Europe un avantage concurrentiel.

I – la protection du droit d’auteur appliquée aux œuvres générées à partir d’une l’intelligence artificielle

A – les limites invoquées à l’application du droit d’auteur

  1. L’auteur, personne physique

Traditionnellement, le droit d’auteur français protège l’auteur d’une « œuvre de l’esprit ». Les dispositions de l’article L. 112-1 du CPI prévoient en ce sens que : « Les dispositions du présent Code protègent les droits des auteurs sur toutes les œuvres de l’esprit, quels qu’en soient le genre, la forme d’expression, le mérite ou la destination. »

Dès lors, comment concevoir qu’une œuvre générée par une IA, c’est-à-dire à partir d’un ou plusieurs algorithmes, soit considérée comme une « œuvre de l’esprit » et protégée en tant que telle par le droit d’auteur ?

En effet, la jurisprudence admet que l’auteur d’une œuvre de l’esprit ne peut être qu’une personne physique, et la Cour de cassation juge à cet égard qu’une personne morale ne peut avoir la qualité d’auteur.

Dès lors, si le collectif Obvious à l’origine du Port rait de Belamy signe le tableau avec la formule de l’algorithme, il ne s’agit là bien entendu que d’un clin d’œil dans la mesure où, à ce jour, aucune personnalité juridique n’est reconnue à une IA qui ne peut dès lors se voir reconnaître la titularité des droits d’auteur.

L’idée d’une personnalité juridique propre aux robots a bien été promue, notamment et de façon étonnante par le Parlement européen dans une résolution du 16 février 2017, ce qui a donné lieu à de nombreuses critiques, en partie reprises par les auteurs du récent rapport pour qui cette option serait « largement impraticable » (cf. rapport p. 36).

  1. La condition de l’originalité

Par construction jurisprudentielle, la protection par le droit d’auteur suppose que la création soit originale. Cette condition ne ressort pas des dispositions du Code de la propriété intellectuelle, qui ne s’y réfère pas, sauf pour protéger le titre des œuvres (cf. article L. 112-4). L’originalité est ainsi appréciée par les juges, au cas par cas, comme l’expression, l’empreinte ou le reflet de la personnalité de l’auteur.

Cette conception impliquant de nouveau une intervention humaine, il apparaît difficile de qualifier d’originale une œuvre générée par une IA : comment celle-ci pourrait-elle, en effet, matérialiser le reflet de la personnalité de son auteur s’il s’agit d’une machine ? Du moins tant que les machines ne seront pas douées de conscience ou d’esprit et qu’une personnalité juridique ne leur sera pas reconnue…

Ces difficultés résultent d’une conception traditionnelle et classique du droit d’auteur français qui ne conçoit la création que comme l’apanage de l’humain et qui place toujours l’auteur, personne physique, au centre de la protection.

Toutefois, comme le relève un récent rapport déposé auprès du CSPLA le 27 janvier 2020, les difficultés ainsi soulevées ne devraient pas être « insurmontables ». Ainsi, sans remettre en cause le lien entre l’auteur et son œuvre qui fonde notre droit d’auteur, ce droit « semble suffisamment souple pour recevoir ces créations » et « l’attribution des droits au concepteur de l’IA semble de nature à apporter des solutions pertinentes ».

B – les solutions offertes par l’application du droit d’auteur

  1. Le rapport « Intelligence artificielle et culture »

Le 25 avril 2018, la Commission européenne, dans sa communication « Une intelligence artificielle pour l’Europe », a invité les États membres à réfléchir aux conséquences de l’intelligence artificielle sur la propriété intellectuelle. Dans ce contexte, le Conseil supérieur de la propriété littéraire et artistique (CSPLA) a confié aux professeures Alexandra Bensamoun et Joelle Farchy une mission sur les enjeux juridiques et économiques de l’intelligence artificielle dans les secteurs de la création culturelle, qui a donné lieu au dépôt, le 27 janvier 2020, d’un rapport intitulé « Intelligence artificielle et culture ».

Selon les auteures de ce rapport, il importe de rappeler en premier lieu que le droit d’auteur et sa mise en œuvre ne peuvent se passer de la présence humaine. Toutefois « une analyse renouvelée des conditions d’accès à la protection (création, originalité, auteur) pourrait permettre de recevoir ces réalisations culturelles au sein du droit d’auteur ».

  1. Quelle solution ?

Ledit rapport écarte ainsi dans ses conclusions toute intervention législative, en retenant qu’il importe d’abord « d’éprouver le droit positif et d’être prêt à intervenir si un éventuel besoin de régulation se révélait à l’avenir » alors que « le droit positif devrait pour l’heure pouvoir être appliqué, dans une lecture renouvelée des critères d’accès à la protection ».

Avec prudence, il est toutefois rappelé qu’il ne peut être exclu, compte tenu de la technique en constant développement, que « l’outil [de l’intelligence artificielle] gagne en autonomie, en réduisant le rôle de l’humain ».

Il ne faut donc pas complètement exclure qu’à l’avenir, une intervention du législateur soit rendue nécessaire et « une voie intéressante pourrait alors être, au vu des différentes positions et analyses, celle de la création d’un droit spécial du droit d’auteur ».

C’est alors le régime appliqué au logiciel ou celui appliqué à l’œuvre collective qui pourrait, selon les auteures du rapport « Intelligence artificielle et culture » déposé au CSPLA, servir de modèle à la création d’un droit spécial, notamment en adaptant les articles L. 113-2 et L. 113-5 du CPI pour y intégrer les créations générées par une IA.

En effet, selon le Code de la propriété intellectuelle, « la qualité d’auteur appartient, sauf preuve contraire, à celui ou à ceux sous le nom de qui l’œuvre est divulguée » (article L. 113-1 du CPI).

Ainsi, dans le cas de l’œuvre collective créée à l’initiative d’une personne physique ou morale qui la divulgue et dans laquelle la contribution de chaque auteur y ayant participé se fond dans un ensemble sans qu’il soit possible d’identifier la contribution de chacun (cf. article L. 113-2 du CPI), il est prévu par l’article L. 113-5 du CPI que cette œuvre « est, sauf preuve contraire, la propriété de la personne physique ou morale sous le nom de laquelle elle est divulguée. Cette personne est investie des droits de l’auteur ».

Il est donc admis qu’une personne morale, si elle ne peut pas être l’auteur d’une œuvre de l’esprit, peut en revanche être titulaire des droits d’auteur existant sur cette œuvre.

L’arsenal juridique de l’œuvre collective et du logiciel semble donc offrir des pistes de solutions intéressantes.

La matière étant, à l’évidence, en constante évolution, la prudence semble de mise, étant rappelé que toute issue législative devra naturellement « s’opérer dans un cadre international, a minima européen ».

 

II- Une protection alternative adaptée aux créations de l’intelligence artificielle

A – L’adaptation du droit d’auteur à l’intelligence artificielle

Si l’œuvre est considérée comme protégée par le droit d’auteur, la question de la paternité de l’œuvre est centrale. Certaines législations étrangères comme Hong Kong, l’Inde, l’Irlande, la Nouvelle-Zélande ou le Royaume-Uni, ont choisi d’attribuer cette paternité au concepteur du programme.

En France, le Conseil supérieur de la propriété littéraire et artistique (CSPLA) recommande, dans son rapport intitulé « Mission Intelligence artificielle et Culture » du 27 janvier 2020, de s’inspirer des mécanismes existants en droit d’auteur. Une première piste résiderait dans l’aménagement de la notion d’originalité afin de qualifier la création de l’intelligence artificielle en œuvre de l’esprit, comme ce fut le cas pour le logiciel, où l’empreinte de la personnalité de l’auteur a été remplacée par l’apport intellectuel de son créateur. S’agissant de la titularité, « la désignation du concepteur de l’intelligence artificielle apparaît comme la solution la plus respectueuse du droit d’auteur » selon le rapport du CSPLA. Une autre possibilité serait d’appliquer les règles de l’accession par production de l’article 546 du Code civil pour permettre au propriétaire de l’intelligence artificielle d’acquérir les accessoires que produit sa chose (les œuvres étant les fruits de l’intelligence artificielle).

Cependant, cela ne signifie nullement que la titularité des droits revienne toujours à la personne physique. En effet, l’instigateur de la technologie pourrait être récompensé sur le modèle de l’œuvre collective qui, selon l’article L. 113-2, alinéa 3, du CPI, est « une œuvre crée sur l’initiative d’une personne physique ou morale qui l’édite, la publie et la divulgue sous sa direction et en son nom ».

Par ailleurs, un droit spécifique, sorte de droit voisin, pourrait être créé pour attribuer des prérogatives patrimoniales à celui qui communique l’œuvre au public. La disposition serait alors intégrée à l’article L. 123-4 du CPI, in fine, en ces termes : « Celui qui prend les dispositions nécessaires en termes d’investissement pour communiquer au public une création de forme générée par une intelligence artificielle et assimilable à une œuvre de l’esprit jouit d’un droit d’exploitation d’une durée de X années à compter de la communication ». Pour permettre plus de souplesse, le CSPLA suggère de privilégier les solutions contractuelles en ajoutant en début de disposition « sauf stipulations contraires ».

Derrière l’identification du titulaire, des créations se pose également la question cruciale de la responsabilité en cas de dommages provoqués par l’intelligence artificielle. En effet, la proposition de règlement de la Commission européenne du 21 avril 2021 place le fournisseur d’un système d’intelligence artificielle comme acteur central. Il est défini comme la personne physique ou morale, l’agence ou tout autre organisme qui développe ou possède un système d’intelligence artificielle, sous son propre nom ou sa propre marque, à titre onéreux ou gratuit. Cette désignation simplifiée du responsable n’est d’ailleurs pas sans rappeler la responsabilité du producteur du fait d’un produit défectueux puisqu’est également désignée comme producteur la « personne qui se présente comme producteur en apposant sur le produit son nom, sa marque ou un autre signe distinctif ».

B – Les modes alternatifs de protection des créations de l’intelligence artificielle

Au-delà du droit d’auteur , le Parlement européen recommande de privilégier une évaluation sectorielle et par type des implications des technologies de l’intelligence artificielle en prenant notamment en compte « le degré d’intervention humaine, l’autonomie de l’IA , l’importance du rôle et de la source des données et des contenus protégés par le droit d’auteur utilisés, ainsi que l’éventuelle intervention d’autres facteurs ; rappelle que toute démarche doit trouver le juste équilibre entre la nécessité de protéger les investissements en ressources et en efforts et celle d’encourager la création et le partage ».

Pour sa part, le CSPLA suggère de s’inspirer du droit accordé au producteur de bases de données en introduisant un droit sui generis visant à protéger les efforts financiers, humains ou matériels des intervenants au processus créatif développé par l’intelligence artificielle.

Appliqué à l’intelligence artificielle, ce droit sui generis permettrait un retour sur investissement, déjouant ainsi les tentatives d’appropriation de valeur et encourageant du même coup l’investissement dans le domaine de l’intelligence artificielle. La proposition pourrait être intégrée dans la première partie du code de la propriété intellectuelle, à la suite du droit des bases de données : « Le producteur d’une intelligence artificielle permettant la génération de créations assimilables à des œuvres de l’esprit bénéficie d’une protection sur ces créations lorsque celles-ci résultent d’un investissement financier, matériel ou humain substantiel ».

En tout état de cause, d’autres modes de protection existent. Ainsi, le programmateur de la technologie peut se faire rémunérer en concédant une licence d’utilisation de son logiciel. De plus, la directive n° 2016/943 du 8 juin 2016 sur le secret des affaires, transposée à l’article L. 151-1 du CPI, permet au concepteur de s’opposer à la divulgation illicite du savoir-faire technologique et l’appropriation de son investissement. Enfin, une action sera toujours possible sur le fondement du droit commun de la responsabilité civile extracontractuelle contre les actes de concurrence déloyale ou les agissements parasitaires.

Pour lire un article plus complet sur l’intelligence artificielle et la protection des contenus, cliquez

Sources :
Cour de cassation, civile, Chambre civile 1, 15 janvier 2015, 13-23.566, Publié au bulletin – Légifrance (legifrance.gouv.fr)
Cour de cassation, Assemblée Plénière, du 7 mars 1986, 83-10.477, Publié au bulletin – Légifrance (legifrance.gouv.fr)