internet-et-droit

LE SHARENTING

Depuis plusieurs années, internet est devenu un moyen de générer des revenus. Nombreuses sont les personnes qui exposent leur vie de famille ou leur quotidien en vue de souder une communauté. Désigné comme du « sharenting », cette pratique est née de l’union des termes « share » (partager) et parenting (la parentalité). Elle consiste en la divulgation de sa vie privée sur les réseaux sociaux notamment en y incluant ses enfants.

La course aux « likes », aux commentaires semble avoir pris le pas sur la raison, et de nombreux créateurs de contenus n’hésitent plus à se mettre en scène dans des situations de la vie de tous les jours. L’enfant est devenu l’instrument d’un besoin en satisfaction. En effet, il est possible de constater que les publications de nos créateurs préférés les plus appréciées sont souvent celles les mettant en scène avec leurs enfants.

Prenant exemple sur leurs créateurs de contenus préférés, les parents d’aujourd’hui ne se rendent pas nécessairement compte des problématiques que peut engendrer une telle pratique.

NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire !

Sensibiliser les parents à ces risques devient donc une priorité afin de protéger les mineurs et veiller au respect de leur vie privée et de leur droit à l’image.

Dans cet objectif, une lutte contre la surexposition des enfants sur internet est engagée par le législateur français qui depuis plusieurs années déjà s’attelle à définir les contours de la protection des mineurs sur internet en déployant un arsenal législatif adapté.


Besoin de l’aide d’un avocat pour un problème de contrefaçon ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien


I. Les conséquences de l’exposition des mineurs sur les plateformes numériques

On estime en moyenne qu’un enfant apparaît sur 1 300 photographies publiées en ligne avant l’âge de 13 ans, sur ses comptes propres, ceux de ses parents ou de ses proches. Le partage d’images sur les réseaux sociaux n’est pas sans conséquence et constitue aujourd’hui un vecteur d’atteinte aux droits du mineur.

A. La gestion du droit à l’image du mineur

A priori, le droit à l’image doit être défini comme « le pouvoir de maîtriser la figuration de son apparence » (I. Tricot-Chamard, Contribution à l’étude des droits de la personnalité, l’influence de la télévision sur la conception juridique de la personnalité : PUAM 2004, p. 42, n° 37).

Selon la Cour de cassation, « Toute personne a sur son image et sur l’utilisation qui en est faite, un droit exclusif et peut s’opposer à sa diffusion sans son autorisation » (Cass. Civ.1er, 27 février 2007, n° 06-10393).

Or un mineur n’est pas en capacité avant sa majorité de gérer les attributs relatifs à sa personne. Aux termes de l’article 371-1 du Code civil, cette responsabilité revient aux titulaires de l’autorité parentale le plus souvent incarnée par les parents. L’autorité parentale a pour principal objectif de protéger l’enfant en s’assurant de sa sécurité, de sa santé et sa moralité, de son éducation et de permettre son développement, dans le respect dû à sa personne.

L’exercice de l’autorité parentale est assumé de manière commune. Cependant, dans certains cas, il arrive que cet exercice soit mis à mal par une séparation intervenue entre les parents. L’article 373-2 du Code civil précise que « La séparation des parents est sans incidence sur les règles de dévolution de l’exercice de l’autorité parentale ».

La diffusion de l’image du mineur est un acte qui mérite l’approbation des deux titulaires de l’autorité parentale. Comme le rappelle la jurisprudence « Il appartient aux deux parents de prendre en commun toute décision de diffusion de l’image des enfants sur des réseaux sociaux, dans le cadre de l’autorité parentale conjointe. La diffusion de photos d’un enfant mineur ne peut être en effet considérée comme un acte usuel » (décisions rendues dans ce sens TGI Toulouse, JAF, 19 oct. 2017, n° 227/24. – CA Versailles, 1re ch., 25 juin 2015, n° 13/08349).

Cependant qu’en est-il du pouvoir de décision de l’enfant ?

Selon les dispositions de l’article 371-1 du Code civil « Les parents associent l’enfant aux décisions qui le concernent, selon son âge et son degré de maturité. » L’enfant peut donc être associé à la décision de diffuser son image avec ses parents quand ces derniers le pensent assez mature.

Mais que faire en cas de discorde à ce propos ? Qu’en est-il des photos postées par le passé qui risquent d’être à jamais gravées dans la mémoire de l’Internet ?

B. Les atteintes au droit à l’image du mineur

En 2010, Research Now avait interrogé pour AVG, une société pionnière en matière de logiciels de sécurité, 2200 femmes mères d’un enfant de moins de 2 ans, en Europe (Grande-Bretagne, Allemagne, France, Italie, Espagne), aux États-Unis, au Canada, en Australie, en Nouvelle-Zélande et au Japon. L’étude révélait que 81 % des enfants de moins de 2 ans avaient alors un profil numérique, clairement une empreinte numérique, avec des photos d’eux postées en ligne. Aux États-Unis, 92 % des enfants sont ainsi présents en ligne avant l’âge de 2 ans, ils sont 74 % en France, 73 % en moyenne en Europe. (1)

C’est ainsi que le « digital birth », l’âge moyen de naissance sur le web, se situait en 2010 en moyenne à 6 mois pour un tiers des enfants.

Plus récemment, dans une étude publiée le 6 février 2023 par l’Observatoire de la parentalité et de l’éducation numérique plus d’un parent sur deux a déjà partagé du contenu vidéo ou photo de ses enfants sur les réseaux sociaux.

L’étude montre que 91 % des parents qui publient des photos de leurs enfants l’ont fait avant qu’ils n’atteignent l’âge de cinq ans. Parmi eux, 43 % ont même commencé à publier ces contenus dès la naissance et parfois même avant.

Les risques induits par l’exposition sur internet de l’image d’un mineur se matérialisent d’abord par la difficulté à contrôler la diffusion de ces images, qui constituent des données personnelles sensibles.

Des pratiques inquiétantes découlent du sharenting, il est possible de citer le « digital kidnapping » qui consiste à voler la photo d’un bébé ou d’un enfant, postée par un internaute sur sa page Facebook ou son compte Instagram, et la reposter ici ou là, voire faire passer l’enfant pour le sien, se fabriquer une famille et se mettre en scène.

Par ailleurs, il a été révélé que 50 % des photographies qui s’échangent sur les forums pédopornographiques avaient été initialement publiées par les parents. Depuis 2020, Europol et Interpol alertent sur la prévalence des contenus autoproduits par les jeunes (avec le développement de plateformes comme Only Fan ou MYM) ou par leur entourage dans les échanges pédocriminels.

Les publications, les photos ou les commentaires que les parents laissent sur ces plateformes au sujet de leurs enfants peuvent également se révéler nuisibles et porter atteinte à leur réputation à l’avenir.

Dans le cas des familles d’influenceurs, comment garantir une sécurité à l’enfant qui peut être victime de cyberharcèlement par exemple ? En outre, comment s’assurer que ces pratiques qui se professionnalisent n’impactent pas le développement de l’enfant ?

En effet comme le souligne l’étude publiée par l’Observatoire de la parentalité et de l’éducation numérique 60 % des parents assurent que chaque photo ou vidéo publiée nécessite jusqu’à une heure de préparation. Six sur dix déclarent d’ailleurs avoir besoin de tourner de deux à dix prises avant de publier le contenu sur les réseaux sociaux. (2)

En outre, 85 % d’entre eux publient au moins une fois par semaine des contenus sur leurs enfants sur les réseaux sociaux et 38 % d’entre eux le font au moins une fois par jour. Quatre parents sur dix assurent que ce temps de publication n’empiète pas sur le temps de repos de leur progéniture.

L’exposition des enfants apparaît très précoce puisque 75 % des enfants d’influenceurs sont exposés sur les réseaux sociaux avant leurs 5 ans, dont 21 % dès leurs premiers jours et seulement 17 % ont entre 10 et 16 ans lors de la première publication. (3)

II. Les récentes dispositions législatives relatives à la protection des mineurs sur internet

Depuis plusieurs années déjà, le législateur français s’est attelé à modeler un arsenal législatif qui vise à réduire les risques induits par l’utilisation des plateformes en ligne pour les mineurs. Les thématiques qui y sont abordées sont diverses, preuve du besoin d’encadrer les nouvelles pratiques et dérives dont internet est le vecteur.  La priorité affichée est de faire émerger le respect de la vie privée en général et des enfants en particulier comme une préoccupation majeure dans la régulation du numérique.

A. La prise en compte de la protection du mineur dans l’environnement numérique

La loi n° 2020-1266 du 19 octobre 2020 visant à encadrer l’exploitation commerciale de l’image d’enfants de moins de 16 ans sur les plateformes en ligne a apporté une réponse à la diffusion sur les plateformes de partage de vidéos, mettant en scène des enfants dans des activités ou situations de la vie quotidienne pour la plupart réalisées par les parents et partagées au-delà du cercle familial. (4)

La loi ouvre aussi le droit à l’effacement des données à caractère personnel, sans que le consentement des titulaires de l’autorité parentale soit nécessaire, et invite les services de plateforme à informer les mineurs des modalités de mise en œuvre de ce droit de façon aisément compréhensible. (5) Cette capacité d’agir de manière autonome est sans préjudice de la possibilité pour les parents d’exercer les droits au nom de leur enfant et de l’accompagner dans cette démarche.

Comme le rappelle la CNIL : « La Convention internationale des droits de l’enfant (CIDE) reconnaît au mineur un droit au respect de sa vie privée (art. 16) et un droit d’être entendu (art. 12). Ces droits fondamentaux n’ont de sens concret et effectif que s’ils donnent aux mineurs un certain pouvoir d’agir pour les faire respecter, ne serait-ce que parce que ce sont parfois leurs parents qui sont à l’origine de la diffusion de leurs données personnelles. »

Dans une autre mesure, la loi Studer adoptée le 2 mars 2022 entend obliger les fabricants d’appareils connectés (smartphones, tablettes…) à installer un dispositif de contrôle parental et à proposer son activation gratuite lors de la première mise en service de l’appareil. Un décret rend applicable la loi depuis le 5 septembre 2022. Ces Logiciels permettent de limiter la durée et horaire de connexion de l’enfant. (6)

Cette loi tend à compléter le besoin d’encadrement des activités des mineurs sur internet qui sont souvent laissés à « l’abandon » par leurs parents dans ce vaste cyberespace. Elle leur facilite donc l’accès aux outils qui leur sont parfois inconnus ou mal maîtrisé.

B. La prise en compte des nouveaux usages numériques dans l’exercice de l’autorité parentale

Déposée le 6 mars 2023 à l’Assemblée nationale par Bruno Studer, la proposition de loi visant à garantir le respect du droit à l’image des enfants, se veut avant tout une loi de pédagogie avant que d’être une loi répressive ou sanctionnatrice. (7)

Elle vise à encadrer les abus du droit à l’image de l’enfant par les parents en s’articulant autour d’un principe « à la tentation de la viralité, il faut privilégier l’impératif de l’intimité ».

D’une part la première responsabilité des parents est de protéger l’enfant et ses intérêts. La proposition ne recherche pas à substituer la puissance publique aux parents, mais à intervenir lorsque l’intérêt supérieur de l’enfant se trouve menacé. Afin de rappeler cette responsabilité, le texte entreprend de modifier des articles particulièrement importants du Code civil relatifs à l’autorité parentale et précise les conditions de l’exercice conjoint du droit à l’image de l’enfant. D’autre part, elle permettrait d’apporter une réponse aux situations de conflits d’intérêts dans l’exercice du droit à l’image de l’enfant.

Le premier article prévu par cette loi vise ainsi à introduire la notion de vie privée dans la définition de l’autorité parentale.

Le deuxième article précise que l’exercice du droit à l’image de l’enfant mineur est exercé en commun par les deux parents. Cet article ne fait que réaffirmer l’existence d’une obligation déjà reconnue par la jurisprudence. Dans le contexte actuel de développement du numérique, cet article permettrait d’éveiller les consciences et d’affirmer qu’il relève de l’exercice normal de l’autorité parentale.

Le troisième article explicite les mesures que peut prendre le juge en cas de désaccord entre les parents dans l’exercice du droit à l’image de l’enfant mineur.

Selon la direction de la recherche, des études, de l’évaluation et des statistiques, depuis le début des années 2010, 425 000 séparations conjugales (divorces, ruptures de PACS ou d’union libres) ont lieu en moyenne chaque année et environ 379 000 enfants mineurs expérimentent la rupture de l’union des adultes qui en ont la charge. Cette réalité sociale nécessite d’adapter le droit afin de protéger l’intérêt supérieur de l’enfant qui peut se retrouver dans au milieu de situations de conflits entre ses parents. Dans cet optique, l’article souhaite instaurer des mesures de référés en cas d’urgence. (8)

L’article 4 ouvre la voie à une délégation forcée de l’autorité parentale dans les situations où l’intérêt des parents rentre en conflit avec l’intérêt de l’enfant dans l’exercice du droit à l’image de ce dernier.

Une autre proposition de loi a également été déposée le 17 janvier 2023. Cette dernière vise à instaurer une majorité numérique et à lutter contre la haine en ligne. Pour protéger les enfants des réseaux sociaux, la proposition de loi prévoit d’instaurer une majorité numérique à 15 ans pour s’inscrire sur ces réseaux. (9)

Elle tend à compléter la loi du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN) afin contraindre les réseaux sociaux à refuser l’inscription à leurs services des enfants de moins de 15 ans, sauf si les parents ont donné leur accord. Pour se faire, ces plateformes devront mettre en place une solution technique permettant de vérifier l’âge de leurs utilisateurs et l’autorisation des parents.

Comme le révèle l’enquête de l’association Génération Numérique, en 2021, 63 % des moins de 13 ans avaient un compte sur au moins un réseau social, bien que ces réseaux leur soient en théorie interdits en vertu de leurs conditions générales d’utilisation. Parallèlement, les parents supervisent peu ou pas les activités en ligne de leurs enfants. À peine plus de 50 % des parents décideraient du moment et de la durée de connexion de leurs enfants et 80 % déclarent ne pas savoir exactement ce que leurs enfants font en ligne.

Cette loi permettrait d’instaurer un âge à partir duquel le mineur est doté de discernement et est donc plus à même de faire attention à ses activités en ligne. Enfin, elle replace l’autorité parentale comme un élément nécessaire à l’inscription, elle tend donc à éveiller les parents à ces nouveaux usages afin qu’ils protègent au mieux leurs enfants.

Pour lire une version plus complète de cet article sur le sharenting, cliquez

SOURCES :

INTELLIGENCE ARTIFICIELLE ET DROIT D’AUTEUR

L’intelligence artificielle fait partie de notre quotidien, qu’il s’agisse de la reconnaissance vocale sur nos téléphones portables, des suggestions personnalisées de films sur des plates-formes de streaming (certes, plus ou moins convaincantes…) ou des systèmes de reconnaissance d’images permettant de « taguer » des visages ou de filtrer des contenus violents ou pornographiques publiés sur les réseaux sociaux.

NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire !

Le statut des créations issues de l’intelligence artificielle est nettement plus délicat. Le Petit Robert définit l’intelligence artificielle comme « la partie de l’informatique qui a pour but la simulation des facultés cognitives afin de suppléer l’être humain pour assurer des fonctions dont on convient, dans un contexte donné, qu’elles requièrent de l’intelligence ». Nous basculons de la création assistée par ordinateur vers la création générée par ordinateur. Or les créations de ces machines intelligentes (que d’aucuns aiment à qualifier de robots sont très nombreuses dans la littérature, spécialement de science-fiction.

L’on se souvient, par exemple, des belles sculptures de lumière réalisées par le majordome robot de Madame Lardner (Max) dans la nouvelle de Asimov, Light Verse, œuvres que le propriétaire du robot s’approprie indûment. Ces créations, accidentelles, cesseront lorsque John Semper Trevis réparera malencontreusement le robot créateur.


Besoin de l’aide d’un avocat pour un problème de contrefaçon ?

Téléphonez-nous au : 01 43 37 75 63

ou contactez-nous en cliquant sur le lien


Les créations de ces machines intelligentes ne sont plus aujourd’hui accidentelles et la Commission juridique du Parlement européen a invité le 12 janvier 2017 la Commission européenne à soumettre une directive envisageant « la création d’une personnalité juridique spécifique aux robots, pour qu’au moins les robots autonomes les plus sophistiqués puissent être considérés comme des personnes électroniques dotées de droits et de devoirs bien précis » et définissant « des critères de création intellectuelle propres applicables aux œuvres protégeables par droit d’auteur créés par des ordinateurs ou des robots » – ce qui est riche d’un implicite sur lequel nous reviendrons.

Les défenseurs de cette position soulignent qu’une telle protection stimulerait ainsi la création dans ces domaines et conférerait à l’Europe un avantage concurrentiel.

I – la protection du droit d’auteur appliquée aux œuvres générées à partir d’une l’intelligence artificielle

A – les limites invoquées à l’application du droit d’auteur

  1. L’auteur, personne physique

Traditionnellement, le droit d’auteur français protège l’auteur d’une « œuvre de l’esprit ». Les dispositions de l’article L. 112-1 du CPI prévoient en ce sens que : « Les dispositions du présent Code protègent les droits des auteurs sur toutes les œuvres de l’esprit, quels qu’en soient le genre, la forme d’expression, le mérite ou la destination. »

Dès lors, comment concevoir qu’une œuvre générée par une IA, c’est-à-dire à partir d’un ou plusieurs algorithmes, soit considérée comme une « œuvre de l’esprit » et protégée en tant que telle par le droit d’auteur ?

En effet, la jurisprudence admet que l’auteur d’une œuvre de l’esprit ne peut être qu’une personne physique, et la Cour de cassation juge à cet égard qu’une personne morale ne peut avoir la qualité d’auteur.

Dès lors, si le collectif Obvious à l’origine du Port rait de Belamy signe le tableau avec la formule de l’algorithme, il ne s’agit là bien entendu que d’un clin d’œil dans la mesure où, à ce jour, aucune personnalité juridique n’est reconnue à une IA qui ne peut dès lors se voir reconnaître la titularité des droits d’auteur.

L’idée d’une personnalité juridique propre aux robots a bien été promue, notamment et de façon étonnante par le Parlement européen dans une résolution du 16 février 2017, ce qui a donné lieu à de nombreuses critiques, en partie reprises par les auteurs du récent rapport pour qui cette option serait « largement impraticable » (cf. rapport p. 36).

  1. La condition de l’originalité

Par construction jurisprudentielle, la protection par le droit d’auteur suppose que la création soit originale. Cette condition ne ressort pas des dispositions du Code de la propriété intellectuelle, qui ne s’y réfère pas, sauf pour protéger le titre des œuvres (cf. article L. 112-4). L’originalité est ainsi appréciée par les juges, au cas par cas, comme l’expression, l’empreinte ou le reflet de la personnalité de l’auteur.

Cette conception impliquant de nouveau une intervention humaine, il apparaît difficile de qualifier d’originale une œuvre générée par une IA : comment celle-ci pourrait-elle, en effet, matérialiser le reflet de la personnalité de son auteur s’il s’agit d’une machine ? Du moins tant que les machines ne seront pas douées de conscience ou d’esprit et qu’une personnalité juridique ne leur sera pas reconnue…

Ces difficultés résultent d’une conception traditionnelle et classique du droit d’auteur français qui ne conçoit la création que comme l’apanage de l’humain et qui place toujours l’auteur, personne physique, au centre de la protection.

Toutefois, comme le relève un récent rapport déposé auprès du CSPLA le 27 janvier 2020, les difficultés ainsi soulevées ne devraient pas être « insurmontables ». Ainsi, sans remettre en cause le lien entre l’auteur et son œuvre qui fonde notre droit d’auteur, ce droit « semble suffisamment souple pour recevoir ces créations » et « l’attribution des droits au concepteur de l’IA semble de nature à apporter des solutions pertinentes ».

B – les solutions offertes par l’application du droit d’auteur

  1. Le rapport « Intelligence artificielle et culture »

Le 25 avril 2018, la Commission européenne, dans sa communication « Une intelligence artificielle pour l’Europe », a invité les États membres à réfléchir aux conséquences de l’intelligence artificielle sur la propriété intellectuelle. Dans ce contexte, le Conseil supérieur de la propriété littéraire et artistique (CSPLA) a confié aux professeures Alexandra Bensamoun et Joelle Farchy une mission sur les enjeux juridiques et économiques de l’intelligence artificielle dans les secteurs de la création culturelle, qui a donné lieu au dépôt, le 27 janvier 2020, d’un rapport intitulé « Intelligence artificielle et culture ».

Selon les auteures de ce rapport, il importe de rappeler en premier lieu que le droit d’auteur et sa mise en œuvre ne peuvent se passer de la présence humaine. Toutefois « une analyse renouvelée des conditions d’accès à la protection (création, originalité, auteur) pourrait permettre de recevoir ces réalisations culturelles au sein du droit d’auteur ».

  1. Quelle solution ?

Ledit rapport écarte ainsi dans ses conclusions toute intervention législative, en retenant qu’il importe d’abord « d’éprouver le droit positif et d’être prêt à intervenir si un éventuel besoin de régulation se révélait à l’avenir » alors que « le droit positif devrait pour l’heure pouvoir être appliqué, dans une lecture renouvelée des critères d’accès à la protection ».

Avec prudence, il est toutefois rappelé qu’il ne peut être exclu, compte tenu de la technique en constant développement, que « l’outil [de l’intelligence artificielle] gagne en autonomie, en réduisant le rôle de l’humain ».

Il ne faut donc pas complètement exclure qu’à l’avenir, une intervention du législateur soit rendue nécessaire et « une voie intéressante pourrait alors être, au vu des différentes positions et analyses, celle de la création d’un droit spécial du droit d’auteur ».

C’est alors le régime appliqué au logiciel ou celui appliqué à l’œuvre collective qui pourrait, selon les auteures du rapport « Intelligence artificielle et culture » déposé au CSPLA, servir de modèle à la création d’un droit spécial, notamment en adaptant les articles L. 113-2 et L. 113-5 du CPI pour y intégrer les créations générées par une IA.

En effet, selon le Code de la propriété intellectuelle, « la qualité d’auteur appartient, sauf preuve contraire, à celui ou à ceux sous le nom de qui l’œuvre est divulguée » (article L. 113-1 du CPI).

Ainsi, dans le cas de l’œuvre collective créée à l’initiative d’une personne physique ou morale qui la divulgue et dans laquelle la contribution de chaque auteur y ayant participé se fond dans un ensemble sans qu’il soit possible d’identifier la contribution de chacun (cf. article L. 113-2 du CPI), il est prévu par l’article L. 113-5 du CPI que cette œuvre « est, sauf preuve contraire, la propriété de la personne physique ou morale sous le nom de laquelle elle est divulguée. Cette personne est investie des droits de l’auteur ».

Il est donc admis qu’une personne morale, si elle ne peut pas être l’auteur d’une œuvre de l’esprit, peut en revanche être titulaire des droits d’auteur existant sur cette œuvre.

L’arsenal juridique de l’œuvre collective et du logiciel semble donc offrir des pistes de solutions intéressantes.

La matière étant, à l’évidence, en constante évolution, la prudence semble de mise, étant rappelé que toute issue législative devra naturellement « s’opérer dans un cadre international, a minima européen ».

 

II- Une protection alternative adaptée aux créations de l’intelligence artificielle

A – L’adaptation du droit d’auteur à l’intelligence artificielle

Si l’œuvre est considérée comme protégée par le droit d’auteur, la question de la paternité de l’œuvre est centrale. Certaines législations étrangères comme Hong Kong, l’Inde, l’Irlande, la Nouvelle-Zélande ou le Royaume-Uni, ont choisi d’attribuer cette paternité au concepteur du programme.

En France, le Conseil supérieur de la propriété littéraire et artistique (CSPLA) recommande, dans son rapport intitulé « Mission Intelligence artificielle et Culture » du 27 janvier 2020, de s’inspirer des mécanismes existants en droit d’auteur. Une première piste résiderait dans l’aménagement de la notion d’originalité afin de qualifier la création de l’intelligence artificielle en œuvre de l’esprit, comme ce fut le cas pour le logiciel, où l’empreinte de la personnalité de l’auteur a été remplacée par l’apport intellectuel de son créateur. S’agissant de la titularité, « la désignation du concepteur de l’intelligence artificielle apparaît comme la solution la plus respectueuse du droit d’auteur » selon le rapport du CSPLA. Une autre possibilité serait d’appliquer les règles de l’accession par production de l’article 546 du Code civil pour permettre au propriétaire de l’intelligence artificielle d’acquérir les accessoires que produit sa chose (les œuvres étant les fruits de l’intelligence artificielle).

Cependant, cela ne signifie nullement que la titularité des droits revienne toujours à la personne physique. En effet, l’instigateur de la technologie pourrait être récompensé sur le modèle de l’œuvre collective qui, selon l’article L. 113-2, alinéa 3, du CPI, est « une œuvre crée sur l’initiative d’une personne physique ou morale qui l’édite, la publie et la divulgue sous sa direction et en son nom ».

Par ailleurs, un droit spécifique, sorte de droit voisin, pourrait être créé pour attribuer des prérogatives patrimoniales à celui qui communique l’œuvre au public. La disposition serait alors intégrée à l’article L. 123-4 du CPI, in fine, en ces termes : « Celui qui prend les dispositions nécessaires en termes d’investissement pour communiquer au public une création de forme générée par une intelligence artificielle et assimilable à une œuvre de l’esprit jouit d’un droit d’exploitation d’une durée de X années à compter de la communication ». Pour permettre plus de souplesse, le CSPLA suggère de privilégier les solutions contractuelles en ajoutant en début de disposition « sauf stipulations contraires ».

Derrière l’identification du titulaire, des créations se pose également la question cruciale de la responsabilité en cas de dommages provoqués par l’intelligence artificielle. En effet, la proposition de règlement de la Commission européenne du 21 avril 2021 place le fournisseur d’un système d’intelligence artificielle comme acteur central. Il est défini comme la personne physique ou morale, l’agence ou tout autre organisme qui développe ou possède un système d’intelligence artificielle, sous son propre nom ou sa propre marque, à titre onéreux ou gratuit. Cette désignation simplifiée du responsable n’est d’ailleurs pas sans rappeler la responsabilité du producteur du fait d’un produit défectueux puisqu’est également désignée comme producteur la « personne qui se présente comme producteur en apposant sur le produit son nom, sa marque ou un autre signe distinctif ».

B – Les modes alternatifs de protection des créations de l’intelligence artificielle

Au-delà du droit d’auteur , le Parlement européen recommande de privilégier une évaluation sectorielle et par type des implications des technologies de l’intelligence artificielle en prenant notamment en compte « le degré d’intervention humaine, l’autonomie de l’IA , l’importance du rôle et de la source des données et des contenus protégés par le droit d’auteur utilisés, ainsi que l’éventuelle intervention d’autres facteurs ; rappelle que toute démarche doit trouver le juste équilibre entre la nécessité de protéger les investissements en ressources et en efforts et celle d’encourager la création et le partage ».

Pour sa part, le CSPLA suggère de s’inspirer du droit accordé au producteur de bases de données en introduisant un droit sui generis visant à protéger les efforts financiers, humains ou matériels des intervenants au processus créatif développé par l’intelligence artificielle.

Appliqué à l’intelligence artificielle, ce droit sui generis permettrait un retour sur investissement, déjouant ainsi les tentatives d’appropriation de valeur et encourageant du même coup l’investissement dans le domaine de l’intelligence artificielle. La proposition pourrait être intégrée dans la première partie du code de la propriété intellectuelle, à la suite du droit des bases de données : « Le producteur d’une intelligence artificielle permettant la génération de créations assimilables à des œuvres de l’esprit bénéficie d’une protection sur ces créations lorsque celles-ci résultent d’un investissement financier, matériel ou humain substantiel ».

En tout état de cause, d’autres modes de protection existent. Ainsi, le programmateur de la technologie peut se faire rémunérer en concédant une licence d’utilisation de son logiciel. De plus, la directive n° 2016/943 du 8 juin 2016 sur le secret des affaires, transposée à l’article L. 151-1 du CPI, permet au concepteur de s’opposer à la divulgation illicite du savoir-faire technologique et l’appropriation de son investissement. Enfin, une action sera toujours possible sur le fondement du droit commun de la responsabilité civile extracontractuelle contre les actes de concurrence déloyale ou les agissements parasitaires.

Pour lire un article plus complet sur l’intelligence artificielle et la protection des contenus, cliquez

Sources :
Cour de cassation, civile, Chambre civile 1, 15 janvier 2015, 13-23.566, Publié au bulletin – Légifrance (legifrance.gouv.fr)
Cour de cassation, Assemblée Plénière, du 7 mars 1986, 83-10.477, Publié au bulletin – Légifrance (legifrance.gouv.fr)

Vers une légitime défense des entreprises face au piratage de données ?

Depuis l’arrivée du numérique dans nos vies le monde assiste à l’émergence de nouvelles menaces. L’information, désormais surabondante, est devenue stratégique et fait l’objet de convoitises. C’est ainsi que la guerre de l’information représente un risque tant pour les États que pour les entreprises de toutes les tailles et de tous les domaines.

La préservation d’informations sensibles est un enjeu majeur pour les entreprises.  Le droit pénal appliqué à la fraude liée au numérique demeure du droit pénal. La criminalité informatique est très difficile à relever et sa découverte est souvent hasardeuse. Cette difficulté est renforcée par le caractère transfrontalier de l’activité frauduleuse. Aussi les entreprises auraient de plus en plus tendance à se protéger en amont contre cette criminalité numérique. Mais quelles sont les possibilités qui s’ouvrent à elles ?

NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire !

Aux États-Unis, la violation de la propriété intellectuelle d’entreprises américaines coûte chaque année plusieurs centaines de milliards de dollars. La Chine serait à ce titre responsable de 50% à 80% des atteintes. Mais la Russie, l’Inde et d’autres pays qui disposent d’un environnement juridique peu élaboré en ce qui concerne les droits de propriété intellectuelle et de politiques industrielles protectionnistes, constituent tout autant des acteurs importants de ce phénomène. Outre la perte énorme de revenus pour ceux qui ont créé les inventions ou acheté des licences, ces atteintes mettent à mal les incitations à innover pour les entrepreneurs.

Les recours juridiques en matière de propriété intellectuelle ne suivent pas, car la lenteur de ces recours ne répondant pas aux besoins des entreprises dont les produits ont des cycles de vie et de profit courts. Ainsi, la coopération aux plans national et international n’a cessé de croitre en matière de lutte contre la cybercriminalité. La lutte contre les cybermenaces passe en effet incontestablement par des réponses coordonnées au niveau international.

Ce caractère transnational impose aux États la mise en place d’actions concertées visant à établir des politiques de coopération européenne et internationale en matière de lutte contre la cybercriminalité. C’est dans ce cadre que la Directive 2013/40/UE relative aux attaques contre les systèmes d’information a été adoptée le 12 août 2013 par le Parlement européen et devra être transposée en droit interne avant le 4 septembre 2015 et est entrée en vigueur le 3 septembre 2019. A cette occasion, le droit européen s’était emparé de la question du vol de données . Mais face à l’évolution des nouvelles technologies et de la cybercriminalité, cette directive a par la suite été complétée en 2016 à la suite de l’adoption de la directive NIS 1.


Besoin de l’aide d’un avocat pour un problème de piratage informatique ?

Téléphonez-nous au : 01 43 37 75 63

ou contactez-nous en cliquant sur le lien


Plus récemment, la Directive NIS 2 a été adoptée et son nouveau cadre a permis une actualisation des notions ainsi qu’une amélioration de la coopération européenne face à l’évolution du paysage des cybermenaces. Elle conserve cependant les objectifs annoncés par sa première version et promet d’augmenter la cyber résilience des systèmes informatiques, de réduire la cybercriminalité et de renforcer la politique de l’Union européenne en matière de cybersécurité et de cyberdéfense à l’échelle internationale.

Nous observerons avant tout la situation française avec dans un premier temps une mise au point du cadre des vols de données (I) pour ensuite observer les conséquences sur l’entreprise (II).


I. Quel cadre pour le vol de données ?

La France s’est dotée d’un arsenal répressif pour lutter contre la fraude informatique en 1988, avec la loi Godfrain, qui punit les atteintes aux systèmes de traitement automatisé des données. Cette loi a été complétée à de multiples reprises afin d’adapter la prévention et la répression à l’évolution des cyberattaques.

A) Qualification légale du vol de données

La loi du 13 novembre 2014, renforçant les dispositions relatives à la lutte contre le terrorisme opère, par son article 16, un changement de rédaction de l’article 323-3 du Code pénal, permettant de réprimer le vol de données, sans toutefois recourir à la qualification de vol. Cet article vient ainsi sanctionner la copie frauduleuse de données, dans une optique de protection accrue de « l’économie de la connaissance ». Les informations sont en effet des éléments de valeurs qu’elles soient matérielles ou immatérielles. Il s’agit non seulement de garantir la protection du secret des affaires mais également d’enjeux de réputation.

Auparavant les juridictions s’appuyer sur les dispositions de l’article L311-1 du Code pénal pour sanctionner le vol de données. Or, cet article posait plusieurs limites en ce qu’il qualifie de vol « la soustraction frauduleuse de la chose d’autrui ». Deux éléments sont à dégager de cette définition. En premier lieu, le vol doit porter sur une chose et en second lieu, il faut que cette chose soit soustraite. En outre, il ressort d’une jurisprudence constante que le vol doit reposer sur un élément matériel.

Dans un arrêt de la Cour de cassation en date du 4 mars 2008, le vol de données a été caractérisé suivant une double condition : le fait non seulement du détournement du support sur lequel se trouvaient les données, mais en plus, du caractère secret des informations concernées. En outre, cet arrêt insistait longuement sur la nécessaire matérialité du vol. Néanmoins, ce raisonnement laissait d’ores et déjà entrevoir la réflexion selon laquelle le vol pourrait être caractérisé dès lors que les opérations effectuées allaient à l’encontre de la volonté du propriétaire des données. Le caractère secret des informations manifeste l’expression de la propriété physique sur des données immatérielles, répondant ainsi aux critères posés par le Code pénal.

Ainsi, la difficulté liée au vol de données informatiques d’un point de vue juridique s’expliquait d’une part par le caractère immatériel des données et d’autre part, par le fait que dans la plupart des affaires, les données étaient simplement copiées et non pas soustraites. Ce constat a d’ailleurs été pris en compte à l’occasion de la modification de l’article 323-3 du Code pénal. L’incrimination de la reproduction et de l’extraction de données par cet article permet donc de s’assurer de manière certaine de la répression de ces comportements.

La « fraude informatique » c’est-à-dire l’ensemble des agissements intéressant l’informatique qu’on peut tenir pour répréhensibles, est multiforme. Il peut ainsi s’agir de :

Manipulations informatiques : manipulation des données à saisir à l’entrée du système ; manipulation de programmes ; manipulation au niveau des commandes du terminal ; manipulation des données à la sortie ; utilisation abusive de services informatiques sur place ou à distance ; intrusion informatique .

Espionnage par ordinateur : vol de logiciel ; vol d’information ou utilisation abusive d’informations.

Sabotage de l’ordinateur : destruction ou altération des données ; actes de vandalisme.

Délits économiques usuels, c’est-à-dire détournement de fonds en utilisant des moyens informatiques.

Il faut par ailleurs faire une opposition fondamentale selon que les « biens informatiques » sont l’objet de la fraude (sabotage de l’ordinateur par exemple) ou qu’ils sont le moyen de la fraude (l’ordinateur servant, par exemple, à réaliser une escroquerie). Mis en avant par MM. Devèze et Gassin, ce clivage a son importance.

Ainsi, dans un arrêt de la Cour de cassation du 4 mars 2008, le vol de données a été caractérisé suivant une double condition : le fait non seulement du détournement du support sur lequel se trouvaient les données, mais en plus, du caractère secret des informations concernées. En outre, cet arrêt insistait longuement sur la nécessaire matérialité du vol. Néanmoins, ce raisonnement laissait d’ores et déjà entrevoir la réflexion selon laquelle le vol pourrait être caractérisé dès lors que les opérations effectuées allaient à l’encontre de la volonté du propriétaire des données. Le caractère secret des informations manifeste l’expression de la propriété physique sur des données immatérielles, répondant ainsi aux critères posés par le Code pénal.

Cette délinquance est ainsi diversifiée, complexe et très souvent internationale. Par ailleurs, la motivation des cyber délinquants est particulièrement variée (gain financier, défi technique, défense d’une idéologie, espionnage industriel, etc.). Plus grave encore, 80% des cyberattaques sont internes aux entreprises.

B) Quelle réponse des entreprises face au vol de données ?

Entreprise sensible ou pas, chacun possède des informations stratégiques qui peuvent entraîner des conséquences plus ou moins graves en cas de divulgation, modification, ou perte de celles-ci. Elles sont donc vitales pour la structure. Une information stratégique est une information qui, quel que soit son contenu ou sa forme, pourrait avoir des conséquences graves sur la vie de l’entreprise, de ses employés, de ses clients, partenaires ou fournisseurs.

L’Article 122-5 al. 1 du Code pénal énonce que « n’est pas pénalement responsable la personne qui, devant une atteinte injustifiée envers elle-même ou autrui, accomplit, dans le même temps, un acte commandé par la nécessité de la légitime défense d’elle-même ou d’autrui, sauf s’il y a disproportion entre les moyens de défense employés et la gravité de l’atteinte ». Pourrait-on appliquer cet article à la personne morale de l’entreprise en cas d’attaque informatique ? Cette question reste en suspens, mais les autorités s’en saisissent de plus en plus en développant un cadre législatif autour de ce phénomène.

 Ainsi, un rapport de 55 propositions sur la cybercriminalité remis en juin 2014 permet de mettre en relief trois objectifs : une volonté de mieux appréhender le phénomène, de mieux prévenir les infractions et de mieux les réprimer. Ce rapport propose d’aborder une définition de la cybercriminalité en proposant que celle-ci regroupe « toutes les infractions tentées ou commises à l’encontre ou au moyen d’un système d’information et de communication, principalement internet ». Il aborde ainsi l’implication des professionnels, la mise en place d’une agence de régulation et le développement de peines spécifiques.

Par ailleurs, des services spécialisés se sont développés au niveau national. L’explosion du nombre des cyberattaques a contraint la France à adopter une véritable politique de défense afin de protéger ses systèmes d’information.

  • l’Agence nationale de sécurité des systèmes d’information (ANSSI), créée en juillet 2009 et chargée de proposer des règles en matière de protection des systèmes d’information de l’État ;
  • l’Office central de lutte contre la criminalité liée aux technologies de l’information et de la communication (OCLCTIC), chargé de lutter contre toutes les infractions liées aux nouvelles technologies de l’information et de la communication ;
  • la Bridage d’enquêtes sur les fraudes aux technologiques de l’information (BEFTI), qui intervient principalement sur des problématiques de propriété intellectuelle notamment en cas d’atteinte aux systèmes d’information ;
  • le Service technique de recherches judiciaires et documentation (STRJD) qui a pour fonction de centraliser et exploiter les informations judiciaires qui lui sont transmises par l’ensemble des unités de la gendarmerie nationale notamment sur les infractions relatives à la transmission de données à caractère illicite sur Internet.

L’adoption de la loi d’orientation et de programmation du ministère de l’intérieur (LOPMI) le 24 janvier 2023 prévoit une hausse du budget de l’Intérieur de 15 milliards d’euros sur les cinq prochaines années, pour investir dans le numérique, pour une plus grande proximité des services et pour mieux prévenir les menaces et les crises.  Elle promet également le déploiement de 1 500 cyberpatrouilleurs supplémentaires. Ce déploiement de moyens témoigne de la nécessité d’investir massivement dans le domaine technologique au regard des enjeux qui en ressortent.

Au cœur de l’entreprise, les bons réflexes à adopter sont, outre une préparation en amont consistant en un état des lieux des données sensibles et une information constante des équipes, la nécessité d’être réactif face à une attaque. Selon Christophe d’Arlhac, consultant et dirigeant, sont d’abord et avant tout la sensibilisation des collaborateurs, la fixation de règles pour l’utilisation du système d’information et le renforcement de la sécurité de ce système. Ainsi, en cas d’attaque, le comportement à adopter dépendra de la stratégie d’attaque. La cyberassurance s’avère être également une solution émergente. Outre le recouvrement des coûts liés à une attaque cybercriminels, disposer d’une cyberassurance permet à l’entreprise de disposer de réseaux d’experts qui permettent de réagir rapidement. Par contre, elle ne s’adapte pas à tout contexte, c’est pourquoi un certain nombre de questions doivent se poser avant de souscrire une cyberassurance : les besoins de la société, le type de cyberassurance, les conditions de déclenchement de celle-ci, etc.

Comme le relève Eric Hazane « Si les cas de cyberattaques frappant les grands groupes industriels focalisent l’attention des médias, les PME sont quotidiennement visées par des cyberattaquants appâtés par la vulnérabilité de petites structures peu ou pas protégées, faute de moyens ou de sensibilisation à la nouvelle économie numérique. »

L’entrée en vigueur du RGPD le 25 mai 2018 a permis d’harmoniser les règles européennes applicables à la protection des données à caractère personnel et pose notamment une obligation générale de sécurité aux entreprises qui doivent mettre en œuvre des mesures techniques et organisationnelles appropriées afin de garantir un niveau de sécurité adapté aux risques.

Aujourd’hui nombreux sont les sites dédiés à ce sujet et édités par les autorités compétentes en la matière. Il est à ce titre possible de citer le site internet de l’ANSSI ou encore de la CNIL qui regorgent de recommandations et de guides qui permettent de sensibiliser les différents acteurs aux enjeux et réglementations en vigueur.

De plus, l’épidemie de Covid-19 a accéléré l’usage du numérique et a marqué une nouvelle étape dans la progression des cyber menaces. Selon les observations de l’Agence de l’Union Européenne pour la cybersécurité (ENISA), entre avril 2020 et juillet 2021, les incidents liés aux principales menaces de cybersécurité touchent d’abord l’Administration publique et le Gouvernement, les fournisseurs de services numériques, mais également le grand public, le secteur de la santé et médical et enfin le domaine de la finance et bancaire.

L’ENISA comptabilise environ une attaque par rançongiciel toutes les onze secondes sur/dans l’ensemble des entreprises situées sur le territoire européen. Ces mêmes attaques ciblent les structures les plus fragiles, notamment les PME, TPE et start-up, qui manquent de moyens pour sécuriser leur système d’information.

La cyber assurance s’avère être également une solution émergente pour couvrir de tels risques. Outre le recouvrement des coûts liés à une attaque cybercriminels, disposer d’une cyber assurance permet à l’entreprise de disposer de réseaux d’experts qui permettent de réagir rapidement. En revanche, elle ne s’adapte pas à tout contexte, c’est pourquoi un certain nombre de questions doivent se poser avant de souscrire une cyber assurance : les besoins de la société, le type de cyber assurance, les conditions de déclenchement de celle-ci, etc.

Comme le précise le rapport sur le développement de l’assurance cyber risque, publié en septembre 2022, « L’assurance a un rôle clé à jouer à la fois pour protéger le tissu économique mais aussi pour sensibiliser les entreprises, en particulier les TPE/PME, à leur exposition au risque cyber. »

Par ailleurs, la loi LOPMI du 24 janvier 2023 fixe un nouveau cadre pour les clauses de remboursement des cyber-rançons par les assurances. Le remboursement sera désormais conditionné au dépôt d’une plainte de la victime dans les 72h après connaissance de l’infraction. Cette obligation est limitée aux professionnels et devrait s’appliquer 3 mois après la promulgation de la loi. Elle a pour objectif d‘améliorer l’accès à ces informations par la police et la justice.

II – Quelles conséquences pour les entreprises ?

            A) L’e-reputation à l’épreuve des piratages

 La cybercriminalité fait également peser un «risque de réputation » significatif sur les entreprises. En cas d’attaque, leurs données personnelles ainsi que celles de leurs partenaires commerciaux ou clients peuvent être dérobées et divulguées. L’impact peut ainsi s’avérer préjudiciable non seulement pour la réputation, mais encore pour la crédibilité de l’entreprise auprès de ses partenaires.

L’e-réputation est un phénomène assez récent. Il s’agit non seulement de l’image que l’entreprise donne d’elle-même sur internet, mais également du ressenti qu’ont les consommateurs à son propos. Le numérique a considérablement complexifié les rapports entre les consommateurs et l’entreprise, permettant un dialogue entre les différentes parties grâce à de nouveaux supports que l’entreprise ne peut pas forcément contrôler. Bien que le web ait permis un surplus de création de valeur ajoutée non négligeable pour les entreprises, il a fait dépendre des internautes la réputation des  entreprises.

La première des urgences pour l’entreprise reste de protéger sa réputation auprès de ses clients pour préserver ses relations commerciales. Elle doit également restaurer la confiance des actionnaires et du grand public, mais aussi maintenir son chiffre d’affaires prévisionnel et éviter des pertes financières non provisionnées. Pour ce faire, le dirigeant doit faire appel d’abord à un expert IT, pour déterminer l’origine de l’attaque, la circonscrire, identifier les données impactées, réparer la faille et upgrader le système. Il va également recourir aux services d’un spécialiste de la communication de crise, pour contrôler les conséquences de l’attaque sur la réputation de son entreprise (plan de communication media, training des porte-paroles, etc.), ainsi qu’à un avocat pour gérer les relations avec les régulateurs et les tiers (clients, employés, etc.).

B) Illustrations récentes des cas de vol de données

En février 2014, l’opérateur annonce avoir été victime d’un piratage informatique.  Cette attaque de grande ampleur a mis en cause une masse extrêmement importante de données personnelles . Même si l’opérateur a annoncé par la suite que l’intrusion a été éphémère, et que l’intégrité des codes personnels n’a pas été menacée, des menaces de phishing ont pesé sur les clients par le biais de sollicitations douteuses qu’ils pourraient recevoir par email.  C’est en tout pas moins d’1,3 million de personnes qui auraient été touchées par le vol des données.

Autre affaire très récente, les dirigeants de Sony Pictures ont reconnu que le studio de cinéma a été victime d’un vol « très important de données confidentielles » au cours d’une attaque informatique sophistiquée. Les pirates auraient dérobé « des données personnelles d’employés, de l’entreprise et de tiers » ainsi que des documents. Par ailleurs, cinq films de Sony Pictures, y compris certains qui ne sont pas encore sur les écrans ont aussi été piratés.

Cette attaque informatique est encore aujourd’hui, l’une des plus importantes jamais subies par une entreprise aux États-Unis.

Lors de cette attaque, les pirates ont dérobé des données personnelles d’employés, de l’entreprise et de tiers, ainsi que des documents. Par ailleurs, plusieurs films de Sony Pictures, dont certains qui n’étaient pas encore sortis sur les écrans ont été piratés.
Le 19 décembre 2014, le Federal Bureau of Investigation (FBI) a assuré avoir « récolté suffisamment d’informations pour conclure que le gouvernement nord-coréen est responsable de ces actions ». Cette attaque aura non seulement entraîné des répercussions sur les employés de la société Sony Pictures, mais également sur les bénéfices que la société projetait de faire.

En septembre 2022 ce sont les données personnelles de clients orange Cyberdéfense qui se sont retrouvées en ligne. Le fichier mis en ligne sur un forum cybercriminel contenait les données personnelles d’environ un millier de clients (dont le groupe Le Monde) de la solution Micro-SOC Endpoint, commercialisée par Orange Cyberdéfense.

Ce fichier représente une véritable menace pour les entreprises clientes mais également pour les employés chargés de la cybersécurité de ces entreprises. En effet, ces profils sont une mine d’or pour les cybercriminels qui souhaiteraient cibler des sociétés françaises.

Sources :

– http://blogs.lentreprise.com/l-entreprise-et-les-medias/2014/02/03/piratage-de-donnees-lincroyable-silence-dorange/
http://toiledefond.net/e-reputation-des-entreprises/
http://business.lesechos.fr/directions-numeriques/cyber-attaques-se-preparer-pour-reagir-efficacement-7388.php?id=7388#
http://www.leparisien.fr/economie/les-pme-face-a-la-cybercriminalite-15-09-2014-4136531.php
http://www.it-expertise.com/comment-faire-face-a-la-cybercriminalite/
-http://www.globalsecuritymag.fr/Lutte-contre-la-cybercriminalite,20131007,40067.htm
https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000028022455
– Gazette du Palais, 18 juin 2015 n° 169, P. 8 : https://www.lextenso-etudiant.fr/articles-%C3%A0-la-une/vol-de-donn%C3%A9es-informatiques
– Affaire Sony Pictures : https://fr.wikipedia.org/wiki/Piratage_de_Sony_Pictures_Entertainment
– Article du journal « Le Monde » sur Orange Cyberdéfense : https://www.lemonde.fr/pixels/article/2022/09/06/des-donnees-personnelles-de-clients-orange-cyberdefense-diffusees-en-ligne_6140399_4408996.html

Droit et geolocalisation

La géolocalisation permet de localiser géographiquement un objet ou une personne. Ce procédé offre des possibilités d’actions marketing ciblées très avantageuses pour les entreprises et les utilisateurs. Il permet de cerner la personnalité et les habitudes de chaque individu. Néanmoins, l’exploitation de cette fonctionnalité entraîne, fatalement, une surveillance des déplacements dans le temps et l’espace qui peut nuire à la vie privée des individus.

NOUVEAU : Utilisez nos services pour faire valoir vos droits en droit du travailen passant par le formulaire !

La géolocalisation est une technologie permettant de déterminer, plus ou moins précisément, la localisation d’un objet ou d’une personne par l’intermédiaire d’un système GPS ou d’un téléphone mobile. Ce service est accompli par un réseau de télécommunication.

Avec le développement des nouvelles technologies, la majorité des applications installées sur nos smartphones offre des fonctions de partage de localisation. La géolocalisation est un outil utile lorsqu’elle est utilisée de manière bienveillante. On la retrouve en particulier dans le transport (par exemple de suivre un chauffeur VTC, trouver une trottinette électrique), dans la livraison (suivre la progression d’une livraison en cours), pour assurer la sécurité des biens (pour retrouver sa voiture ou son smartphone par exemple) ou encore dans le sport (certaines applications sportives proposent de retracer l’itinéraire de l’utilisateur lors d’un footing ou d’une randonnée). Bien que ces technologies soient utiles, elles récupèrent des données à caractère personnel qui peuvent comprendre des risques pour notre vie privée.

Selon l’article 4 du Règlement européen sur la protection des données, une donnée est personnelle dès lors qu’elle permet d’identifier directement ou indirectement un individu personne physique.

La personne est identifiée directement lorsque son nom apparaît dans un fichier et, indirectement lorsque le fichier comporte des informations l’identifiant (adresse IP, numéro de téléphone…).

Lorsqu’elles sont utilisées et permettent la mise en place de service, il s’agit d’un traitement qui est strictement encadré par la loi.

Selon le même article,  » Constitue un traitement de données à caractère personnel toute opération ou tout ensemble d’opérations portant sur de telles données, quel que soit le procédé utilisé, et notamment la collecte, l’enregistrement, l’organisation, la conservation, l’adaptation ou la modification, l’extraction, la consultation, l’utilisation, la communication par transmission, diffusion ou toute autre forme de mise à disposition, le rapprochement ou l’interconnexion, ainsi que le verrouillage, l’effacement ou la destruction « .

I/ Le droit et  la géolocalisation


Besoin de l’aide d’un avocat pour un problème de droit  du travail ?

Téléphonez-nous au : 01 43 37 75 63

ou contactez-nous en cliquant sur le lien


Le RGPD énonce en son chapitre II un certain nombre de principes qui régissent la mise en place d’un traitement de données. Certaines de ces obligations incombent aux sociétés exploitantes ou utilisant un service de géolocalisation dans la mesure où cela entraîne un traitement de données personnelles et une possible atteinte à la vie privée des utilisateurs.

 » Le traitement doit avoir un objectif précis et les données récoltées doivent être en concordance avec cet objectif. Cette finalité ne doit pas être détournée, les données doivent toujours être exploitées dans le même but.

 » L’utilisateur doit donner son autorisation avant toute collecte de donnée de localisation.
La localisation peut être ponctuelle ou continue. Lorsqu’elle est ponctuelle, la collecte d’information est limitée dans le temps et l’espace (météo ou trafic routier). Ainsi, la simple demande, par l’utilisateur, d’accéder à un tel service est considérée comme une manifestation de son consentement.
Lorsque la localisation est continue, l’utilisateur doit avoir la possibilité de l’utiliser, ou non, à chaque fois qu’il le souhaite, par l’intermédiaire d’une inscription (bouton, case à cocher).

 » Une information précise de la nature du traitement des données doit être apportée aux utilisateurs (type de donnée, durée de conservation, finalité et droits relatifs à ces données).

 » Les données personnelles doivent être soumises à des mesures de sécurité adaptées aux risques amenés par le traitement. Dès lors, les responsables du traitement mettre en place une sécurité à la fois physique et logique.

 » Les données collectées doivent, nécessairement, jouir d’une date de péremption. Les responsables ont l’obligation de fixer une durée raisonnable de conservation. Le caractère raisonnable s’apprécie en fonction de l’objectif du service et à la durée nécessaire à sa fourniture. Une fois le service fourni, une conservation est possible lorsque les données sont indispensables à la facturation et au paiement des frais d’interconnexion. Si ces données donnent lieux à la conservation d’un historique, elles doivent être rendues anonymes.

En outre, la géolocalisation peut également toucher la vie privée des salariés. L’entrée en vigueur du Règlement général sur la protection des données (RGPD) a exempté l’employeur de l’obligation de déclaration à la CNIL des systèmes de géolocalisation de véhicules professionnels. Toutefois, l’employeur reste tenu d’une obligation d’information de ses salariés de l’existence du dispositif en question et des droits qui peuvent en découler. Il doit, éventuellement, informer et consulter le Comité social et économique au préalable à la mise en place de ce dispositif

L’article L1121-1 du Code du travail dispose que : « Nul ne peut apporter aux droits des personnes et aux libertés individuelles et collectives de restrictions qui ne seraient pas justifiées par la nature de la tâche à accomplir ni proportionnées au but recherché. » (1)

Le Conseil d’État avait énoncé, dans un arrêt rendu le 15 décembre 2017, qu’« il résulte de [l’article L. 1121-1 du Code du travail] que l’utilisation par un employeur d’un système de géolocalisation pour assurer le contrôle de la durée du travail de ses salariés n’est licite que lorsque ce contrôle ne peut pas être fait par un autre moyen, fût-il moins efficace que la géolocalisation. En dehors de cette hypothèse, la collecte et le traitement de telles données à des fins de contrôle du temps de travail doivent être regardés comme excessifs au sens du 3° de l’article 6 de la loi du 6 janvier 1978 précité. » (2)

À cet effet, la Cour de cassation s’est alignée sur cette jurisprudence du Conseil d’État. En effet, dans un arrêt de la chambre sociale du 19 décembre 2018, la Cour de cassation a également illustré le contrôle mis en place en vertu de l’article L1121-1 du Code de travail.

En l’espèce, la question se posait autour de la licéité d’un dispositif de géolocalisation mis en place par une société spécialisée dans la distribution de publicités ciblées afin de localiser les salariés chargés de la distribution et de contrôler ainsi leur durée de travail.

La Cour de cassation s’est prononcée en considérant que ce système de géolocalisation est disproportionné quant au but recherché, et ce, sur le fondement de l’article L1121-1 du Code de travail. Les juges de cassation se fondent sur deux raisons principales à savoir que, ce système n’est licite « que lorsque ce contrôle ne peut pas être fait par un autre moyen fût-il moins efficace que la géolocalisation » et que l’usage de ce dernier « n’est pas justifié lorsque le salarié dispose d’une liberté dans l’organisation de son travail ». (3)

Une autre fonction rendue possible par la géolocalisation a fait l’objet d’un avis de la CNIL. Il s’agit du marketing ciblé qui transforme le terminal mobile de l’utilisateur en un support de message publicitaire.
Selon la CNIL  » le marketing ciblé basé sur de la géolocalisation n’est pas interdit « , néanmoins les usagers doivent souscrire à des services de géolocalisation et être informés de la possibilité de s’y opposer.

II/ Le rôle particulier de la CNIL et ses pouvoirs

La CNIL est une autorité indépendante créée par la loi du 06 Janvier 1978 « Informatique et libertés ». Elle à ce titre chargée de veiller à ce que l’informatique soit au service du citoyen et qu’elle ne porte atteinte ni à l’identité humaine, ni aux droits de l’homme, ni à la vie privée, ni aux libertés individuelles ou publiques. Elle exerce ses missions conformément à la loi no 78-17 du 6 janvier 1978 modifiée notamment en 2004 et en 2019.

Le développement généralisé de la géolocalisation amène la commission à être vigilante et à multiplier les opérations de sensibilisation à l’attention de l’ensemble des citoyens et sociétés.
Elle émets de nombreux avis sur de nouveaux dispositifs de géolocalisation, jugés trop intrusifs (Google Latitude, Facebook Lieux).

À travers ses contrôles, la CNIL peut infliger des sanctions en cas de non-respect des obligations légales.
Les contrôles ont été renforcés ces dernières années au sein des entreprises proposant des services de géolocalisation. La CNIL peut effectuer ses contrôles directement dans les locaux des entreprises et demander la communication de tout document permettant l’accès aux programmes informatiques et aux données afin de vérifier la licéité et la conformité des traitements effectués.

Lorsqu’une entrave à la loi est constatée, la CNIL peut prononcer des sanctions pécuniaires pouvant s’élever jusqu’à un montant maximum de 150 000€ et 300 000 en cas de récidive. De surcroît, des injonctions de cesser le traitement illicite peuvent être déclarées.
Les manquements à la loi  » Informatique et Libertés  » sont punis de 5 ans d’emprisonnement et de 300 000€ d’amende.

En 2011, la commission s’est attaquée à Google et à ses services Street View et Latitute. L’entreprise a été condamnée à 100 00€ d’amende. Les voitures de Street View et Latitude collectaient, en plus des photos, les réseaux Wifi ouverts et de ce fait une grande quantité de données privées.

Depuis le 25 mai 2018, la formation restreinte de la CNIL peut prononcer des sanctions à l’égard d’organismes qui ne respectent pas le règlement général sur la protection des données (RGPD) de l’Union européenne jusqu’à 20 millions d’euros ou, dans le cas d’une entreprise, jusqu’à 4 % du chiffre d’affaires mondial.

S’agissant de la mise en œuvre d’un dispositif de géolocalisation des salariés, la CNIL apporte sur des éclaircissements quant à la licéité de cette pratique. En effet, cette dernière liste les utilisations permises et les utilisations proscrites.

Ainsi, il est permis à titre d’exemple de recourir à ce dispositif afin d’assurer le suivi d’une prestation, d’assurer la sécurité ou la sûreté du salarié et/ou des marchandises, de veiller à une allocation optimale des moyens mis à disposition pour l’exécution de la prestation et de veiller au respect des règles d’utilisation du véhicule.

Toutefois, le dispositif de géolocalisation ne peut avoir pour finalité de contrôler le respect des limitations de vitesse, de contrôler l’employé en permanence, de surveiller les déplacements du salarié en dehors de son temps de travail ou encore de contrôler les déplacements des représentants du personnel. (4)

Le rôle de la CNIL s’avère de plus en plus fondamental face à la multiplication et la banalisation de ces technologies. Un simple défaut de paramétrage, où en cas de piratage d’un téléphone, une surveillance constante des utilisateurs peut s’instaurer.

III. Illustration récente

En 2020, la CNIL a pour partie axé son action de contrôle sur plusieurs thématiques prioritaires en lien avec les préoccupations quotidiennes des Français dont la géolocalisation pour les services de proximité.

Dans une délibération rendue le 16 mars 2023 par la formation restreinte de la CNIL, une sanction de 125 000 euros a été prononcée à l’encontre de la société CITYSCOOT pour avoir notamment porté une atteinte disproportionnée à la vie privée de ses clients en les géolocalisant de manière quasi permanente. Cette décision a été prise en coopération avec les autorités de protection des données espagnole et italienne dans la mesure où la société propose aussi ces services dans ces pays.

Depuis 2016, la société propose un service de location de scooters électriques en libre-service accessible à partir de son application mobile. Les scooters ne sont pas stationnés dans des espaces précis et peuvent être laissés, après utilisation, dans la zone de location identifiée dans l’application. Les véhicules sont équipés d’un dispositif de localisation embarqué qui permet à CITYSCOOT et aux utilisateurs, via leur application mobile, de connaître la position des scooters. La location d’un scooter électrique auprès de la société suppose la création d’un compte à partir de l’application mobile. Il s’agit d’un service sans engagement qui est facturé à la minute.

Un contrôle en ligne a été effectué sur le site web  » cityscoot.eu  » et l’application mobile  » CITYSCOOT « , le 13 mai 2020.  La délégation de la CNIL s’est notamment attachée à vérifier les données collectées et les finalités de la collecte. Ce contrôle avait également pour but de vérifier l’encadrement de la sous-traitance et la sécurité des données.

A l’occasion de ce contrôle, la CNIL s’est aperçue qu’au cours de la location d’un scooter par un particulier, la société collectait des données relatives à la géolocalisation du véhicule toutes les 30 secondes lorsque le CITYSCOOT est actif et que son tableau de bord est allumé, qu’il soit en déplacement ou prêt à rouler. Lorsque le CITYSCOOT est inactif, le boîtier collecte des données de position toutes les 15 minutes. En outre, la société conservait l’historique de ces trajets durant douze mois en base active, puis douze mois en archivage intermédiaire avant d’être anonymisées.

La société justifie la collecte des données de position des scooters au regard de diverses finalités telles que le traitement des infractions au code de la route, le traitement des réclamations clients, le support aux utilisateurs (afin d’appeler les secours en cas de chute d’un utilisateur), ou encore la gestion des sinistres et des vols. Or selon la CNIL, aucune des finalités avancées par la société ne justifie une collecte quasi permanente des données de géolocalisation au cours de la location d’un scooter.
Elle relève un premier manquement à l’article 5 du RGPD qui instaure l’obligation de veiller à la minimisation des données.

Elle a également pu constater que la société fait appel à quinze sous-traitants ayant un accès ou hébergeant des données à caractère personnel. Sur ces quinze contrats, elle considère que les contrats avec les sociétés ne contiennent pas toutes les mentions prévues par le RGPD. D’une part, certains d’entre eux ne mentionnent pas les dispositions relatives aux procédures de suppression ou de renvoi des données à caractère personnel du sous-traitant au responsable de traitement à échéance du contrat. D’autre part, certains ne mentionnent ni l’objet du traitement, ni sa durée.

Elle constate donc un second manquement à l’obligation d’encadrer les traitements faits par un sous-traitant par contrat (article 28 du RGPD).

Pour finir, elle souligne également un manquement à l’obligation d’informer l’utilisateur et d’obtenir son consentement avant d’inscrire et de lire des informations sur son équipement personnel (article 82 de la LIL).

Comme le rappelle la CNIL « Le montant de la sanction tient compte du chiffre d’affaires de la société, de la gravité des manquements constatés mais également des mesures prises par la société pour y remédier lors de la procédure. »

Pour lire une version plus complète de cet article sur la géolocalisation, cliquez

Sources :