base de données

Intelligence artificielle

Woody Allen l’a dit : “L’intelligence artificielle se définit comme le contraire de la bêtise humaine”. Cette phrase, à moitié pleine d’ironie, cache en réalité un constat indéniable : celui d’une avancée exponentielle en la matière.

La peur que les machines surpassent les hommes, est avec l’intelligence artificielle, une crainte bien réelle. Quand est-il lorsque cette machine crée un dommage ? Qui peut être tenu responsable ?

NOUVEAU ! Pour tenter de faire supprimer un contenu qui pénalise vos droits, vous pouvez utiliser le service d’envoi de lettre de mise en demeure mis en place par le cabinet Murielle-Isabelle CAHEN.

Ces dernières années, l’intelligence artificielle s’est particulièrement développée et a été au cœur de nombreuses avancées. On peut notamment citer un exploit récent réalisé par l’intelligence artificielle AlphaGo créée par la société Deepmind, qui a, en 2016 été capable de batte le champion du monde de Go Lee Sedol. Ce jeu de plateau était pourtant réputé “impraticable” par une machine du fait des innombrables combinaisons possibles.

Même si ces nouvelles technologies fascinent, elles ne sont pas sans risque.

C’est donc naturellement qu’un débat autour de l’intelligence artificielle et plus précisément de la détermination du responsable (sur le plan civil comme pénal) dans le cadre d’un dommage causé par l’intelligence artificielle, ne fait pas encore consensus (I), il est pourtant essentiel de trouver une solution à des litiges de plus en plus fréquents (II).

I) Les enjeux du débat sur la responsabilité

Premièrement, nous devons définir précisément l’intelligence artificielle, et de ses différentes déclinaisons (A), pour ensuite se pencher sur la façon la plus pragmatique de définir le responsable en cas de litige (B).

A) L’intelligence artificielle : qu’est ce que c’est ?

Naturellement il convient avant toute chose de définir l’intelligence artificielle. Le terme générique caractérise en effet “l’ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence” .

La paternité du terme d’intelligence artificielle est attribuée à John McCarthy. Ce terme a par la suite été défini par son compère Marvin Lee Minsky comme “la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains, car elles demandent des processus mentaux de haut niveau […]”.

Cette définition résonne tout particulièrement, en ce que la notion de temporalité y est parfaitement encadrée. “Pour l’instant” : le mot est lâché, et il sonne toujours plus vrai aujourd’hui puisque le progrès scientifique en la matière n’a jamais été aussi rapide et d’actualité.

Le propre de l’intelligence artificielle est d’emmagasiner de nombreuses connaissances et de constituer une base sur laquelle se fonder pour réaliser les tâches demandées, grâce à ses interactions avec l’environnement et son “expérience”.

“Tay”, l’intelligence artificielle de Microsoft, est un “chatbot” qui fut lancée par l’entreprise sur le réseau Twitter et répondant parfaitement à cette définition en ce que sa mission consistait à discuter avec les internautes en s’inspirant du langage, du savoir et du comportement de ces derniers à son égard.

Pour autant, les concepteurs retirèrent du réseau le programme, après que celui-ci ait tenu des propos racistes et diffamatoires à l’encontre de la communauté, qui s’amusait à tester ses limites en faussant son apprentissage.


Besoin de l’aide d’un avocat pour un problème d’intelligence artificielle ?

Téléphonez nous au : 01 43 37 75 63

ou contactez nous en cliquant sur le lien_


L’intelligence artificielle se caractérise par le stockage de vastes quantités de connaissances et, par son interaction avec l’environnement et son «expérience», constitue la base pour l’exécution des tâches requises.

Microsoft a développé un « chatbot » nommé « Tay ». C’est sur le réseau social Twitter qu’elle a été lancée. La mission de cette IA consistait à discuter avec les utilisateurs tout en s’inspirant de leur langage et de leur comportement. Cependant, ce programme a été retiré du réseau social rapidement.

Cependant, après que le programme ait tenu des propos racistes et diffamatoires sur la communauté, les concepteurs ont retiré le programme du réseau

Ce cas, parmi tant d’autres, illustre parfaitement les dérives liées à l’intelligence artificielle, et pose donc la question de savoir : qui est responsable ??

Le Parlement européen, dans une résolution en date du 12 février 2019 sur « la politique industrielle européenne globale sur l’intelligence artificielle et sur la robotique », tente de définir la notion d’IA et le régime juridique qui doit lui être applicable. Le Parlement abandonne l’idée de donner à l’intelligence artificielle une personnalité juridique et vient plus observer les conséquences de l’intelligence artificielle sur le régime de responsabilité civile, par exemple. En effet, le droit de la responsabilité civile doit être adapté pour « tenir compte de l’intelligence artificielle et de la robotique ».

Dans un projet de règlement sur l’IA présenté en avril 2021, l’Union européenne vient confirmer cette position et refuse d’accorder la personnalité juridique à l’IA.

Ce projet apporte tout de même un certain cadre juridique. Il est prévu plusieurs niveaux d’intelligence artificielle selon les risques de cette dernière sur l’humain. Le premier niveau correspond aux IA avec un risque inacceptable. Ces IA sont interdites en raison de leur système qui pourrait par exemple « manipuler les personnes au moyen de techniques subliminales afin de modifier leur comportement ce qui causerait un préjudice à la personne ou un tiers ». Ce type d’IA concerne également le scoring social portant une atteinte disproportionnée à la liberté des personnes.

Le second niveau concerne les IA avec un risque élevé. Elles sont autorisées, mais elles doivent s’accompagner de mesures importantes pour démontrer que cette IA est bien conforme aux mesures de sécurité imposées en raison du niveau élevé de risque. Le troisième niveau est l’IA à faible risque, elle devra respecter un guide de conduite. Le dernier niveau concerne les IA à risques minimes qui ne font l’objet d’aucune exigence.

B) Comment déterminer un responsable ?

Par définition, et comme l’affirment certains, “la responsabilité civile du fait d’un individu ou d’une chose est inhérente à l’action humaine […] Seul l’individu est responsable de ses décisions conduisant aux actes et aux conséquences malencontreuses induites par la faillibilité humaine” .

Dès lors, la responsabilité du fait des choses place aujourd’hui l’objet sous la garde de celui qui en dispose par un pouvoir d’usage, de direction et de contrôle, et responsabilise donc ce dernier lorsque l’objet en question se trouve impliqué dans le fait dommageable.

Une telle réflexion pose problème, en effet, bien qu’elle s’applique parfaitement à toutes sortes d’objets, elle n’est pas adaptée à l’intelligence artificielle, car par définition, l’homme n’a pas (pleinement, du moins) les pouvoirs précités.

Le problème d’une telle réflexion, c’est qu’elle s’applique parfaitement à toute sorte d’objets, mais pas vraiment à l’intelligence artificielle sur lequel, par définition, l’homme n’a pas (pleinement, du moins) les pouvoirs précités.

L’intelligence artificielle, amenée à fonctionner de manière autodidacte, conserve naturellement cette part d’indétermination et d’imprévisibilité qui met en péril une telle responsabilisation de l’homme.

Stéphane Larrière affirme très justement que : “Dès lors, l’homme laisse la main à l’intelligence artificielle dans l’exercice de ses facultés augmentées par ce complément cognitif : il se réalise alors une sorte de délégation conférée à la machine pour décider et faire à sa place”.

Par conséquent, le régime qui semble être le plus favorable est celui de la responsabilité sans faute, celle du fait d’autrui, celle “permettant d’imputer les frais du dommage à celui qui était le mieux placé, avant le dommage, pour contracter l’assurance destinée à garantir le risque” (G. Viney, Introduction à la responsabilité, Traité de droit civil, LGDJ 2008, p.40).

Néanmoins, au vu de la multitude de cas possibles, cette détermination n’est pas des plus aisée.

Le rapport de la Commission européenne portant sur les conséquences de l’intelligence artificielle, de l’internet des objets et de la robotique sur la sécurité s’est attelé à la question de la responsabilité. La Commission retient que « bien que la directive sur la responsabilité du fait des produits donne une définition large de la notion de produit, celle‑ci pourrait être précisée pour mieux traduire la complexité des technologies ». Par conséquent, la Commission européenne considère qu’en matière d’intelligence artificielle,  le régime de la responsabilité du fait des choses n’a pas à s’appliquer.

II) Un débat de plus en plus fréquent

Si les accidents liés aux voitures autonomes sont fréquents ces derniers temps (A), ne sont pas à exclure les risques liés aux autres formes d’intelligences artificielles (B).

A) Le cas des voitures autonomes

La détermination d’une telle responsabilité est un débat que l’actualité place régulièrement sur le devant de la scène médiatique, et souvent pour le pire. C’est le secteur de l’automobile qui en fait les frais aujourd’hui ; deux accidents auront marqué les esprits ces dernières semaines.

Le premier, survenu le 19 mars dernier en Arizona, concerne l’entreprise Uber. Suite à des tests sur la voie publique, l’un de ses modèles autonomes a percuté un piéton, décédé par la suite de ses blessures.

Le système de l’automobile mis en cause, n’ayant pas activé le système de freinage avant l’impact, a contraint la société de suspendre ses activités dans le domaine . Pour autant, celle-ci soutient que l’automobiliste est à mettre en cause dans l’affaire.

Le deuxième accident récent concerne cette fois-ci Tesla et son modèle X, au volant de laquelle est décédé un conducteur 4 jours après le drame précédent.

Encore une fois, l’autopilote se trouve au cœur des débats, et si la famille de la victime accuse l’entreprise, celle-ci se dédouane de toute responsabilité en soulignant que la victime “n’avait pas les mains sur le guidon au moment de l’accident”, et contre toute indication de la voiture l’invitant à prendre de telles mesures.

Le 12 février 2019, le Parlement européen a rendu une résolution dans laquelle elle vient aborder la question des voitures automatiques en disposant que « la prévalence de véhicules autonomes présentera des risques […] de défaillances techniques et va transférer à l’avenir la responsabilité du conducteur vers le fabricant, imposant aux compagnies d’assurances de modifier la manière dont elles intègrent le risque dans leur souscription ».
Ces affaires mettent en lumière tout l’enjeu de l’autonomie de l’intelligence artificielle face au pouvoir de contrôle du conducteur sur la chose, dans la détermination du responsable du fait dommageable.

Le 14 avril 2021, une ordonnance est venue prévoir un nouveau régime de responsabilité pénale applicable pour les véhicules à délégation de conduite. Par la suite, le gouvernement a précisé par décret le 29 juin 2021  les modalités d’application de l’ordonnance.

L’article 123-1 du Code de la route prévoit désormais que la responsabilité pénale du conducteur ne sera pas retenue dans le cas où l’infraction commise serait le résultat d’une manœuvre d’un véhicule dont les fonctions sont totalement déléguées à un système automatisé, si, au moment des faits ce système exerçait le contrôle dynamique du véhicule.

L’article 123-2 de ce même Code prévoit en revanche que la responsabilité pénale du constructeur sera quant à elle retenue. Le constructeur est tenu responsable des atteintes involontaires à la vie et à l’intégrité des personnes. Sa responsabilité sera retenue, si l’existence d’une faute est établie au moment où l’IA exerçait le contrôle dynamique du véhicule. Également,  dès lors qu’il y a un défaut de conception, le constructeur sera tenu responsable.

B) D’autres risques potentiels à envisager

Il existe également d’autres circonstances ou les questions de responsabilité civile ou pénale se posent.

L’exemple de l’intelligence artificielle “Tay” qui a déjà été cité laisse penser que l’on pourrait voir un jour survenir un litige portant sur des propos dénigrants, voir du harcèlement avec pour origine de ces délits, l’intelligence artificielle.

Il faut également se questionner sur les assistants personnels intelligents comme Siri, Alexa, ou encore Google Home, définis comme des  “agents logiciel qui peuvent effectuer des tâches ou des services pour un individu” .

L’utilisation quotidienne qui est faite de ces technologies par leur propriétaire repose sur le fait d’effectuer des actions simples (lancer une playlist, envoyer un message ou encore passer un appel). Cependant, ces assistants personnels intelligents peuvent aussi  être utilisés pour effectuer des recherches plus complexes, avec degré d’importance de la réponse qui peut varier, et par conséquent avoir un impact plus ou moins grave en cas d’erreur.

Une actualité récente démontre bien ces risques. En effet, en décembre 2021, c’est l’assistant vocal d’Alexa qui s’est retrouvé au cœur d’une polémique. Ce dernier a dû faire l’objet d’une mise à jour d’urgence par Amazon. Un enfant avait demandé à Alexa de lui proposer des défis à réaliser. L’assistant intelligent d’Amazon a proposé à l’enfant de jouer avec une prise électrique.

Bien que l’enfant se porte bien aujourd’hui, cette affaire force à se poser des questions quant à la responsabilité des assistants personnels intelligents.

Ces technologies vont être utilisées dans des domaines tels que le médical par exemple qui ne laisse pas de place à l’erreur. La question sur la détermination d’un responsable pourrait se poser, dans le cas où la machine apporterait un résultat erroné à un calcul. Mais la question est complexe, car bien souvent, de toute façon, ce calcul n’était pas réalisable par l’Homme.

On en revient à cette idée de délégation soulevée plus haut. Reste à savoir quels critères prédomineront en la matière, à mesure des avancées technologies, mais aussi, malheureusement, à mesure de la variété des accidents…

Pour lire une version plus adaptée au mobile de cet article sur l’intelligence artificielle, cliquez

SOURCES :
(1) http://www.larousse.fr/encyclopedie/divers/intelligence_artificielle/187257
(2) http://laloidesparties.fr/responsabilite-ia
(3) G. Viney, Introduction à la responsabilité, Traité de droit civil, LGDJ 2008, p.40
(4) https://www.numerama.com/business/336940-uber-suspend-ses-activites-dans-la-voiture-autonome-apres-un-mort.html
(5) https://fr.wikipedia.org/wiki/Assistant_personnel_intelligent
Résolution du Parlement européen du 12 février 2019 sur une politique industrielle européenne globale sur l’intelligence artificielle et la robotique
https://www.europarl.europa.eu/doceo/document/TA-8-2019-0081_FR.html
Livre Blanc sur l’intelligence artificielle du 19 février 2020
https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_fr.pdf
https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000043370894
https://www.legifrance.gouv.fr/codes/section_lc/LEGITEXT000006074228/LEGISCTA000043371833/#LEGISCTA000043371833

PROTECTION DES BASES DE DONNÉES

Aujourd’hui, les bases de données sont protégées par le droit d’auteur suite à la directive du 11 mars 1996 transposée en 1998 en France. L’étendue de la protection accordée par la directive aux bases de données nécessite d’être mise en exergue.

NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire !

Le Code de la propriété intellectuelle, en son article 112-3, précise qu’une base de données s’entend d’un « recueil d’œuvres, de données ou d’autres éléments indépendants, disposés de manière systématique ou méthodique, et individuellement accessible par des moyens électroniques ou par tout autre moyen ».

La protection des bases de données, comme rappelé ci-dessus, est encadrée en partie par le droit d’auteur. La directive du 11 mars 1996 transposée par la loi n° 98-536 du 1er juillet 1998 instaure des dispositions relatives au droit d’auteur et des dispositions relatives au droit sui generis du producteur de bases de données.

Ce sont ces droits sui generis qui importent réellement dans les faits quant à la protection des bases de données. Cette protection dispose donc, en réalité, d’une protection basée sur des textes spécifiques.


Besoin de l’aide d’un avocat pour un problème de contrefaçon ?

Téléphonez-nous au : 01 43 37 75 63

ou contactez-nous en cliquant sur le lien


Le droit sui generis assure essentiellement une protection de l’investissement consenti pour la création et la gestion d’une base de données. Peu importe que ces données soient ou non protégées par le droit d’auteur, même si l’on peut considérer que de fait la loi du 1er juillet 1998 a mis en place « une double protection » pour les bases de données.

Dès lors, plusieurs points sont essentiels à aborder pour appréhender le cadre d’une telle protection : il convient tout d’abord de cerner la notion de producteur de base de données (I), pour ensuite en délimiter le cadre légal de la protection, à savoir la durée et les sanctions pénales (II), les conditions de cette protection (III) et les droits que confèrent cette protection (IV). Pour terminer, nous aborderons la question des exceptions aux droits du producteur (V).

I. La notion de producteur

Le droit sui generis appartient au producteur de la base de données. Le producteur désigne la « personne qui prend l’initiative et le risque des investissements correspondants » selon le Code de la propriété intellectuelle. Aucune autre personne ne peut se prévaloir du droit sui generis. Cette définition restrictive du producteur (ou « fabricant » dans la directive) exclut par exemple de la définition les sous-traitants.

II.  Durée de protection et sanctions pénales

Le point de départ du délai de protection tient compte de la date d’achèvement de la fabrication ou de la date de mise à la disposition du public.

Toutefois, l’article L. 342-5 du Code de la propriété intellectuelle dispose que « dans le cas où une base de données protégée fait l’objet d’un nouvel investissement substantiel, sa protection expire quinze ans après le 1er janvier de l’année civile suivant celle de ce nouvel investissement ».

Cette disposition permet une protection quasi perpétuelle de la base, dès lors que le producteur justifiera régulièrement de nouveaux investissements substantiels.

En vertu de l’article L. 343-4 du Code de la propriété intellectuelle « Est puni de trois ans d’emprisonnement et de 300 000 euros d’amende le fait de porter atteinte aux droits du producteur d’une base de données tels que définis à l’article L. 342-1. Lorsque le délit a été commis en bande organisée, les peines sont portées à sept ans d’emprisonnement et à 750 000 euros d’amende ».(1)

Il est nécessaire, toutefois, pour que la protection s’applique, que l’extraction soit préalablement et clairement interdite[1].

III. Conditions de protection

En vertu des dispositions de l’article L. 341-1 du Code de la propriété intellectuelle, le producteur d’une base de données “bénéficie d’une protection du contenu de la base lorsque la constitution, la vérification ou la présentation de celui-ci atteste d’un investissement financier, matériel ou humain substantiel”.

La protection des bases de données est subordonnée par le droit sui generis à la preuve d’un investissement substantiel. Le producteur de base de données doit donc démontrer le caractère substantiel de l’investissement.

L’importance du caractère substantiel de l’investissement a été rappelée dans un arrêt récent de la Cour d’appel de Paris, rendu le 2 février 2021. Il s’agissait, en l’espèce, de la société LBC exploitant le site « leboncoin.fr » qui propose aux particuliers la mise en ligne de leurs annonces classifiées par région et par catégories notamment la catégorie « immobilier », a constaté que la société Entreparticuliers.com avait procédé à une extraction systématique de sa base de données immobilière en recourant à un prestataire.  La société LBC l’assigne en justice. Celle-ci invoquait sa qualité de productrice de base de données afin d’interdire l’extraction et la réutilisation des contenus publiés sur sa plateforme.

La Cour d’appel a constaté que « leboncoin » avait engagé des coûts importants que ce soit pour la publicité du site ou pour le stockage des contenus ainsi que  pour le maintien d’une équipe chargée de la gestion de la base et de la vérification des annonces. Par conséquent, les juges ont retenu la qualité de producteur de base de données au site « leboncoin » et la société  Entreparticuliers.com a été condamnée à ce titre. (2)

Il convient de noter que la protection des données ou l’absence de protection par le droit d’auteur n’a pas d’incidence sur la mise en œuvre du droit sui generis.  Le droit sui generis « s’applique indépendamment de la possibilité pour la base de données et/ou pour son contenu d’être protégés notamment par le droit d’auteur ».[2]

Le critère d’appréciation est souvent celui des coûts générés par la collecte et le traitement des informations réunies dans la base de données.

Selon la Cour de justice, « la notion d’investissement lié à l’obtention du contenu d’une base de données au sens de l’article 7, paragraphe 1, de la directive 96/9/CE du Parlement européen et du Conseil, du 11 mars 1996, concernant la protection juridique des bases de données, doit s’entendre comme désignant les moyens consacrés à la recherche d’éléments existants et à leur rassemblement dans ladite base. Elle ne comprend pas les moyens mis en œuvre pour la création des éléments constitutifs du contenu d’une base de données »[3] .

L’investissement ciblé est celui « consacré à la constitution de ladite base en tant que telle ». Cette notion désigne les « moyens consacrés à la recherche d’éléments existants et à leur rassemblement dans la base ».

Le coût de la création des données échappe totalement à la notion d’investissement substantiel. La Cour de cassation dans un arrêt récent a suivi cette analyse en soulignant que « ne constitue pas un investissement celui qui est dédié à la création des éléments constitutifs du contenu d’une base de données. »[4]

Selon la Cour de justice, le rassemblement des données, « leur agencement systématique ou méthodique au sein de la base, l’organisation de leur accessibilité individuelle et la vérification de leur exactitude tout au long de la période de fonctionnement de la base » peut nécessiter un investissement substantiel.

Ce n’est pas l’investissement lié à la création des données qui entre en ligne de compte, mais l’investissement lié à la présentation de ces données dans la base.

La notion d’investissement comprend également les moyens consacrés pour assurer la fiabilité de l’information et le contrôle des éléments de la base. Ainsi, selon la CJCE, « les moyens consacrés à l’établissement d’une liste des chevaux ne correspondent pas à un investissement lié à l’obtention et à la vérification du contenu de la base de données dans laquelle figure cette liste »

IV. Les droits du producteur

Le producteur a la faculté, en vertu de la loi, d’interdire certaines formes d’extractions et d’utilisations de la base de données.

La faculté d’interdire, reconnue au producteur de la base de données, peut porter sur « l’extraction, par transfert permanent ou temporaire de la totalité ou d’une partie qualitativement ou quantitativement substantielle du contenu d’une base de données sur un autre support, par tout moyen et sous toute forme que ce soit » (CPI, art. L. 342-1, al. 1), ou sur « la réutilisation, par la mise à la disposition du public de la totalité ou d’une partie qualitativement ou quantitativement substantielle du contenu de la base, quelle qu’en soit la forme » (CPI, art. L. 342-1, al. 2).

Selon la Cour de justice, « les notions d’extraction et de réutilisation doivent être interprétées comme se référant à tout acte non autorisé d’appropriation et de diffusion au public de tout ou partie du contenu d’une base de données ».

Cette dernière rappelle que « la circonstance que le contenu de la base de données a été rendu accessible au public par la personne qui l’a constituée ou avec son consentement n’affecte pas le droit de cette dernière d’interdire les actes d’extraction et/ou de réutilisation portant sur la totalité ou sur une partie substantielle du contenu d’une base de données »[5].

Il y a transfert lorsque le contenu d’une base protégée est fixé sur un autre support. Le transfert peut alors être permanent, mais il peut aussi tout à fait être temporaire s’il a une durée limitée. Le caractère permanent ou temporaire ne peut produire des effets que pour caractériser la gravité de l’atteinte et évaluer le préjudice.

S’agissant de la finalité du transfert, elle est indifférente, peu importe qu’il serve ou non à réaliser une autre base de données, peu importe que les données soient ensuite modifiées et peu importe qu’elles puissent être organisées différemment. [6]

Cela étant, pour être illicite, il est nécessaire que le transfert porte sur la totalité de la base ou, au moins, sur une partie « qualitativement ou quantitativement substantielle du contenu de la base »

Le caractère qualitativement substantiel de l’extraction doit être apprécié au regard de la nature des données extraites. Ainsi, dans l’affaire Cadremploi, le tribunal justifie le caractère substantiel des éléments extraits par le fait qu’ils “portent notamment sur les informations dites de sélection et de référencement qui font la valeur de la base de données de la société Cadremploi”[7].

Le caractère quantitativement substantiel est apprécié au regard d’un pourcentage (données extraites/données contenues dans la base). « La notion de partie substantielle, évaluée de façon quantitative, du contenu d’une base de données au sens de l’article 7 de la directive 96/9 se réfère au volume de données extrait et/ou réutilisé de la base et doit être appréciée par rapport au volume du contenu total de la base”. [8]

Ce caractère n’existait pas dans l’affaire Cadremploi à titre d’exemple. En effet, le volume d’informations extrait est évalué par l’expert à moins de 12 % du volume représenté par les offres.

L’atteinte aux parties non substantielles de la base de données peut également être interdite par le producteur quand elle se manifeste par “l’extraction ou la réutilisation répétée et systématique de parties qualitativement ou quantitativement non substantielles du contenu de la base lorsque ces opérations excèdent manifestement les conditions d’utilisation normale de la base de données” (CPI, art. L. 342-2).

Ces extractions répétées deviendraient alors quantitativement substantielles puisqu’elles sont manifestement abusives.

« L’interdiction énoncée à l’article 7, paragraphe 5, de la directive 96/9/CE vise les actes non autorisés d’extraction et/ou de réutilisation qui, par leur effet cumulatif, tendent à reconstituer et/ou à mettre à la disposition du public, sans autorisation de la personne qui a constitué la base de données, la totalité ou une partie substantielle du contenu de ladite base, et qui portent ainsi gravement atteinte à l’investissement de cette personne »[9]

V. Les exceptions aux droits du producteur

Le droit du producteur comporte également des exceptions.

A ce titre, l’extraction ou la réutilisation de parties non substantielles de la base de données sont autorisées (sauf dans les cas d’abus).[10]

D’autre part, l’extraction à des fins privées est également autorisée.

La loi du 1er août 2006 relève également deux exceptions visant la reproduction et la représentation d’œuvres en vue d’une consultation par les personnes handicapées et les extractions ou réutilisation à des fins pédagogiques et de recherche.

Pour lire une version plus complète de cet article sur la protection des bases de données, cliquez

Sources :

  • https://www.legifrance.gouv.fr/codes/article_lc/LEGIARTI000032655054/2021-10-06
  • Paris, pôle 5, ch. 1, 2 févr. 2021, n° 17/17 688

L’anonymat sur Internet

“Si je regarde suffisamment vos messages et votre localisation, et que j’utilise une intelligence artificielle, je peux prévoir où vous allez vous rendre. Montrez-nous 14 photos de vous et nous pourrons vous identifier. Vous pensez qu’il n’y a pas quatorze photos différentes de vous sur Internet ? Il y en a plein sur Facebook !” le PDG de Google, Eric Schmidt, a estimé, lors de la conférence Theconomy du 4 août 2010, que l’anonymat sur Internet était voué à disparaître et serait remplacé par une ” transparence totale “.

NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire ! 

Avec le développement des activités numériques sur le web, le terme ” anonyme ” prend une nouvelle orientation. Ainsi, des millions d’internautes naviguent sur le web de façon anonyme, du moins le croient-ils, en consultant des sites d’information ou d’e-commerce. Dans le même temps, d’autres millions d’internautes ont ouvert des comptes personnels sur des réseaux sociaux en se cachant derrière un pseudonyme. Alors qu’on utilise de plus en plus Internet, qu’on y laisse toujours plus de données et qu’il est de plus en plus facile de savoir qui y fait quoi, l’inquiétude quant à l’utilisation de ces données grandit chaque jour.

En toute hypothèse, sur le web, la sensation d’anonymat est décuplée par la distance qui existe entre l’internaute et le serveur auquel il accède pour y consulter des informations ou pour y créer des données (donner une opinion, écrire un texte, uploader un document, etc.). Et la sensation d’anonymat s’accroit chez de nombreux internautes à partir du moment où ils se cachent derrière un écran et un pseudonyme.

Dans la pratique, moins de 5% des internautes mettent en place des pratiques d’offuscation de leurs traces sur le web. A contrario, cela signifie que plus de 95% des internautes vivent avec une sensation d’anonymat alors même qu’ils ne sont pas anonymes sur Internet.

On notera le caractère ambigu de l’anonymat : d’un côté, c’est ce qui est sans nom, sans valeur, parfois menaçant ; de l’autre, c’est une stratégie de protection, de préservation, porteuse d’égalité (dans le cas par exemple, de l’anonymat du vote en France). Cette dualité se retrouve également sur internet.

 

I. L’anonymat, principe nécessaire à la protection de la vie privée sur internet

A. Anonymat et vie privée sur internet

Anonymat et vie privée sont très souvent associés, et pour cause. Le premier est un moyen de préserver la seconde. La vie privée est la raison pour laquelle on peut recourir à des techniques d’anonymisation. Internet bouleverse la manière dont nous gérons notre vie privée.


Besoin de l’aide d’un avocat pour un problème de contrefaçon ?

Téléphonez-nous au : 01 43 37 75 63

ou contactez-nous en cliquant sur le lien


La vie privée ne peut se comprendre qu’en termes de contrôle de ce qu’on laisse sur internet. Elle consiste à conserver le contrôle d’une information personnelle et ne pas la laisser sortir d’un cadre dans lequel elle a été rendue publique.

Sur internet, l’utilisateur ne laisse pas seulement des traces volontairement et de manière visible. S’il existe bien des traces visibles et intentionnelles (commentaire sur un blog, photo sur les réseaux sociaux), les traces invisibles et non intentionnelles sont d’autant plus nombreuses (l’adresse IP quand on se connecte à un site internet, requête dans les archives d’un moteur de recherche). Il y a également les cookies placés sur le navigateur ou le tracker, qui est un petit programme présent sur les sites web qui enregistre certaines activités à des fins publicitaires, présent sur les sites de e-commerce.

Un très grand nombre d’informations peuvent être collectées sur internet : l’historique de connexions et de visites, l’adresse IP, les recherches Google, les favoris et l’historique complet, les emails etc..

B. L’encadrement juridique de la protection des données collectées sur internet

S’il est aisé d’imaginer que nous sommes tous fichés par l’Etat et les organismes qui lui sont rattachés (sécurité sociale, fisc, police à travers la carte nationale d’identité, la préfecture lors de l’établissement de la carte grise, le Pôle emploi, le médecin, etc.), par son employeur, par des associations indépendantes (club de sport, association à laquelle on fait un don, forum de discussion ou chat, etc.) ou encore par des sociétés commerciales (banque, assureurs, téléphonie, fichiers clients des commerces, etc.), on imagine moins être fichés par des sociétés que l’on ne connaît pas. Et pourtant, les données personnelles circulent facilement soit contre rémunération pour le titulaire du fichier, soit de manière involontaire en cas notamment de piratage informatique ou de détournement de la finalité d’un fichier.

C’est pour cela qu’en France, la CNIL, la Commission nationale informatique et libertés veille à ce que la loi Informatique et libertés de 1978 et les autres textes qui protègent ces données personnelles, soient respectés, afin d’éviter les abus et les atteintes aux droits fondamentaux.

En 2014, la CNIL affirme que près de 35% des recruteurs avouent avoir déjà écarté un candidat à un emploi à cause d’une e-réputation négative. négative.

En France, le texte fondateur en matière de protection des données est la Loi informatique et liberté du 6 janvier 1978 qui définit les principes à respecter lors de la collecte, du traitement et de la conservation des données personnelles. Elle renforce les droits des personnes sur leurs données, prévoit une simplification des formalités administratives déclaratives et précise les pouvoirs de contrôle et de sanction de la CNIL.

La loi “Informatique et Libertés” est applicable dès lors qu’il existe un traitement automatisé ou un fichier manuel, c’est-à-dire un fichier informatique ou un fichier ” papier ” contenant des informations personnelles relatives à des personnes physiques.

Dans un arrêt rendu le 6 octobre 2020, la CJUE a précisé que le droit de l’UE s’oppose à ce qu’une « réglementation nationale permettant à une autorité étatique d’imposer, aux fins de la sauvegarde de la sécurité nationale, aux fournisseurs de services de communications électroniques la transmission généralisée et indifférenciée des données relatives au trafic et des données de localisation aux services de sécurité et de renseignement ».

Toutefois, a nuancé sa position en rajoutant que, dans des situations dans lesquelles un État membre fait face à une menace grave pour la sécurité nationale qui s’avère réelle et actuelle ou prévisible, ce dernier peut déroger à l’obligation d’assurer la confidentialité des données afférentes aux communications électroniques en imposant, par des mesures législatives, une conservation généralisée et indifférenciée de ces données pour une durée temporellement limitée au strict nécessaire, mais renouvelable en cas de persistance de la menace.

Contrairement à toute attente, par rendu un arrêt rendu le 21 avril 2021, le CE avait autorisé la conservation généralisée des données de connexion, et ce, en dehors des situations exceptionnelles d’état d’urgence sécuritaire. Cette décision contraire aux exigences de la jurisprudence précédente de la CJUE (6 octobre 2020) a été possible grâce à une réinterprétation de la notion de « sécurité nationale » pour inclure des infractions au-delà de la lutte contre le terrorisme telles que l’organisation de manifestations non-déclarées ou encore le trafic de stupéfiants.

II. L’anonymat, principe menacé par les développements technologiques

A. Le Big Data au détriment de l’anonymat

Littéralement, le terme de ” Big Data ” signifie métadonnées, grosses données ou encore données massives. Ils désignent un ensemble très volumineux de données qu’aucun outil classique de gestion de base de données ou de gestion de l’information ne peut vraiment travailler. En effet, nous procréons environ 2,5 trillions d’octets de données tous les jours. Ce sont les informations provenant de partout : messages que nous nous envoyons, vidéos que nous publions, informations climatiques, signaux GPS, enregistrements transactionnels d’achats en ligne et bien d’autres encore. Ces données sont baptisées Big Data ou volumes massifs de données. Les géants du Web, au premier rang desquels Yahoo (mais aussi Facebook et Google), ont été les tous premiers à déployer ce type de technologie.

L’analyse des données est capable d’extraire des informations très précises sur les individus en croisant des données anonymes. Par exemple, les signaux de géolocalisation des portables, la démarche d’un passant filmée par vidéosurveillance, le choix de films téléchargés forment autant d’indicateurs sur les habitudes, les intérêts et les activités des personnes.

Actuellement, la tendance est à la convergence des différentes données disponibles. Data en ligne et hors ligne, structurées ou non structurées rassemblées et consolidées, accord entre Facebook et des courtiers de données : les algorithmes n’ont pas fini de générer de plus en plus de sources lucratives sur le marché des Big Data. Plus encore : il est possible de prédire où se trouvera une personne d’ici 80 semaines sur la base de données de géolocalisation issues de son GPS. Finalement, rester non identifié devient une gageure.

B. Une pression croissante de l’État

Depuis une dizaine d’années, les initiatives de la part des gouvernements pour tenter de réguler et de contrôler internet se sont multipliées. Rappelons les révélations d’Edward Snowden en 2013, qui ont montré que les collectes massives d’informations par la NSA, concernant des citoyens du monde entier, dépassaient le cadre de la lutte nécessaire contre le terrorisme ou contre les autres risques géopolitiques.

La France n’est pas en reste, puisque son service de renseignement extérieur, la DGSE (Direction Générale de la Sécurité Extérieure), a également à sa disposition un système d’interception massif d’Internet, sans compter sa proximité avec l’opérateur Orange. Au delà des services de renseignement, ces dernières années, le législateur français a été particulièrement attentif à la régulation d’internet :  LCEN (loi pour la confiance en l’économie numérique) ; DADVSI (loi relative aux droits d’auteur et droits voisins dans la société d’information) , LOPPSI 2 (loi d’orientation et de programmation pour la performance de la sécurité intérieure), Hadopi (loi Création et Internet de la Haute autorité pour la diffusion des œuvres et la protection des droits sur internet) ou encore les lois antiterroristes qui accroissent la surveillance du réseau à la recherche de potentiels terroristes.

Cette pression croissante des gouvernements à des fins de contrôle, de régulation et de surveillance peut se faire au détriment de l’anonymat des utilisateurs d’internet.

Le 15 novembre 2001, la France a adopté la loi sur la sécurité quotidienne, dont l’article 29 oblige les fournisseurs d’accès à internet à conserver les identifiants de connexion de leurs abonnés. Ses mesures, dont l’article 29, auraient dû arriver à expiration fin décembre 2003. Cependant un amendement de la loi sur la sécurité intérieure du 21 janvier 2003, a pérennisé les mesures de conservation des identifiants et les a séparées du motif terroriste, leur raison d’être de l’adoption de la première loi. Ces mesures sont désormais présentes dans l’article 34-1 du Code des postes de communications électroniques.

À partir de la loi de 2004 et de la loi pour la confiance en l’économie numérique, la conservation des identifiants de connexion, qui devait être effectuée uniquement par les opérateurs de télécommunications, donc les fournisseurs d’accès à internet, concerne également les hébergeurs, c’est à dire, tous les sites qui mettent à disposition du public un service de ” stockage de signaux, d’écrits, d’images, de sons ou de messages de toute nature ” (sites d’informations, services de vidéo type Dailymotion ou Youtube, Wikipédia…). Le décret précisant les modalités n’est intervenu que le 1er mars 2012.

Le 30 juillet 2021, la loi n° 2021-998 relative à la prévention d’actes de terrorisme et au renseignement a été adoptée. Ce texte, par le biais de son article 17, a  modifié l’article L34-1 du Code des postes et des communications électroniques ainsi que l’article 6-II de la LCEN.

Pour lire une version plus complète de cet article, cliquez sur ce lien

Sources :

Sources :

http://www.net-iris.fr/veille-juridique/dossier/20679/les-donnees-personnelles-et-la-protection-de-la-vie-privee-a-heure-des-nouvelles-technologies.php
http://www.cil.cnrs.fr/CIL/spip.php?rubrique281
https://books.google.fr/books?id=zSsTBQAAQBAJ&pg=PR18&lpg=PR18&dq=anonymat+sur+internet+mémoire&source=bl&ots=1x_SHNL5q8&sig=YwazYsBgPmSWpV-Tqbi1hwnlvMc&hl=fr&sa=X&ved=0ahUKEwjksqHopafLAhUGVxoKHWTYAggQ6AEIOTAF#v=onepage&q=anonymat%20sur%20internet%20mémoire&f=false
http://www.journaldunet.com/ebusiness/le-net/1169618-vers-un-reglement-europeen-sur-la-protection-des-donnees-qui-vise-les-plateformes-us/
http://www.zdnet.fr/actualites/etat-d-urgence-le-gouvernement-n-interdira-pas-le-wi-fi-public-et-tor-39829552.htm
http://rue89.nouvelobs.com/blog/oh-my-code/2016/03/05/respect-de-la-vie-privee-apple-ou-surveillance-generalisee-fbi-vous-de-choisir-235245

LE CROWDSOURCING

Pratique permettant aux sites internet d’utiliser la créativité, l’imagination des internautes afin de créer leur contenu et cela à moindre coût, le crowdsourcing touche plusieurs domaines, comme les encyclopédies, ou encore le graphisme.

NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire !

Le terme de « Crowdsourcing » (« Production participative » en français) est un néologisme utilisé pour la première fois par Jeff Howe et Mark Robinson en 2006, dans un article parût chez Wired Magazine intitulé « The rise of Crowdsourcing ».

Il s’agit du fait de faire appel à des acteurs externes (« to outsource ») pour parvenir à l’exécution d’une activité, à un résultat. Cette « sous-traitance » permet donc de mobiliser le savoir-faire d’un grand nombre d’acteurs autres que les acteurs classiques (généralement les employés d’une entreprise, ou des entrepreneurs) pour parvenir à un résultat qui n’aurait pu être obtenu autrement.


Besoin de l’aide d’un avocat pour un problème de contrefaçon ?

Téléphonez-nous au : 01 43 37 75 63

ou contactez-nous en cliquant sur le lien


Aujourd’hui, le crowdsourcing est devenu un phénomène largement répandu, à l’heure où le Web 2.0 s’est véritablement installé dans la manière dont on conçoit Internet. Wikipédia est, à ce titre, un exemple très concret du crowdsourcing, puisque le principe consiste à faire appel à de très nombreux contributeurs pour arriver à une base de données conséquente, que quelques contributeurs n’auraient jamais pu constituer à eux seuls.

Au sens strict, le crowdsourcing vise les sites Internet mettant à contribution les internautes qui peuvent gagner quelques euros en contribuant à la création du contenu. Cette pratique est différente des sites dits « citoyens ».

Néanmoins, le crowdsourcing désigne aussi des sites Internet dont la finalité n’est pas réellement d’être une banque de données (au sens large) mais bien un espace interactif entre Internautes, et donc sans rémunération.

Plusieurs questions peuvent se poser, notamment quant à l’intérêt à consacrer du temps à une activité non rémunérée, ou encore d’autres questions d’ordre juridique touchant au droit de la propriété intellectuelle. Enfin des dérives apparaissent, comme avec tout nouveau phénomène.

Le crowdsourcing n’est pas un emploi fixe et rémunéré. Tandis qu’un emploi au sens général du terme est un échange de main d’œuvre contre salaire entre un employé et son employeur, le crowdsourcing est la mise à disposition par des milliers de particuliers de leurs savoirs et compétence, en échange de l’assurance de trouver le moment réponse à une interrogation.

Il est indéniable que cela peut même être source de débat d’idées entre internautes, commentateurs de l’actualité d’un jour. En tout état de cause, le crowdsourcing pour les particuliers est un loisir, qui peut éventuellement conduire à recevoir un peu d’argent de poche.

En effet, il s’agit plus de « troc d’infos » que de travail au sens strict. Ainsi, bien les sites Internet pratiquant le crowdsourcing soient des sociétés commerciales, celles-ci ne peuvent fonctionner qu’avec ce genre de contenus et emploient toujours du personnel rémunéré. De plus, le plus souvent ces sites Internet ont plus une vocation participative qu’une ambition commerciale. En effet, le concept serait bien plus critiquable si les informations, images ou toutes autres données « crowdsourcées » étaient vendues à prix fort par la société commerciale, sans aucune redistribution aux Internautes.

Une autre question essentielle est posée par le crowdsourcing à savoir celle de la propriété intellectuelle, qu’en est-il des droits d’auteurs ? L’exemple adapté en l’occurrence concerne certaines écoles de commerce, en partenariat avec de grandes firmes, qui organisent des concours pour le compte de ces entreprises et dont le but est de réaliser une étude marketing complète ainsi qu’une campagne de publicité.

L’entreprise partenaire offre au lauréat un stage de 6 mois au sein de son équipe, mais les autres candidats ne gagnent rien, si ce n’est d’avoir réalisé un travail susceptible d’être utilisé par l’entreprise, qui conserve toutes les propositions faites dans le cadre du concours. C’est ainsi que le lauréat ne verra jamais son œuvre utilisée, tandis qu’un autre concurrent voit sa campagne placardée sur d’immenses affiches sous le nom de l’entreprise.

Est-ce légal ? Tout à fait, dès lors que la législation des concours a été respectée (présence d’un huissier, disponibilité des règles, etc.), mais surtout dès l’instant où tous les concurrents ont cédé leurs droits d’auteurs.

Le Code de propriété intellectuelle consacre, dans son article L112-1, une protection de « toutes les œuvres de l’esprit, quels qu’en soient le genre, la forme d’expression, le mérite ou la destination. ».

En outre, les dispositions de l’article L122-7 du Code de propriété intellectuelle affirment qu’une telle cession est tout à fait possible à titre gratuit. De même, l’article L122-7-1 dispose que tout auteur est libre de mettre gratuitement son œuvre à la disposition du public, avec un système de licence gratuite. Ainsi, une société, bien que commerciale, peut mettre ses Internautes à contribution dans le cadre d’un concours (légalement organisé cela va de soi), mais aussi dans le cadre d’une mise à disposition du support de diffusion avec licence gratuite, sans cession des droits d’auteurs.

Il convient de préciser que l’article L.131-1 du Code de la Propriété intellectuelle dispose que : « La cession globale des œuvres futures est nulle. ». Ainsi, les contrats de cession sont prévus postérieurement à la création.

Cela étant, les problèmes apparaissent dès lors que les sociétés commerciales en question souhaitent utiliser le crowdsourcing comme moyen de créer du contenu à faible coût. Alors qu’auparavant des sociétés avaient recours à l’outsourcing, qui consistait à sous-traiter dans des lieux où les coûts sont moindres, certaines aujourd’hui espèrent carrément proposer des produits ou services de qualité à prix fort, sans avoir déboursé grand-chose.

Il s’agit de ce qu’on appelle le « perverted crowdsourcing ». Cette pratique trouve ses origines aux États-Unis plus précisément dans l’exploitation d’une faille de la loi américaine. Malheureusement, la loi française n’est pas plus complète. Il n’est pas fait référence au principe selon lequel il est interdit de travailler gratuitement pour le compte d’une société commerciale.

Le but est de sanctionner les sociétés ayant recours au crowdsourcing afin de vendre à prix fort les contenus générés par les internautes. Il est également possible pour stopper une telle pratique de se fonder sur le droit de la propriété intellectuelle, en l’absence de cession régulière des droits d’auteurs, puisque seuls l’auteur ou le titulaire des droits ont la faculté de diffuser, distribuer ou représenter l’œuvre.

Nul ne doute que, des actions seront menées contre de telles pratiques qui sont très éloignées du souhait originel de liberté d’accès à la culture par et pour tous.

Pour lire une version plus complète de cet article sur le crowdsourcing, cliquez