logiciel

LA PROTECTION DU LOGICIEL PAR LE DROIT D’AUTEUR

11Le logiciel occupe aujourd’hui une place importante de l’économie numérique, en effet, celui-ci est embarqué dans de nombreuses machines, il est devenu indispensable. C’est pourquoi il est apparu nécessaire de savoir quelle protection était accordée au logiciel, or la réponse à cette question n’était pas évidente, puisque l’on pouvait hésiter entre une protection accordée via le droit des brevets, le droit d’auteur, ou encore créer un régime propre au logiciel. C’est finalement la protection par le droit d’auteur qui a été choisie.

NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire !

Le Code de la propriété intellectuelle n’apporte pas de définition arrêtée en la matière, mais la Commission de terminologie française a apporté des précisions quand au terme de logiciel, dans des travaux publiés au journal officiel du 17 janvier 1982. Ainsi, le logiciel est un ensemble de programmes, procédés et règles, et éventuellement de la documentation, relatif au fonctionnement d’un ensemble de traitement de données.

Un logiciel est un produit actif qui se caractérise principalement par ses fonctionnalités, ou sa structure externe, alors qu’un programme informatique se caractérise par sa structure interne et peut ne consister qu’en un listing de données. La loi française est une des rares avoir opté pour le terme de « logiciel », alors que les législations étrangères (Royaume-Uni, Japon, Allemagne ou les États-Unis) ont préféré celui de « programme informatique ». La directive européenne, qui vise les programmes d’ordinateur, pose dans son préambule que le terme « programme d’ordinateur » comprend les travaux préparatoires de conception du logiciel aboutissant, ainsi, au développement d’un programme, à condition qu’ils soient de nature à permettre la réalisation d’un programme à un stade ultérieur.

Dans un arrêt en date du 6 octobre 2021, la Cour de justice de l’Union européenne (CJUE, 6 oct. 2021, no C-13/20), a précisé la possibilité pour un acquéreur de programme d’ordinateur d’effectuer une décompilation de tout ou partie de celui-ci pour corriger des erreurs affectant son fonctionnement, y compris dans la situation où la correction implique la désactivation d’une fonction perturbant le bon fonctionnement de l’application contenant le programme. (12)

On sait, par ailleurs, que le droit d’auteur recoupe l’ensemble des droits moraux et patrimoniaux dont dispose l’auteur d’une « œuvre de l’esprit » (de sa création, somme toute) sur celle-ci. Le Code de la propriété indique cette fois-ci, en son article L112-2, les œuvres encadrées par la protection accordée par le droit d’auteur, parmi lesquelles on compte les logiciels.


Besoin de l’aide d’un avocat pour un problème de contrefaçon ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien


En France, le logiciel est protégé par le droit d’auteur, même si le législateur hésitait entre la protection par le droit des brevets, une protection par le droit d’auteur, ou une protection par un droit intellectuel spécifique. En effet, le logiciel fait appel à plusieurs notions. D’abord, à des notions de brevets par son aspect technique, ensuite au droit d’auteur, en ce qu’il constitue une œuvre du langage. Même si le législateur a choisi le droit d’auteur pour assurer la protection du logiciel, celui-ci a été adapté au logiciel de façon à appréhender l’aspect technique de la notion de logiciel.

I / Le choix de la protection par le droit d’auteur

A / Les raisons de l’exclusion du droit des brevets

En France, le débat a été tranché dès 1968 avec l’adoption de la loi du 2 janvier 1968 qui expliquait le refus de l’application du droit des brevets au logiciel par son inaptitude à remplir le caractère industriel exigé pour les inventions brevetables.

En effet, pour qu’une invention soit brevetable, elle doit remplir plusieurs conditions cumulatives, à savoir : une invention nouvelle, une invention impliquant une activité inventive, une invention licite, et enfin, une invention susceptible d’application industrielle. En vertu de l’article L. 611-15 du code la propriété intellectuelle, une invention est considérée comme susceptible d’application industrielle si son objet peut être fabriqué ou utilisé dans tout genre d’industrie, y compris l’agriculture.

Par ailleurs, le législateur a opté de ne pas choisir la protection par le droit des brevets pour des motifs économiques et techniques. Il craignait que les États Unis inondent le marché français de demande de brevet et qu’ils bloquent ainsi la recherche française. En somme, les praticiens auraient eu plus de difficulté à apprécier l’état de la technique antérieure en matière de logiciel.

Toutefois l’exclusion de brevetabilité n’est pas absolue. En effet l’article L 611-10 CPI n’exclut le logiciel de la brevetabilité « qu’en tant que tel ». Cela signifie que le logiciel ne peut pas être déposé que s’il est revendiqué en tant que tel, mais qu’il devient brevetable lorsqu’il est intégré à une invention plus globale.

Ainsi, bien qu’un algorithme ou un logiciel ne soit pas brevetable, en tant que tel, il le devient s’il constitue une étape importante dans un processus industriel et/ou dans le fonctionnement d’un système. Ce principe a été consacré, en matière de logiciel, dans l’arrêt rendu par la cour d’appel de Paris dans l’affaire « Schlumberger ».

La loi exclut donc de la brevetabilité les logiciels en tant que tels et non les machines ou les systèmes, dont une ou plusieurs étapes sont mises en œuvre par un logiciel, comme le précisent les directives de l’Office européen des brevets (OEB).

Enfin l’avantage de la protection par le droit d’auteur est que celle-ci est acquise sans aucune formalité de dépôt, contrairement au brevet qui implique un dépôt entraînant un certain coût, soit auprès de l’Institut national de la propriété intellectuelle, soit auprès de l’Office européen des brevets (OEB).

B / La notion de logiciel

Il faut se référer à la jurisprudence pour délimiter les contours de la notion de « logiciel ». Du point de vue technique le logiciel se définit comme un processus comprenant deux phases, à savoir une phase d’analyse et une phase de programmation. La phase de programmation consiste enfin à rédiger des instructions dans un langage informatique, ce qui se concrétise par le passage du code source au code objet, qui permet de passer à une version automatisable par l’ordinateur de la solution donnée.

On distingue le logiciel d’application du logiciel d’exploitation. Leur différence tient dans leur nature et leur fonctionnalité. En effet, le logiciel d’exploitation permet l’utilisation et organise le fonctionnement de la machine, tandis que le logiciel d’application ne sera qu’une fonctionnalité incluse dans l’ordinateur, sachant qu’il doit être compatible avec le logiciel d’exploitation et avec l’ordinateur sur lequel il sera installé.

II / L’adaptation du droit d’auteur au logiciel

A / Les éléments du logiciel protégeables par le droit d’auteur

Selon un célèbre adage attribué à Henri Debois, « les idées sont par essence et par destination de libre parcours ». Les idées doivent librement circuler dans nos esprits. L’exclusion de la protection des idées se justifie par la volonté de ne pas bloquer la création ni entraver la libre concurrence. Or certains éléments du logiciel sont assimilés aux idées (les algorithmes et les fonctionnalités du logiciel).

Toutefois, il convient de noter que la Cour de Justice de l’Union européenne a précisé, dans une décision, que « ne sont pas protégeables des fonctionnalités de logiciel (CJUE, SAS Institue c/ World Programming).

Un des éléments protégeables par le droit d’auteur est d’une part le matériel de conception préparatoire. L’article L 111-2 du CPI dispose en effet que la protection est accordée au logiciel y compris son matériel de conception préparatoire. Cela recouvre l’ensemble des travaux de conception aboutissant au développement d’un programme de nature à constituer un logiciel à un stade ultérieur. C’est dans ce concept de « matériel de conception préparatoire » que se situent les analyses fonctionnelles et organiques, qui sont donc protégées.

Le deuxième élément du logiciel protégé est son programme. Les programmes recouvrent le code source et le code objet du logiciel. Par programme source, on entend la liste des instructions qui composent le logiciel. Pour déterminer s’il y a contrefaçon d’un programme source, les experts le comparent avec celui du logiciel contrefaisant afin d’établir le nombre de lignes identiques des deux programmes.

Concernant le programme objet, la jurisprudence n’a jamais douté de l’application du droit d’auteur aux programmes objet, c’est-à-dire à l’enregistrement ou à la transcription en code binaire, sur bande, disque ou disquette magnétiques ou à l’intérieur d’une mémoire de type « ROM », du programme source d’un logiciel. Le droit d’auteur protège le œuvres quelle que soit leur forme, et la doctrine et la jurisprudence française ne voient dans le programme objet qu’une traduction du programme source en langage codé magnétiquement.

Le troisième élément protégé est la documentation d’utilisation. Le statut du cahier des charges, et des informations qu’il contient, est normalement réglés par les dispositions du contrat de développement de logiciel.

Dans un arrêt en date du 6 mars 2024, (Cass. com., 6 mars 2024, no 22-23657,) la chambre commerciale a précisé que lorsqu’un logiciel est mis à disposition par téléchargement accompagné de la conclusion d’un contrat de licence d’utilisation permettant au client d’utiliser cette copie de manière permanente, en contrepartie d’un paiement, cela implique un transfert de la propriété de cette copie. (14)

Mais, même en l’absence de dispositions contractuelles, commets un acte de concurrence déloyale la SSII ou le constructeur qui utilise pour son compte un cahier des charges ou d’autres informations techniques qui lui ont été communiquées par un client dans le cadre de relations contractuelles. Cependant, le réalisateur demeure libre d’utiliser le « savoir-faire général » acquis par l’étude du cahier des charges, mais par prudence, il aura intérêt à le mentionner spécifiquement dans le contrat de commande.

Le quatrième élément du logiciel bénéficiant de la protection est la page-écran. Elle consiste en la manifestation graphique du logiciel, passant par des dessins, des icônes, etc.

Enfin, d’autres éléments du logiciel pouvant faire l’objet d’une protection par le droit d’auteur sont : les interfaces techniques et fonctionnelles, le manuel d’utilisation et documents commerciaux, le titre des logiciels, etc.

B / Les droits moraux et patrimoniaux du créateur

Concernant les droits patrimoniaux, l’article L 122-6 du CPI prévoit trois prérogatives au bénéfice de l’auteur d’un logiciel, à savoir un droit de reproduction, de modification et de mise sur le marché.

La première prérogative, à savoir, le droit de reproduction permet à l’auteur d’avoir un monopole sur la fixation de l’œuvre sur tout support qui en permet la communication au public. Ce droit implique pour l’auteur du logiciel d’être protégé à la fois contre la reproduction permanente de son logiciel, mais aussi contre toute reproduction provisoire.

Le droit de modification permet quant à lui à l’auteur du logiciel de s’opposer à la traduction, l’adaptation, l’arrangement ou toute autre modification de son logiciel. Ces actes nécessitent en effet l’autorisation de l’auteur du logiciel, sous peine d’être déclarés contrefacteur.

Enfin le droit de mise sur le marché est totalement étranger au droit d’auteur classique. Cela signifie que l’auteur dispose du droit de mettre son logiciel sur le marché à titre onéreux ou gratuit. Il existe toutefois une limite à ce droit dans la mesure où la première vente d’un logiciel dans un État membre de la communauté européenne, par l’auteur ou avec son consentement, épuise le droit de mise sur le marché de cet exemplaire dans tous les États membres. Le logiciel étant considéré comme une marchandise, il est logique qu’on lui applique le principe communautaire de libre circulation des marchandises.

La location reste cependant réservée à l’auteur même lorsqu’il y a eu une première vente dans un État membre.

Concernant les droits moraux, là aussi le droit d’auteur s’est adapté au logiciel notamment en paralysant certaines attributions qui font en principe partie des attributions de l’auteur au titre de ses droits moraux. La finalité de la limitation est d’éviter un exercice débridé de ces droits, notamment parce qu’ils sont perpétuels alors que les droits patrimoniaux courent jusqu’à 70 ans après la mort de l’auteur, puisse nuire à la commercialisation des logiciels.

L’auteur du logiciel conserve le droit de divulgation et le droit à la paternité de l’œuvre. Selon un arrêt rendu par la Cour d’appel de Douai, « le droit moral du programmeur, par interprétation a contrario de l’article L. 127-7 du CPI, se réduit en matière de logiciel au droit au nom . ». Cela sous-entend qu’il suffit que le nom de l’auteur soit crédité sur l’écran de l’ordinateur lors de la mise en route du logiciel, pour que son droit au respect soit respecté. Le nom de l’auteur doit donc être mentionné.

Concernant le droit au respect de son œuvre, il est limité dans la mesure où un auteur ne peut pas s’opposer à la modification du logiciel par le cessionnaire des droits patrimoniaux si elle n’est pas préjudiciable à son honneur ou à sa réputation. Ce droit consiste pour l’auteur à pouvoir s’opposer à une dénaturation de son œuvre. En droit d’auteur classique, il n’est pas nécessaire de prouver une atteinte à son honneur ou à sa réputation pour pouvoir invoquer son droit au respect de l’œuvre.

Enfin le droit de retrait, ou droit de repentir, est totalement paralysé en matière de logiciel. Ce droit consiste au fait que l’auteur peut en principe à tout moment décider d’arrêter la divulgation de son œuvre.

III / Protection des logiciels autres que par le droit d’auteur

A – Protection par le droit des dessins et modèles

Un logiciel peut bénéficier de la protection par le droit des dessins et modèles, dans son aspect télévisuel si l’on suit la logique du Livre V du CPI (an. L. 14 juill. 1909). Toutefois, sont exclus de la protection accordée par le Livre V les dessins dont la forme est inséparable de leur fonction par leur fonction. Enfin, ne sont protégés que les dessins « nouveaux » : ainsi, la protection de la loi a été refusée à un jeu vidéo ayant le même aspect télévisuel que des jeux existants antérieurement.

B – Protection des logiciels par le droit des marques

La marque fait l’objet d’une protection autonome qui élargit l’arsenal juridique à la disposition des créateurs de logiciels. Par exemple : en cas de piratage par des distributeurs, il y aura également contrefaçon de marque. Mais le dépôt de la marque ne confère que des droits sur celle-ci et non sur le logiciel lui-même.

C – Protection des logiciels par le droit pénal

L’appropriation frauduleuse d’un logiciel est susceptible de tomber sous le coup d’une large variété de lois pénales (vol, abus de confiance, corruption active ou passive d’employé, violation de secret professionnel, divulgation de secret de fabrique). D’ailleurs, il a déjà été jugé que constituait :

« Le délit de vol prévu par le Code pénal la copie d’un logiciel spécifique par un employé à l’insu de son employeur. »

Dans un arrêt en date du 9 mars 2021, (Cass. crim., 9 mars 2021, no 20-90034) la chambre criminelle a considéré qu’était dénuée de caractère sérieux la question prioritaire de constitutionnalité concernant la conformité de l’article L335-3 alinéa 2 du CPI au principe de légalité des délits et des peines. Cet article dispose : « Toute édition d’écrits, de composition musicale, de dessin, de peinture ou de toute autre production, imprimée ou gravée en entier ou en partie, au mépris des lois et règlements relatifs à la propriété des auteurs, est une contrefaçon et toute contrefaçon est un délit. » (15)

IV / Sanctions de la contrefaçon de logiciels

L’alinéa 1er de l’article 6 de la directive européenne sur la protection juridique des programmes d’ordinateur dispose que : « Le fait d’importer, de posséder ou de prendre en charge une copie illicite d’un programme d’ordinateur en sachant ou en ayant de bonnes raisons de croire qu’il s’agit effectivement d’une copie illicite constitue une infraction aux droits exclusifs de l’auteur sur ce programme. »

En matière pénale, la contrefaçon est punie par l’article L. 335-2 du CPI qui, depuis la loi du 29 octobre 2007, prévoit une peine d’emprisonnement de trois ans et 300 000 euros d’amende.

En matière civile, le contrefacteur peut être condamné non seulement à la confiscation des logiciels contrefaits, à celui du matériel utilisé pour la contrefaçon, à la publication du jugement dans diverses revues professionnelles, mais surtout au paiement de dommages et intérêts destinés à compenser le préjudice subi.

L’attribution de dommages et intérêts est généralement effectuée d’une manière stricte, sur le fondement du gain manqué ou de la perte du chiffre d’affaires, compte tenu des éléments commerciaux fournis par le demandeur.

Dans un arrêt en date du 8 décembre 2023 (CA Paris, P. 5, ch. 2, 8 déc. 2023, no 21/19696), la cour d’appel de Paris a précisé que l’éditeur d’un logiciel peut agir en contrefaçon contre son cocontractant pour bénéficier des garanties de la directive 2004/48/CE du 29 avril 2004 tenant à l’évaluation des dommages et intérêts et à la saisie réelle des marchandises prétendument contrefaisantes. (13)

Pour lire une version plus complète de cet article sur la contrefaçon de logiciel, cliquez

Sources :

  1. Le Stanc, « Exclusions de brevetabilité règles relatives au logiciel » J.-cl. brevets, fasc. 155 J.-P. Martin, « La < protection > des < logiciels > informatiques : droit d’auteur ou brevet d’invention ?
  2. CA Paris, 4e ch., 15 juin 1981
  3. 3 juin 1986, no 84-16.97
  4. CA Douai, 1re ch., 1er juill. 1996, PIBD 1993, III, 129 qui alloue l’équivalent de 3 000 euros pour l’atteinte portée au droit au nom de l’auteur.
  5. corr. Nanterre, 15e ch., Coreland c/ Fama
  6. TGI Paris, 3e ch., 9 mars 1984
  7. CA Versailles, 3e ch., 21 avr. 1989, Rigoult c/ Verveer, Juris-data no 43864
  8. -L. Goutal, « La < protection > pénale des < logiciels > », Exp. 1986, no 80, p. 2
  9. TGI Montbéliard, 26 mai 1978, Peugeot c/ X, Exp. 1978.
  10. TGI Paris, 31e ch., 19 mars 1990 GST c/ E., Cah. dr. Auteur 1990
  11. TGI Paris, 3e ch., 13 févr. 1989, Sisro c/ Ampersand, Exp. 1989.
  12. CJUE, 6 oct. 2021, noC-13/20 https://curia.europa.eu/juris/liste.jsf?language=fr&td=ALL&num=C-13/20
  13. CA Paris, P. 5, ch. 2, 8 déc. 2023, no21/19696 https://www.courdecassation.fr/decision/657412aed0916383187adcd2?search_api_fulltext=21/19696&op=Rechercher&date_du=&date_au=&judilibre_juridiction=all&previousdecisionpage=&previousdecisionindex=&nextdecisionpage=0&nextdecisionindex=1
  14. com., 6 mars 2024, no22-23657, https://www.legifrance.gouv.fr/juri/id/JURITEXT000049261474?init=true&page=1&query=22-23.657&searchField=ALL&tab_selection=all
  15. crim., 9 mars 2021, no20-90034 https://juricaf.org/arret/FRANCE-COURDECASSATION-20210309-2090034

 

Intelligence artificielle

Woody Allen l’a dit : « L’intelligence artificielle se définit comme le contraire de la bêtise humaine ». Cette phrase, à moitié pleine d’ironie, cache en réalité un constat indéniable : celui d’une avancée exponentielle en la matière.

La peur que les machines surpassent les hommes, est avec l’intelligence artificielle, une crainte bien réelle. Quand est-il lorsque cette machine crée un dommage ? Qui peut être tenu responsable ?

NOUVEAU ! Pour tenter de faire supprimer un contenu qui pénalise vos droits, vous pouvez utiliser le service d’envoi de lettre de mise en demeure mis en place par le cabinet Murielle-Isabelle CAHEN.

Ces dernières années, l’intelligence artificielle s’est particulièrement développée et a été au cœur de nombreuses avancées. On peut notamment citer un exploit récent réalisé par l’intelligence artificielle AlphaGo créée par la société Deepmind, qui a, en 2016 été capable de batte le champion du monde de Go Lee Sedol. Ce jeu de plateau était pourtant réputé “impraticable” par une machine du fait des innombrables combinaisons possibles.

Le 26 août 2022, une œuvre entièrement générée par une intelligence artificielle a remporté le premier prix de la Colorado State Fair Fine Art Compétition, un concours d’art états-unien. (6)

Même si ces nouvelles technologies fascinent, elles ne sont pas sans risque.


Besoin de l’aide d’un avocat pour un problème d’intelligence artificielle ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien_


C’est donc naturellement qu’un débat autour de l’intelligence artificielle et plus précisément de la détermination du responsable (sur le plan civil comme pénal) dans le cadre d’un dommage causé par l’intelligence artificielle, ne fait pas encore consensus (I), il est pourtant essentiel de trouver une solution à des litiges de plus en plus fréquents (II).

I) Les enjeux du débat sur la responsabilité

Premièrement, nous devons définir précisément l’intelligence artificielle, et de ses différentes déclinaisons (A), pour ensuite se pencher sur la façon la plus pragmatique de définir le responsable en cas de litige (B).

A) L’intelligence artificielle : qu’est ce que c’est ?

Naturellement il convient avant toute chose de définir l’intelligence artificielle. Le terme générique caractérise en effet « l’ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence » .

La paternité du terme d’intelligence artificielle est attribuée à John McCarthy. Ce terme a par la suite été défini par son compère Marvin Lee Minsky comme “la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains, car elles demandent des processus mentaux de haut niveau […]”.

Cette définition résonne tout particulièrement, en ce que la notion de temporalité y est parfaitement encadrée. « Pour l’instant » : le mot est lâché, et il sonne toujours plus vrai aujourd’hui puisque le progrès scientifique en la matière n’a jamais été aussi rapide et d’actualité.

La proposition de Règlement « législation de l’IA » de 2021 défini le système d’intelligence artificielle comme un « logiciel qui est développé au moyen dune ou plusieurs des techniques et approches énumérées à lannexe I et qui peut, pour un ensemble donné dobjectifs définis par lhomme, générer des résultats tels que des contenus, des prédictions, des recommandations ou des décisions influençant les environnements avec lesquels il interagit ». (7)

Le propre de l’intelligence artificielle est d’emmagasiner de nombreuses connaissances et de constituer une base sur laquelle se fonder pour réaliser les tâches demandées, grâce à ses interactions avec l’environnement et son « expérience ».

« Tay », l’intelligence artificielle de Microsoft, est un « chatbot » qui fut lancée par l’entreprise sur le réseau Twitter et répondant parfaitement à cette définition en ce que sa mission consistait à discuter avec les internautes en s’inspirant du langage, du savoir et du comportement de ces derniers à son égard.

Pour autant, les concepteurs retirèrent du réseau le programme, après que celui-ci ait tenu des propos racistes et diffamatoires à l’encontre de la communauté, qui s’amusait à tester ses limites en faussant son apprentissage.


Besoin de l’aide d’un avocat pour un problème d’intelligence artificielle ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien_


L’intelligence artificielle se caractérise par le stockage de vastes quantités de connaissances et, par son interaction avec l’environnement et son «expérience», constitue la base pour l’exécution des tâches requises.

Le Parlement européen, dans une résolution en date du 12 février 2019 sur « la politique industrielle européenne globale sur l’intelligence artificielle et sur la robotique », tente de définir la notion d’IA et le régime juridique qui doit lui être applicable. Le Parlement abandonne l’idée de donner à l’intelligence artificielle une personnalité juridique et vient plus observer les conséquences de l’intelligence artificielle sur le régime de responsabilité civile, par exemple. En effet, le droit de la responsabilité civile doit être adapté pour « tenir compte de l’intelligence artificielle et de la robotique ».

Dans un projet de règlement sur l’IA présenté en avril 2021, l’Union européenne vient confirmer cette position et refuse d’accorder la personnalité juridique à l’IA.

Ce projet apporte tout de même un certain cadre juridique. Il est prévu plusieurs niveaux d’intelligence artificielle selon les risques de cette dernière sur l’humain. Le premier niveau correspond aux IA avec un risque inacceptable. Ces IA sont interdites en raison de leur système qui pourrait par exemple « manipuler les personnes au moyen de techniques subliminales afin de modifier leur comportement ce qui causerait un préjudice à la personne ou un tiers ». Ce type d’IA concerne également le scoring social portant une atteinte disproportionnée à la liberté des personnes.

Le second niveau concerne les IA avec un risque élevé. Elles sont autorisées, mais elles doivent s’accompagner de mesures importantes pour démontrer que cette IA est bien conforme aux mesures de sécurité imposées en raison du niveau élevé de risque. Le troisième niveau est l’IA à faible risque, elle devra respecter un guide de conduite. Le dernier niveau concerne les IA à risques minimes qui ne font l’objet d’aucune exigence.

Le Parlement européen et le Conseil de l’Union européenne ont trouvé un accord sur le texte du projet de loi le 8 décembre 2023. Le 13 mars dernier, les députés européens ont approuvé ce texte par 523 votes pour 46 contre et 49 abstentions, faisant de cette proposition la première loi sur l’intelligence artificielle dans le monde. Le règlement est actuellement en phase de vérification finale par un expert en droit et linguistique, avant son adoption officielle par le Conseil. (8)

B) Comment déterminer un responsable ?

Par définition, et comme l’affirment certains, « la responsabilité civile du fait d’un individu ou d’une chose est inhérente à l’action humaine […] Seul l’individu est responsable de ses décisions conduisant aux actes et aux conséquences malencontreuses induites par la faillibilité humaine » .

Dès lors, la responsabilité du fait des choses place aujourd’hui l’objet sous la garde de celui qui en dispose par un pouvoir d’usage, de direction et de contrôle, et responsabilise donc ce dernier lorsque l’objet en question se trouve impliqué dans le fait dommageable.

Une telle réflexion pose problème, en effet, bien qu’elle s’applique parfaitement à toutes sortes d’objets, elle n’est pas adaptée à l’intelligence artificielle, car par définition, l’homme n’a pas (pleinement, du moins) les pouvoirs précités.

Le problème d’une telle réflexion, c’est qu’elle s’applique parfaitement à toute sorte d’objets, mais pas vraiment à l’intelligence artificielle sur lequel, par définition, l’homme n’a pas (pleinement, du moins) les pouvoirs précités.

L’intelligence artificielle, amenée à fonctionner de manière autodidacte, conserve naturellement cette part d’indétermination et d’imprévisibilité qui met en péril une telle responsabilisation de l’homme.

Stéphane Larrière affirme très justement que : « Dès lors, l’homme laisse la main à l’intelligence artificielle dans l’exercice de ses facultés augmentées par ce complément cognitif : il se réalise alors une sorte de délégation conférée à la machine pour décider et faire à sa place ».

Par conséquent, le régime qui semble être le plus favorable est celui de la responsabilité sans faute, celle du fait d’autrui, celle “permettant d’imputer les frais du dommage à celui qui était le mieux placé, avant le dommage, pour contracter l’assurance destinée à garantir le risque” (G. Viney, Introduction à la responsabilité, Traité de droit civil, LGDJ 2008, p.40).

Néanmoins, au vu de la multitude de cas possibles, cette détermination n’est pas des plus aisée.

Le rapport de la Commission européenne portant sur les conséquences de l’intelligence artificielle, de l’internet des objets et de la robotique sur la sécurité s’est attelé à la question de la responsabilité. La Commission retient que « bien que la directive sur la responsabilité du fait des produits donne une définition large de la notion de produit, celle‑ci pourrait être précisée pour mieux traduire la complexité des technologies ». Par conséquent, la Commission européenne considère qu’en matière d’intelligence artificielle,  le régime de la responsabilité du fait des choses n’a pas à s’appliquer.

Une proposition de nouvelle directive sur la responsabilité du fait des produits défectueux a été adoptée le 28 septembre 2022. La commission européenne, qui en est à l’origine, a fait le constat que le régime de responsabilité du fait des produits née de la directive 85/374 de 1985, n’est plus adapté pour les produits complexes tels que l’IA. Elle tente alors de modifier ce régime, notamment en restreignant le champ d’application des victimes, et en étendant celui des responsables. (9)

II) Un débat de plus en plus fréquent

Si les accidents liés aux voitures autonomes sont fréquents ces derniers temps (A), ne sont pas à exclure les risques liés aux autres formes d’intelligences artificielles (B).

A) Le cas des voitures autonomes

La détermination d’une telle responsabilité est un débat que l’actualité place régulièrement sur le devant de la scène médiatique, et souvent pour le pire. C’est le secteur de l’automobile qui en fait les frais aujourd’hui ; deux accidents auront marqué les esprits ces dernières semaines.

Le premier, survenu le 19 mars dernier en Arizona, concerne l’entreprise Uber. Suite à des tests sur la voie publique, l’un de ses modèles autonomes a percuté un piéton, décédé par la suite de ses blessures.

Le système de l’automobile mis en cause, n’ayant pas activé le système de freinage avant l’impact, a contraint la société de suspendre ses activités dans le domaine . Pour autant, celle-ci soutient que l’automobiliste est à mettre en cause dans l’affaire.

Le deuxième accident récent concerne cette fois-ci Tesla et son modèle X, au volant de laquelle est décédé un conducteur 4 jours après le drame précédent.

Encore une fois, l’autopilote se trouve au cœur des débats, et si la famille de la victime accuse l’entreprise, celle-ci se dédouane de toute responsabilité en soulignant que la victime « n’avait pas les mains sur le guidon au moment de l’accident », et contre toute indication de la voiture l’invitant à prendre de telles mesures.

Le 12 février 2019, le Parlement européen a rendu une résolution dans laquelle elle vient aborder la question des voitures automatiques en disposant que « la prévalence de véhicules autonomes présentera des risques […] de défaillances techniques et va transférer à l’avenir la responsabilité du conducteur vers le fabricant, imposant aux compagnies d’assurances de modifier la manière dont elles intègrent le risque dans leur souscription ».
Ces affaires mettent en lumière tout l’enjeu de l’autonomie de l’intelligence artificielle face au pouvoir de contrôle du conducteur sur la chose, dans la détermination du responsable du fait dommageable.

Le 14 avril 2021, une ordonnance est venue prévoir un nouveau régime de responsabilité pénale applicable pour les véhicules à délégation de conduite. Par la suite, le gouvernement a précisé par décret le 29 juin 2021  les modalités d’application de l’ordonnance.

L’article 123-1 du Code de la route prévoit désormais que la responsabilité pénale du conducteur ne sera pas retenue dans le cas où l’infraction commise serait le résultat d’une manœuvre d’un véhicule dont les fonctions sont totalement déléguées à un système automatisé, si, au moment des faits ce système exerçait le contrôle dynamique du véhicule.

L’article 123-2 de ce même Code prévoit en revanche que la responsabilité pénale du constructeur sera quant à elle retenue. Le constructeur est tenu responsable des atteintes involontaires à la vie et à l’intégrité des personnes. Sa responsabilité sera retenue, si l’existence d’une faute est établie au moment où l’IA exerçait le contrôle dynamique du véhicule. Également,  dès lors qu’il y a un défaut de conception, le constructeur sera tenu responsable.

Pendant la session plénière à Strasbourg le 15 janvier 2018, le député néerlandais Win Van de Camp, membre du parti démocrate-chrétien, a présenté un rapport d’initiative sur la conduite autonome qui a été soumis au vote durant une session plénière à Strasbourg. (10)

B) D’autres risques potentiels à envisager

Il existe également d’autres circonstances ou les questions de responsabilité civile ou pénale se posent.

L’exemple de l’intelligence artificielle “Tay” qui a déjà été cité laisse penser que l’on pourrait voir un jour survenir un litige portant sur des propos dénigrants, voir du harcèlement avec pour origine de ces délits, l’intelligence artificielle.

Il faut également se questionner sur les assistants personnels intelligents comme Siri, Alexa, ou encore Google Home, définis comme des  “agents logiciel qui peuvent effectuer des tâches ou des services pour un individu” .

L’utilisation quotidienne qui est faite de ces technologies par leur propriétaire repose sur le fait d’effectuer des actions simples (lancer une playlist, envoyer un message ou encore passer un appel). Cependant, ces assistants personnels intelligents peuvent aussi  être utilisés pour effectuer des recherches plus complexes, avec degré d’importance de la réponse qui peut varier, et par conséquent avoir un impact plus ou moins grave en cas d’erreur.

Une actualité récente démontre bien ces risques. En effet, en décembre 2021, c’est l’assistant vocal d’Alexa qui s’est retrouvé au cœur d’une polémique. Ce dernier a dû faire l’objet d’une mise à jour d’urgence par Amazon. Un enfant avait demandé à Alexa de lui proposer des défis à réaliser. L’assistant intelligent d’Amazon a proposé à l’enfant de jouer avec une prise électrique.

Bien que l’enfant se porte bien aujourd’hui, cette affaire force à se poser des questions quant à la responsabilité des assistants personnels intelligents.

Ces technologies vont être utilisées dans des domaines tels que le médical par exemple qui ne laisse pas de place à l’erreur. La question sur la détermination d’un responsable pourrait se poser, dans le cas où la machine apporterait un résultat erroné à un calcul. Mais la question est complexe, car bien souvent, de toute façon, ce calcul n’était pas réalisable par l’Homme.

L’ONU a adoptée une première résolution sur l’intelligence artificielle le 21 mars 2024. Celle-ci a encouragé l’adoption de normes internationales visant à garantir des outils « sûrs » et respectant les droits humains. (11)

On en revient à cette idée de délégation soulevée plus haut. Reste à savoir quels critères prédomineront en la matière, à mesure des avancées technologies, mais aussi, malheureusement, à mesure de la variété des accidents…

Pour lire une version plus adaptée au mobile de cet article sur l’intelligence artificielle, cliquez

SOURCES :
(1) http://www.larousse.fr/encyclopedie/divers/intelligence_artificielle/187257
(2) http://laloidesparties.fr/responsabilite-ia
(3) G. Viney, Introduction à la responsabilité, Traité de droit civil, LGDJ 2008, p.40
(4) https://www.numerama.com/business/336940-uber-suspend-ses-activites-dans-la-voiture-autonome-apres-un-mort.html
(5) https://fr.wikipedia.org/wiki/Assistant_personnel_intelligent
Résolution du Parlement européen du 12 février 2019 sur une politique industrielle européenne globale sur l’intelligence artificielle et la robotique
https://www.europarl.europa.eu/doceo/document/TA-8-2019-0081_FR.html
Livre Blanc sur l’intelligence artificielle du 19 février 2020
https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_fr.pdf
https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000043370894
https://www.legifrance.gouv.fr/codes/section_lc/LEGITEXT000006074228/LEGISCTA000043371833/#LEGISCTA000043371833
(6)  https://www.village-justice.com/articles/prompt-art-intelligence-artificielle-droit-auteur-guide-pratique,43649.html
(7) https://eur-lex.europa.eu/legal-content/FR/TXT/HTML/?uri=CELEX:52021PC0206#:~:text=La%20proposition%20%C3%A9tablit%20des%20r%C3%A8gles,%C3%A0%20l’%C3%A9preuve%20du%20temps
(8) https://www.vie-publique.fr/questions-reponses/292157-intelligence-artificielle-le-cadre-juridique-europeen-de-lia
(9) https://www-dalloz-fr.ezpum.scdi-montpellier.fr/documentation/Document?id=NOTE_DZ%2FPRECIS%2FDROITDES-ACTIVITESNUMERIQUES%2F2023%2FPARA%2F1407_1&ctxt=0_YSR0MD1MYSBwcm9wb3NpdGlvbiBkZSBSw6hnbGVtZW50IGzDqWdpc2xhdGlvbiBkZSBs4oCZSUHCoMKneCRzZj1zaW1wbGUtc2VhcmNo&ctxtl=0_cyRwYWdlTnVtPTHCp3MkdHJpZGF0ZT1GYWxzZcKncyRzb3J0PSNkZWZhdWx0X0Rlc2PCp3Mkc2xOYlBhZz0yMMKncyRpc2Fibz1UcnVlwqdzJHBhZ2luZz1UcnVlwqdzJG9uZ2xldD3Cp3MkZnJlZXNjb3BlPUZhbHNlwqdzJHdvSVM9RmFsc2XCp3Mkd29TUENIPUZhbHNlwqdzJGZsb3dNb2RlPUZhbHNlwqdzJGJxPcKncyRzZWFyY2hMYWJlbD3Cp3Mkc2VhcmNoQ2xhc3M9&scrll=DZ%2FPRECIS%2FDROITDES-ACTIVITESNUMERIQUES%2F2023%2FPARA%2F1410
(10) https://www.europarl.europa.eu/topics/fr/article/20190110STO23102/vehicules-autonomes-dans-l-ue-de-la-science-fiction-a-la-realite
(11) https://www.rtl.fr/actu/debats-societe/l-assemblee-generale-de-l-onu-appelle-a-reguler-l-intelligence-artificielle-7900366119

OBJETS CONNECTES ET DONNEES PERSONNELLES

Aujourd’hui, les objets connectés sont partout autour de nous. De notre montre en passant même par notre aspirateur. Ces derniers sont connectés à un réseau de communication et procurent à l’utilisateur un certain confort, néanmoins, ils ne sont pas sans danger face à nos données personnelles. Quelle protection est-elle apportée quant à l’utilisation de nos données personnelles par ces objets connectés ?

NOUVEAU : Utilisez nos services pour faire retirer un contenu  de contrefaçon en passant par le formulaire !

Isaac Asimov décrivait il y a plus de 50 ans « l’ère du tout connecté », les objets connectés en tout genre qu’il avait prédit à l’époque existent presque tous aujourd’hui.

Cependant, un problème alerte, l’utilisation des données personnelles collectée et stockée par les objets connectés. En cause une affaire, l’entreprise DoctorBeet, concepteur de logiciels a dénoncé l’espionnage exercé par un téléviseur LG. En effet, l’entreprise avait remarqué des lorsqu’une publicité s’affichait sur l’écran de la télévision, alors celle-ci collectait les données sur le comportement de l’utilisateur vis-à-vis de cette publicité. De plus, DoctorBeet s’est rendu compte que même après avoir désactivité l’option collecte de données, cette dernière continuait. Les données d’une clé USB branchées à l’ordinateur avaient également fait l’objet d’une collecte. L’entreprise LG a par la suite réalisé une mise à jour de son logiciel.


Besoin de l’aide d’un avocat pour un problème de contrefaçon ?

Téléphonez-nous au : 01 43 37 75 63

ou contactez-nous en cliquant sur le lien


Cette affaire a donc mis en évidence la problématique de la collecte des données personnelles des utilisateurs par les objets connectés.

La société IoT Analyctics a annoncé dans une étude qu’il y avait environ 12,3 milliards d’objets connectés dans le monde à la fin de l’année 2021. Aujourd’hui, les objets connectés apparaissent sous de nombreuses formes diverses et variées. On retrouve des télévisions, voitures, montres, lunettes, balances, frigidaires connectés et encore bien d’autres. Il  y a environ 10 objets connectés par foyer en 2021.

Également, l’assistant vocal de l’enceinte connectée s’est énormément développé, parmi eux la célèbre Alexa de Google Home ou encore le HomePod d’Apple. L’enceinte connectée est présente dans environ 1 foyer sur 4 aux États-Unis en 2019. La CNIL s’est penchée sur ce sujet et a publié un livre blanc en septembre 2020 sur les assistants vocaux.

Nombreux utilisateurs ne peuvent plus se passer de cette expérience qui parfois facilite leur quotidien. Néanmoins, il convient de rappeler que ces objets connectés utilisent les données personnelles pour pouvoir fonctionner.

Ces données personnelles permettant de personnaliser l’expérience client, également ces données sont envoyées aux entreprises qui récoltent donc des informations sur leurs clients. De nombreuses données de santé sont également récoltées aujourd’hui, avec les balances connectées, les montres ou encore les tensiomètres.

Par conséquent, il convient de se demander si nos données personnelles peuvent tout de même être protégées face à l’invasion des objets connectés dans notre quotidien ?

Il existe de nombreux risques face à l’utilisation des objets connectés (I) qu’il convient d’encadrer pour une utilisation respectant la vie privée des utilisateurs (II).

I. Les risques juridiques relatifs à l’utilisation de ces objets connectés

Les risques pouvant apparaître quant à l’utilisation de ces objets connectés concernent d’une part la surveillance clandestine (A) et d’autre part le traitement des données personnelles (B).

A) Une surveillance clandestine

Comme présentée en introduction, l’affaire de la surveillance de l’utilisateur par la télévision LG a mis sur le devant de la scène une forme de surveillance clandestine. Dès lors que les objets sont connectés à internet, la question de la surveillance voir de l’espionnage se pose.

Ces données intéressent forcément les pirates informatiques. En effet, la société de sécurité Kapersky a révélé dans une étude qu’entre 2018 et 2019, les attaques réalisées par les Hackers ont été multipliées par 9. Ainsi, près de 105 millions d’attaques ont eu lieu envers des objets connectés. Il s’agit d’une cible facile pour les pirates informatiques et la cybercriminalité en général, les objets connectés permettent de surveiller à distance en prenant contrôle de ces derniers. Il a été démontré par des experts informatiques en 2013 qu’il était tout à fait possible de désactiver la fonction de freinage d’une voiture électrique à distance.

Ainsi, ces informations peuvent faire peur, l’utilisation des appareils connectés peut s’avérer dangereuse. Les objets connectés collectent de nombreuses données personnelles telles que la géolocalisation qui sont des informations qui peuvent s’avérer intrusive pour l’utilisateur voir dangereuse tant la vie entière de l’utilisateur peut être collecté.

La société HP avait dès 2014, énoncé qu’environ 70 % des appareils connectés ont des failles de sécurité importantes pouvant permettre aux pirates informatiques de les exploiter facilement.

Également, il est prévu qu’en 2025 il y aura près de 38 milliards d’objets connectés dans le monde.

Selon un sondage réalisé par Havas Media France en 2014, les internautes estimaient que les objets connectés étaient source de progrès (75 %) et facilitent la vie (71 %).

Le développement de ces appareils connectés doit amener à un encadrement plus important.

B) Un traitement des données personnelles

Les objets connectés tels que les montres ou les podomètres collectent de nombreuses données de santé. Celles-ci sont des données personnelles dites sensibles. Par conséquent, la protection apportée à ces données doit être importante.

Ces données peuvent être communiquées à des tiers, notamment des assureurs. Mais les données de santé ne sont pas les seules concernées, les données liées à la géolocalisation doivent également faire l’objet d’une protection importante.

Nombreux sont les objets connectés qui enregistrent notre position géographique, cela a pu s’avérer utile notamment pour les autorités. Dans le cadre des enquêtes ces données peuvent s’avérer très précieuses. En 2019, un meurtrier a pu être retrouvé grâce à un objet connecté qui avait pu fournir aux enquêteurs la géolocalisation du meurtrier. Les enquêteurs en vertu de la loi du 28 mars 2014 sur la géolocalisation peuvent dans le cadre d’une enquête et sous l’autorité du juge avoir recours à « tout moyen technique destiné à la localisation en temps réel » d’une personne, « d’un véhicule ou de tout autre objet ».

Néanmoins, bien que cela puisse s’avérer utile, les données peuvent également se retrouver entre les mauvaises mains. Les cybercriminels ou simplement des personnes malveillantes peuvent utiliser ses données. Ainsi, l’utilisation des objets connectés peut rapidement être détournée.

Par conséquent, dès la conception du produit, les industriels sont soumis à une obligation de sécurité. L’article 226-17 du Code pénal précise que le non-respect de cette obligation porté à tout traitement de données à caractère personnel sera sanctionné. Il est prévu 5 ans d’emprisonnement et 300 000 euros d’amende. Pour une personne morale, l’amende peut être portée à 1,5 million d’euros.

II- La protection juridique relative à l’utilisation de ces objets connectés

La CNIL, autorité indépendante compétence en la matière exerce un contrôle (A) mais expose également des recommandations (B).

A) Le contrôle de la CNIL

Rapidement, la CNIL a pris en considération ce sujet. En 2009, elle a publié un article sur l’internet des objets. Dans cet article, la CNIL a rappelé les enjeux du développement de ce secteur, mais a surtout mis en avant la nécessité de toujours protéger la vie privée des utilisateurs en protégeant leurs données personnelles.

Les données personnelles sont soumises à la loi informatique et liberté modifiée en 2018 pour prendre en compte le règlement général de la protection des données européen.

Une donnée personnelle se définit comme « « toute information se rapportant à une personne physique identifiée ou identifiable » peu importe qu’elle puisse être identifiée directement ou indirectement.

Certaines données dites sensibles telles que les données de santé sont soumises à une protection renforcée.

Néanmoins, dès lors que l’utilisateur consent, cela  permet d’autoriser les traitements de nombreuses données personnelles. Le traitement sera alors licite ayant reçu le consentement de la personne concernée. Parfois, le traitement sera licite en raison de la bonne exécution du contrat, et ce, sans le consentement express de la personne. C’est le cas pour les réseaux sociaux, en s’inscrivant vous consentez implicitement à fournir vos données personnelles pour pouvoir créer votre compte. Si vous ne voulez pas que vos données soient récoltées, vous devrez vous abstenir de vous inscrire.

Toutefois, le responsable de traitement doit s’assurer que les principes du RGPD sont respectés (licéité du traitement, base légale de traitement, durée, finalité, proportionnalité, pertinence).

La CNIL a rappelé dans un guide pratique publié en novembre 2020 que les assistants vocaux utilisés dans le cadre professionnel doivent respecter tous les principes imposés par le RGPD pour tout traitement de données personnelles.

B) Les recommandations de la CNIL

La CNIL informe régulièrement les utilisateurs sur les dangers auxquels ils peuvent être exposés sur internet et sur la protection de leurs données personnelles.

Elle a donc publié un guide en 2017 pour fournir des recommandations quant à l’utilisation des objets connectés.

Elle a notamment recommandé de manière générale à :

Vérifier les différentes connexions liées à vos objets connectés pour s’assurer que personne d’autre n’est connecté ; Changer régulièrement les mots de passe ou les codes PIN de vos appareils et ne jamais garder ceux fournis par défaut ; Vérifier que vos téléphones ainsi que vos tablettes demandent un mot de passe pour les déverrouiller et s’assurer que le réseau WIFI est correctement protégé ; Désactiver les partages automatiques de données entre vos objets connectées et vos réseaux sociaux s’ils sont liés ; Faire attention à vos données de santé ; Vérifier que vous avez toujours un accès à vos données et que celles-ci puissent faire l’objet d’une suppression ; Enfin, éteindre les objets connectés que vous n’utilisez pas.

La CNIL fournit d’autres recommandations pour les objets connectés qui nécessitent pour fonctionner d’ouvrir un compte en ligne :

Utiliser si possible des pseudonymes et ne pas fournir de manière générale votre véritable identité ; Donnez le moins information que possible ; Utiliser des adresses mail différentes pour vos différents objets connectés ; Toujours sécuriser les accès à ces comptes avec des mots de passe différents pour chaque objet connecté.

Pour lire  une version plus complète de cet article sur les objets connectés, cliquez

Sources :

LE DROIT DES ROBOTS

Internet a été une révolution majeure vers la fin du 20e siècle.  Aujourd’hui, c’est l’innovation de la robotique qui intéresse le plus grand nombre. Les robots font l’objet de nombreuses interrogations. Notamment dans le domaine juridique. Faut-il créer un droit des robots ?

NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire !

Le robot est défini par L’ALTIF (Analyse et traitement informatique de la langue française) comme « appareil effectuant, grâce à un système de commande automatique à base de microprocesseur, une tâche précise pour laquelle il a été conçu dans le domaine industriel, scientifique ou domestique ».

La notion de robotique est quant à elle plus large. Elle correspond à l’ensemble des techniques permettant la conception, la réalisation de machines automatiques ou de robots. En effet, ce terme recouvre une réalité multiple. On distingue des services de robotiques trouvant application dans des domaines différents : robotique industrielle (industrielle automobile), robotique domestique (assistants pour personnes âgées), robotique médicale (robots chirurgicaux) ou encore militaire (drones).

Les robots ont connu une évolution très importante. Tout a commencé avec les robots automates, ces derniers obéissaient à un programme préétabli, le robot quant à lui, adapte les actions permissent par son programme en fonction de l’environnement.

L’émergence de l’intelligence artificielle ces dernières années a considérablement modifié la robotique. Désormais certains robots agissent de manière autonome. Les développements de ces nouvelles technologies permettent aujourd’hui de pouvoir assister l’humain dans différentes tâches, comme des taches purement physiques. Également, l’intelligence artificielle et notamment la « conscience » robotique sont au cœur des objectifs poursuivis par la science en matière de robotique.


Besoin de l’aide d’un avocat pour un problème de logiciel ?

Téléphonez-nous au : 01 43 37 75 63

ou contactez-nous en cliquant sur le lien


A titre d’illustration, le robot « Watson » d’IBM a montré toute l’étendue de la puissance de ces nouveaux robots intelligents . Il a remporté le jeu télévisé américain « Jeopardy! » contre deux champions du monde.

L’intelligence artificielle ainsi que la robotique constitue une révolution industrielle majeure. Elles remettent notamment en cause l’efficacité même du cerveau humain (à l’inverse, les automates ne remettaient en cause que les capacités physiques de l’être humain)

Par conséquent, le développement de ces robots autonomes et interactifs fait émerger la nécessité d’encadrer cette nouvelle technologie par le droit. Peut-on parler d’un droit des robots ?

En effet, la présence de ses robots dans notre quotidien va rapidement s’intensifier.

De nombreux organismes et institutions travaillent depuis plusieurs années sur cette thématique : la Direction des affaires stratégiques du ministère de la Défense, le Centre de recherche des écoles de Saint-Cyr Coëtquidan, le Commissariat à l’énergie atomique et l’Institut national de la santé et de la recherche médicale.

Ce phénomène a finalement commencé à intéresser les juristes. De nombreuses lois sont venues encadrer Internet. On peut donc imaginer que cela va être le cas avec la robotique. Le Parlement européen s’y est notamment intéressé et a présenté le 21 avril 2021 un projet de règlement intitulé « L’AI Act »

Ainsi, quel cadre juridique doit-on adopter concernant le droit des robots ?

Afin de répondre à cette question, il convient de se pencher d’une part sur l’encadrement juridique à adopter pour la robotique (I), et d’autre part, sur l’éventuelle imputabilité d’une responsabilité (II).

I- L’encadrement législatif de la robotique

L’introduction d’une intelligence artificielle implique la création de nouveaux droits à l’instar de ceux consacrés dans le monde numérique notamment concernant les droits de la personnalité. Ainsi, la solution consisterait à imaginer un statut juridique adapté, comparable à celui de la personnalité morale. Ce statut se justifie notamment lorsque les robots acquièrent un degré de liberté et d’autonomie de plus en plus important par rapport à leur environnement et aux humains qui les utilisent. Existe-t-il des outils juridiques déjà existants à notre portée ? (A) Sinon, doit-on aller vers la création d’un droit sui generis ? (B)

A. Des outils juridiques existants limités

Aujourd’hui, il n’existe pas de véritable encadrement législatif de la robotique, cependant, certains outils juridiques existants permettent néanmoins de venir encadrer les robots et plus largement la robotique.

Ces outils se retrouvent dans différentes branches du droit, notamment dans le droit des contrats, de la consommation ainsi que dans le droit de la propriété intellectuelle.

En droit des contrats, on retrouve à l’article 1603 du Code civil deux obligations principales qui sont imposées au vendeur professionnel. il y a premièrement une obligation de délivrance qui comprend une obligation de mise à disposition de la chose, ainsi qu’une obligation de délivrance conforme, ensuite on retrouve une obligation de garantie. Celle-ci comprend deux objectifs distincts le premier étant de garantir la jouissance paisible de la chose et le second de garantir l’absence de défaut de la chose vendue.

Également, l’acheteur bénéficie de la responsabilité du fait des produits défectueux prévu à l’article 1386-1 et suivant du Code civil depuis la loi du 19 mai 1998. Il s’agit d’une responsabilité spéciale, elle correspond au fait qu’un producteur va engager sa responsabilité délictuelle du fait d’un défaut de sécurité de l’un de ses produits ou services entraînant un dommage à une personne, quelle qu’elle soit.

De plus, dans un décret en date du 20 juillet 2005, est prévu en son article 5 que les équipements électriques et électroniques comme les appareils ménagers et les dispositifs médicaux doivent être conçus et fabriqués de façon à faciliter leur démantèlement et leur valorisation afin d’encadrer la responsabilité du producteur.

La directive 2006/42/CE du 17 mai 2006 relative aux machines vient quant à elle poser des exigences de sécurité pour certains types de robots industriels tels que ceux intégrant une ligne de production. Cette directive est entrée en application depuis le 29 décembre 2009.

Enfin, un nouveau régime de responsabilité pénale applicable pour les véhicules à délégation de conduite a été mis en place par une ordonnance en date du 14 avril 2021.

En effet, la voiture autonome est considérée comme un robot spécial. Par conséquent, différents articles ont été ajouté dans le code de la route. L’article 123-1 de ce même code énonce que le conducteur ne sera pas tenu responsable dans les situations où les fonctions du véhicule étaient totalement déléguées à un système automatisé et que celui-ci exerçait un contrôle dynamique du véhicule au moment des faits. En revanche, dans cette situation, selon l’article 123-2 du code de la route, c’est la responsabilité du constructeur qui sera retenue et pourra donc être tenu pénalement responsable des dommages causés par le système automatisé.

En ce qui concerne le droit de la propriété intellectuelle, de nombreux droits sont souvent revendiqués sur les robots sans que cela ne suscite de difficulté particulière. C’est le cas, des brevets d’invention, ces derniers sont souvent accordés dans le domaine de la robotique (robots chirurgicaux). Également, le droit d’auteur est couramment invoqué (ex : tête de « Nao », robot de la société d’Aldebarran, est déposée au titre des dessins et modèles).

Le droit sui generis des bases de données pourrait notamment s’appliquer pour les données chargées dans le robot et pour celles qu’il accumule en mémorisant de nouvelles expériences.

B. Vers la création d’un droit sui generis

Actuellement, le cadre juridique ne permet pas d’appréhender la diversité de la créativité que les robots vont engendrer. Si les robots ont pu, par le passé, augmenter la productivité des entreprises, améliorer les traitements et les interventions médicales et faciliter les tâches ménagères du quotidien, aujourd’hui, l’arrivée de l’intelligence artificielle nécessite un cadre éthique et réglementaire particulier.

En effet, avec le développement des interactions entre les humains et les robots, il peut être intéressant d’imaginer un statut juridique quelque peu identique à celui des personnes morales. Dans le language juridique, être doté de la personnalité signifie, être apte à posséder des droits et à encourir des obligations. La personne, dans le sens qu’attribuent à ce terme les juristes, c’est l’être qui peut être sujet de droit.

Ainsi, le législateur a doté de la personnalité juridiques certaines entités comme par exemple les sociétés commerciales, les associations ou encore les syndicats. La personnalité morale confère à la personne morale nombre d’attributs reconnus aux personnes physiques, comme un nom, un patrimoine, un domicile. La personnalité morale permet notamment d’ester en justice et d’être tenu responsable pénalement. La création d’un statut sui generis permettrait ainsi aux robots d’avoir une personnalité juridique engendrant à leur égard un ensemble de droits et d’obligations.

En effet, si l’on franchit un pas dans l’autonomie, on se trouve confronté à des robots dont les agissements ne doivent plus rien à l’intervention directive de l’homme. Même si la machine a été programmée par un informaticien, construite par un roboticien et mise en route par son utilisateur, il arrive qu’elle prenne des initiatives en s’adaptant à de nouveaux environnements. On peut citer comme exemple les portraits du robot Paul qui produit sans nul doute des créations originales.

Cependant, la position du Parlement européen est claire, il refuse d’accorder la personnalité juridique à l’intelligence artificielle. Il a notamment rappelé cette position dans le projet de règlement sur l’intelligence artificielle présenté en avril 2021.

Toutefois, même en reconnaissant un statut juridique aux robots, il semblerait difficile, voire impossible d’admettre une éventuelle responsabilité à ces machines. Le principe d’une responsabilité civile ou pénale des robots pose de nombreuses questions qui nécessiteraient de revisiter certaines des notions fondamentales de notre droit telles que la capacité de discernement, la conscience de commettre un acte illicite et la maîtrise de ses actes.

II- L’imputabilité d’une responsabilité des robots

Avec l’introduction de robots de plus en plus intelligents et autonomes, les actions de ces derniers seront certainement de nature à échapper de plus en plus au contrôle de leur propriétaire ne leur permettant plus de maîtriser et d’en appréhender les conséquences. Un tel scénario imposerait de revisiter les fondements traditionnels du droit de la responsabilité afin de savoir si les robots pourraient un jour répondre de leurs actes. On peut donc imaginer la création d’un régime spécial de responsabilité (A), ainsi que l’hypothèse d’une responsabilité de l’homme envers les robots (B).

A) Vers la création d’un régime spécial de responsabilité

Le Code civil prévoit pour le droit de la responsabilité civile trois notions fondamentales. La première étant l’existence d’une faute, la seconde un dommage et enfin un lien de causalité. Par conséquent, pour que la responsabilité d’un individu soit engagée il faut que ce dernier dispose d’un contrôle sur ses actes et de leurs conséquences.

Ainsi, l’individu devient responsable uniquement s’il dispose d’une autonomie décisionnelle et comportementale. C’est avec discernement que les décisions doivent être prises. C’est pour cette raison que la jurisprudence refuse de retenir la responsabilité des machines, faute d’absence de capacité de discernement.

Cependant, le législateur a rapidement pris en compte la multiplication des dommages causés par les machines et est venu instaurer une responsabilité de plein droit des choses que l’on a sous sa garde.

Cette responsabilité s’applique dès lors qu’un individu a l’usage, la direction et le contrôle de la chose. La jurisprudence considère donc que la personne qui les contrôle sera tenue responsable. A l’inverse, si les faits litigieux sont la conséquence d’un dysfonctionnement alors l’individu peut écarter sa responsabilité, cette dernière retombant sur le fabricant par le biais de la responsabilité des produits défectueux.

Le Parlement européen, dans une résolution adoptée le 16 février 1017 a recommandé de mettre en place un projet législatif permettant de répondre aux questions portant sur la responsabilité. Il demande notamment de réfléchir à la création d’un statut juridique spécial pour les robots.

Une nouvelle résolution a été prise le 12 février 2019. Est abordé ici par le Parlement la notion d’intelligence artificielle au sens large.

C’est ainsi qu’a émergé le projet de règlement européen « l’AI Act » présenté le 21 avril 2021 par la Commission européenne. Ce projet a pour objectif la création d’un cadre juridique commun sur l’intelligence artificielle.

On constate alors, dans le cas des robots ayant une certaine autonomie, la nécessité de faire évoluer le cadre juridique actuel. En effet, la responsabilité du fait des choses étant inapplicable en l’absence du critère de contrôle, la création d’un régime spécial semble inévitable.

B) L’hypothèse d’une responsabilité de l’homme envers les robots

Même si de prime abord, une responsabilité de l’homme envers les robots semble impensable. Il convient tout de même de se poser la question en raison d’abus éventuels que ces derniers pourraient subir par l’homme et des conséquences juridique qui pourrait apparaître. Nous avons assisté à une évolution importante en 2015 concernant la reconnaissance des animaux comme des êtres vivants doués de sensibilité » désormais reconnue à l’article 515-14 du code civil. Également, le Code pénal condamne les atteintes portées aux biens d’autrui.

Les robots d’aujourd’hui sont de plus en plus semblables aux êtres humains. En effet, ils sont capables d’avoir des émotions ainsi que de ressentir de l’empathie. Le législateur pourrait par conséquent se poser la question d’une personnalité juridique spéciale combinée à un régime spécial de protection des robots.

Certaines observations scientifiques démontrent que les robots, qui seront de plus en plus présents dans notre vie quotidienne, seront davantage regardés avec anthropomorphisme.

Toutefois ces observations ne permettent pas aujourd’hui de comparer les robots aux animaux ou même aux humains. Cependant, elles pourraient amener à protéger l’intégrité des robots en réprimant les atteintes porter à l’intégrité de ces derniers. Ainsi, il ne serait pas question de protéger les atteintes matérielles en tant que telles, mais plutôt pour protéger la sensibilité des humains et les intérêts de la société.

Pour lire une version plus complète de cet article sur le droit des robots, cliquez

Sources :

Code civil
Code de la propriété intellectuelle
Wikipédia
https://www.legifrance.gouv.fr/codes/article_lc/LEGIARTI000030250342/
https://eur-lex.europa.eu/legal-content/FR/ALL/?uri=CELEX:52021PC0206
https://www.legifrance.gouv.fr/codes/section_lc/LEGITEXT000006074228/LEGISCTA000043371833/#LEGISCTA000043371833