logiciel

OBJETS CONNECTES ET DONNEES PERSONNELLES

Aujourd’hui, les objets connectés sont partout autour de nous. De notre montre en passant même par notre aspirateur. Ces derniers sont connectés à un réseau de communication et procurent à l’utilisateur un certain confort, néanmoins, ils ne sont pas sans danger face à nos données personnelles. Quelle protection est-elle apportée quant à l’utilisation de nos données personnelles par ces objets connectés ?

NOUVEAU : Utilisez nos services pour faire retirer un contenu  de contrefaçon en passant par le formulaire !

Isaac Asimov décrivait il y a plus de 50 ans « l’ère du tout connecté », les objets connectés en tout genre qu’il avait prédit à l’époque existent presque tous aujourd’hui.

Cependant, un problème alerte, l’utilisation des données personnelles collectée et stockée par les objets connectés. En cause une affaire, l’entreprise DoctorBeet, concepteur de logiciels a dénoncé l’espionnage exercé par un téléviseur LG. En effet, l’entreprise avait remarqué des lorsqu’une publicité s’affichait sur l’écran de la télévision, alors celle-ci collectait les données sur le comportement de l’utilisateur vis-à-vis de cette publicité. De plus, DoctorBeet s’est rendu compte que même après avoir désactivité l’option collecte de données, cette dernière continuait. Les données d’une clé USB branchées à l’ordinateur avaient également fait l’objet d’une collecte. L’entreprise LG a par la suite réalisé une mise à jour de son logiciel.


Besoin de l’aide d’un avocat pour un problème de contrefaçon ?

Téléphonez-nous au : 01 43 37 75 63

ou contactez-nous en cliquant sur le lien


Cette affaire a donc mis en évidence la problématique de la collecte des données personnelles des utilisateurs par les objets connectés.

La société IoT Analyctics a annoncé dans une étude qu’il y avait environ 12,3 milliards d’objets connectés dans le monde à la fin de l’année 2021. Aujourd’hui, les objets connectés apparaissent sous de nombreuses formes diverses et variées. On retrouve des télévisions, voitures, montres, lunettes, balances, frigidaires connectés et encore bien d’autres. Il  y a environ 10 objets connectés par foyer en 2021.

Également, l’assistant vocal de l’enceinte connectée s’est énormément développé, parmi eux la célèbre Alexa de Google Home ou encore le HomePod d’Apple. L’enceinte connectée est présente dans environ 1 foyer sur 4 aux États-Unis en 2019. La CNIL s’est penchée sur ce sujet et a publié un livre blanc en septembre 2020 sur les assistants vocaux.

Nombreux utilisateurs ne peuvent plus se passer de cette expérience qui parfois facilite leur quotidien. Néanmoins, il convient de rappeler que ces objets connectés utilisent les données personnelles pour pouvoir fonctionner.

Ces données personnelles permettant de personnaliser l’expérience client, également ces données sont envoyées aux entreprises qui récoltent donc des informations sur leurs clients. De nombreuses données de santé sont également récoltées aujourd’hui, avec les balances connectées, les montres ou encore les tensiomètres.

Par conséquent, il convient de se demander si nos données personnelles peuvent tout de même être protégées face à l’invasion des objets connectés dans notre quotidien ?

Il existe de nombreux risques face à l’utilisation des objets connectés (I) qu’il convient d’encadrer pour une utilisation respectant la vie privée des utilisateurs (II).

I. Les risques juridiques relatifs à l’utilisation de ces objets connectés

Les risques pouvant apparaître quant à l’utilisation de ces objets connectés concernent d’une part la surveillance clandestine (A) et d’autre part le traitement des données personnelles (B).

A) Une surveillance clandestine

Comme présentée en introduction, l’affaire de la surveillance de l’utilisateur par la télévision LG a mis sur le devant de la scène une forme de surveillance clandestine. Dès lors que les objets sont connectés à internet, la question de la surveillance voir de l’espionnage se pose.

Ces données intéressent forcément les pirates informatiques. En effet, la société de sécurité Kapersky a révélé dans une étude qu’entre 2018 et 2019, les attaques réalisées par les Hackers ont été multipliées par 9. Ainsi, près de 105 millions d’attaques ont eu lieu envers des objets connectés. Il s’agit d’une cible facile pour les pirates informatiques et la cybercriminalité en général, les objets connectés permettent de surveiller à distance en prenant contrôle de ces derniers. Il a été démontré par des experts informatiques en 2013 qu’il était tout à fait possible de désactiver la fonction de freinage d’une voiture électrique à distance.

Ainsi, ces informations peuvent faire peur, l’utilisation des appareils connectés peut s’avérer dangereuse. Les objets connectés collectent de nombreuses données personnelles telles que la géolocalisation qui sont des informations qui peuvent s’avérer intrusive pour l’utilisateur voir dangereuse tant la vie entière de l’utilisateur peut être collecté.

La société HP avait dès 2014, énoncé qu’environ 70 % des appareils connectés ont des failles de sécurité importantes pouvant permettre aux pirates informatiques de les exploiter facilement.

Également, il est prévu qu’en 2025 il y aura près de 38 milliards d’objets connectés dans le monde.

Selon un sondage réalisé par Havas Media France en 2014, les internautes estimaient que les objets connectés étaient source de progrès (75 %) et facilitent la vie (71 %).

Le développement de ces appareils connectés doit amener à un encadrement plus important.

B) Un traitement des données personnelles

Les objets connectés tels que les montres ou les podomètres collectent de nombreuses données de santé. Celles-ci sont des données personnelles dites sensibles. Par conséquent, la protection apportée à ces données doit être importante.

Ces données peuvent être communiquées à des tiers, notamment des assureurs. Mais les données de santé ne sont pas les seules concernées, les données liées à la géolocalisation doivent également faire l’objet d’une protection importante.

Nombreux sont les objets connectés qui enregistrent notre position géographique, cela a pu s’avérer utile notamment pour les autorités. Dans le cadre des enquêtes ces données peuvent s’avérer très précieuses. En 2019, un meurtrier a pu être retrouvé grâce à un objet connecté qui avait pu fournir aux enquêteurs la géolocalisation du meurtrier. Les enquêteurs en vertu de la loi du 28 mars 2014 sur la géolocalisation peuvent dans le cadre d’une enquête et sous l’autorité du juge avoir recours à « tout moyen technique destiné à la localisation en temps réel » d’une personne, « d’un véhicule ou de tout autre objet ».

Néanmoins, bien que cela puisse s’avérer utile, les données peuvent également se retrouver entre les mauvaises mains. Les cybercriminels ou simplement des personnes malveillantes peuvent utiliser ses données. Ainsi, l’utilisation des objets connectés peut rapidement être détournée.

Par conséquent, dès la conception du produit, les industriels sont soumis à une obligation de sécurité. L’article 226-17 du Code pénal précise que le non-respect de cette obligation porté à tout traitement de données à caractère personnel sera sanctionné. Il est prévu 5 ans d’emprisonnement et 300 000 euros d’amende. Pour une personne morale, l’amende peut être portée à 1,5 million d’euros.

II- La protection juridique relative à l’utilisation de ces objets connectés

La CNIL, autorité indépendante compétence en la matière exerce un contrôle (A) mais expose également des recommandations (B).

A) Le contrôle de la CNIL

Rapidement, la CNIL a pris en considération ce sujet. En 2009, elle a publié un article sur l’internet des objets. Dans cet article, la CNIL a rappelé les enjeux du développement de ce secteur, mais a surtout mis en avant la nécessité de toujours protéger la vie privée des utilisateurs en protégeant leurs données personnelles.

Les données personnelles sont soumises à la loi informatique et liberté modifiée en 2018 pour prendre en compte le règlement général de la protection des données européen.

Une donnée personnelle se définit comme « « toute information se rapportant à une personne physique identifiée ou identifiable » peu importe qu’elle puisse être identifiée directement ou indirectement.

Certaines données dites sensibles telles que les données de santé sont soumises à une protection renforcée.

Néanmoins, dès lors que l’utilisateur consent, cela  permet d’autoriser les traitements de nombreuses données personnelles. Le traitement sera alors licite ayant reçu le consentement de la personne concernée. Parfois, le traitement sera licite en raison de la bonne exécution du contrat, et ce, sans le consentement express de la personne. C’est le cas pour les réseaux sociaux, en s’inscrivant vous consentez implicitement à fournir vos données personnelles pour pouvoir créer votre compte. Si vous ne voulez pas que vos données soient récoltées, vous devrez vous abstenir de vous inscrire.

Toutefois, le responsable de traitement doit s’assurer que les principes du RGPD sont respectés (licéité du traitement, base légale de traitement, durée, finalité, proportionnalité, pertinence).

La CNIL a rappelé dans un guide pratique publié en novembre 2020 que les assistants vocaux utilisés dans le cadre professionnel doivent respecter tous les principes imposés par le RGPD pour tout traitement de données personnelles.

B) Les recommandations de la CNIL

La CNIL informe régulièrement les utilisateurs sur les dangers auxquels ils peuvent être exposés sur internet et sur la protection de leurs données personnelles.

Elle a donc publié un guide en 2017 pour fournir des recommandations quant à l’utilisation des objets connectés.

Elle a notamment recommandé de manière générale à :

Vérifier les différentes connexions liées à vos objets connectés pour s’assurer que personne d’autre n’est connecté ; Changer régulièrement les mots de passe ou les codes PIN de vos appareils et ne jamais garder ceux fournis par défaut ; Vérifier que vos téléphones ainsi que vos tablettes demandent un mot de passe pour les déverrouiller et s’assurer que le réseau WIFI est correctement protégé ; Désactiver les partages automatiques de données entre vos objets connectées et vos réseaux sociaux s’ils sont liés ; Faire attention à vos données de santé ; Vérifier que vous avez toujours un accès à vos données et que celles-ci puissent faire l’objet d’une suppression ; Enfin, éteindre les objets connectés que vous n’utilisez pas.

La CNIL fournit d’autres recommandations pour les objets connectés qui nécessitent pour fonctionner d’ouvrir un compte en ligne :

Utiliser si possible des pseudonymes et ne pas fournir de manière générale votre véritable identité ; Donnez le moins information que possible ; Utiliser des adresses mail différentes pour vos différents objets connectés ; Toujours sécuriser les accès à ces comptes avec des mots de passe différents pour chaque objet connecté.

Pour lire  une version plus complète de cet article sur les objets connectés, cliquez

Sources :

LE DROIT DES ROBOTS

Internet a été une révolution majeure vers la fin du 20e siècle.  Aujourd’hui, c’est l’innovation de la robotique qui intéresse le plus grand nombre. Les robots font l’objet de nombreuses interrogations. Notamment dans le domaine juridique. Faut-il créer un droit des robots ?

NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire !

Le robot est défini par L’ALTIF (Analyse et traitement informatique de la langue française) comme « appareil effectuant, grâce à un système de commande automatique à base de microprocesseur, une tâche précise pour laquelle il a été conçu dans le domaine industriel, scientifique ou domestique ».

La notion de robotique est quant à elle plus large. Elle correspond à l’ensemble des techniques permettant la conception, la réalisation de machines automatiques ou de robots. En effet, ce terme recouvre une réalité multiple. On distingue des services de robotiques trouvant application dans des domaines différents : robotique industrielle (industrielle automobile), robotique domestique (assistants pour personnes âgées), robotique médicale (robots chirurgicaux) ou encore militaire (drones).

Les robots ont connu une évolution très importante. Tout a commencé avec les robots automates, ces derniers obéissaient à un programme préétabli, le robot quant à lui, adapte les actions permissent par son programme en fonction de l’environnement.

L’émergence de l’intelligence artificielle ces dernières années a considérablement modifié la robotique. Désormais certains robots agissent de manière autonome. Les développements de ces nouvelles technologies permettent aujourd’hui de pouvoir assister l’humain dans différentes tâches, comme des taches purement physiques. Également, l’intelligence artificielle et notamment la « conscience » robotique sont au cœur des objectifs poursuivis par la science en matière de robotique.


Besoin de l’aide d’un avocat pour un problème de logiciel ?

Téléphonez-nous au : 01 43 37 75 63

ou contactez-nous en cliquant sur le lien


A titre d’illustration, le robot « Watson » d’IBM a montré toute l’étendue de la puissance de ces nouveaux robots intelligents . Il a remporté le jeu télévisé américain « Jeopardy! » contre deux champions du monde.

L’intelligence artificielle ainsi que la robotique constitue une révolution industrielle majeure. Elles remettent notamment en cause l’efficacité même du cerveau humain (à l’inverse, les automates ne remettaient en cause que les capacités physiques de l’être humain)

Par conséquent, le développement de ces robots autonomes et interactifs fait émerger la nécessité d’encadrer cette nouvelle technologie par le droit. Peut-on parler d’un droit des robots ?

En effet, la présence de ses robots dans notre quotidien va rapidement s’intensifier.

De nombreux organismes et institutions travaillent depuis plusieurs années sur cette thématique : la Direction des affaires stratégiques du ministère de la Défense, le Centre de recherche des écoles de Saint-Cyr Coëtquidan, le Commissariat à l’énergie atomique et l’Institut national de la santé et de la recherche médicale.

Ce phénomène a finalement commencé à intéresser les juristes. De nombreuses lois sont venues encadrer Internet. On peut donc imaginer que cela va être le cas avec la robotique. Le Parlement européen s’y est notamment intéressé et a présenté le 21 avril 2021 un projet de règlement intitulé « L’AI Act »

Ainsi, quel cadre juridique doit-on adopter concernant le droit des robots ?

Afin de répondre à cette question, il convient de se pencher d’une part sur l’encadrement juridique à adopter pour la robotique (I), et d’autre part, sur l’éventuelle imputabilité d’une responsabilité (II).

I- L’encadrement législatif de la robotique

L’introduction d’une intelligence artificielle implique la création de nouveaux droits à l’instar de ceux consacrés dans le monde numérique notamment concernant les droits de la personnalité. Ainsi, la solution consisterait à imaginer un statut juridique adapté, comparable à celui de la personnalité morale. Ce statut se justifie notamment lorsque les robots acquièrent un degré de liberté et d’autonomie de plus en plus important par rapport à leur environnement et aux humains qui les utilisent. Existe-t-il des outils juridiques déjà existants à notre portée ? (A) Sinon, doit-on aller vers la création d’un droit sui generis ? (B)

A. Des outils juridiques existants limités

Aujourd’hui, il n’existe pas de véritable encadrement législatif de la robotique, cependant, certains outils juridiques existants permettent néanmoins de venir encadrer les robots et plus largement la robotique.

Ces outils se retrouvent dans différentes branches du droit, notamment dans le droit des contrats, de la consommation ainsi que dans le droit de la propriété intellectuelle.

En droit des contrats, on retrouve à l’article 1603 du Code civil deux obligations principales qui sont imposées au vendeur professionnel. il y a premièrement une obligation de délivrance qui comprend une obligation de mise à disposition de la chose, ainsi qu’une obligation de délivrance conforme, ensuite on retrouve une obligation de garantie. Celle-ci comprend deux objectifs distincts le premier étant de garantir la jouissance paisible de la chose et le second de garantir l’absence de défaut de la chose vendue.

Également, l’acheteur bénéficie de la responsabilité du fait des produits défectueux prévu à l’article 1386-1 et suivant du Code civil depuis la loi du 19 mai 1998. Il s’agit d’une responsabilité spéciale, elle correspond au fait qu’un producteur va engager sa responsabilité délictuelle du fait d’un défaut de sécurité de l’un de ses produits ou services entraînant un dommage à une personne, quelle qu’elle soit.

De plus, dans un décret en date du 20 juillet 2005, est prévu en son article 5 que les équipements électriques et électroniques comme les appareils ménagers et les dispositifs médicaux doivent être conçus et fabriqués de façon à faciliter leur démantèlement et leur valorisation afin d’encadrer la responsabilité du producteur.

La directive 2006/42/CE du 17 mai 2006 relative aux machines vient quant à elle poser des exigences de sécurité pour certains types de robots industriels tels que ceux intégrant une ligne de production. Cette directive est entrée en application depuis le 29 décembre 2009.

Enfin, un nouveau régime de responsabilité pénale applicable pour les véhicules à délégation de conduite a été mis en place par une ordonnance en date du 14 avril 2021.

En effet, la voiture autonome est considérée comme un robot spécial. Par conséquent, différents articles ont été ajouté dans le code de la route. L’article 123-1 de ce même code énonce que le conducteur ne sera pas tenu responsable dans les situations où les fonctions du véhicule étaient totalement déléguées à un système automatisé et que celui-ci exerçait un contrôle dynamique du véhicule au moment des faits. En revanche, dans cette situation, selon l’article 123-2 du code de la route, c’est la responsabilité du constructeur qui sera retenue et pourra donc être tenu pénalement responsable des dommages causés par le système automatisé.

En ce qui concerne le droit de la propriété intellectuelle, de nombreux droits sont souvent revendiqués sur les robots sans que cela ne suscite de difficulté particulière. C’est le cas, des brevets d’invention, ces derniers sont souvent accordés dans le domaine de la robotique (robots chirurgicaux). Également, le droit d’auteur est couramment invoqué (ex : tête de « Nao », robot de la société d’Aldebarran, est déposée au titre des dessins et modèles).

Le droit sui generis des bases de données pourrait notamment s’appliquer pour les données chargées dans le robot et pour celles qu’il accumule en mémorisant de nouvelles expériences.

B. Vers la création d’un droit sui generis

Actuellement, le cadre juridique ne permet pas d’appréhender la diversité de la créativité que les robots vont engendrer. Si les robots ont pu, par le passé, augmenter la productivité des entreprises, améliorer les traitements et les interventions médicales et faciliter les tâches ménagères du quotidien, aujourd’hui, l’arrivée de l’intelligence artificielle nécessite un cadre éthique et réglementaire particulier.

En effet, avec le développement des interactions entre les humains et les robots, il peut être intéressant d’imaginer un statut juridique quelque peu identique à celui des personnes morales. Dans le language juridique, être doté de la personnalité signifie, être apte à posséder des droits et à encourir des obligations. La personne, dans le sens qu’attribuent à ce terme les juristes, c’est l’être qui peut être sujet de droit.

Ainsi, le législateur a doté de la personnalité juridiques certaines entités comme par exemple les sociétés commerciales, les associations ou encore les syndicats. La personnalité morale confère à la personne morale nombre d’attributs reconnus aux personnes physiques, comme un nom, un patrimoine, un domicile. La personnalité morale permet notamment d’ester en justice et d’être tenu responsable pénalement. La création d’un statut sui generis permettrait ainsi aux robots d’avoir une personnalité juridique engendrant à leur égard un ensemble de droits et d’obligations.

En effet, si l’on franchit un pas dans l’autonomie, on se trouve confronté à des robots dont les agissements ne doivent plus rien à l’intervention directive de l’homme. Même si la machine a été programmée par un informaticien, construite par un roboticien et mise en route par son utilisateur, il arrive qu’elle prenne des initiatives en s’adaptant à de nouveaux environnements. On peut citer comme exemple les portraits du robot Paul qui produit sans nul doute des créations originales.

Cependant, la position du Parlement européen est claire, il refuse d’accorder la personnalité juridique à l’intelligence artificielle. Il a notamment rappelé cette position dans le projet de règlement sur l’intelligence artificielle présenté en avril 2021.

Toutefois, même en reconnaissant un statut juridique aux robots, il semblerait difficile, voire impossible d’admettre une éventuelle responsabilité à ces machines. Le principe d’une responsabilité civile ou pénale des robots pose de nombreuses questions qui nécessiteraient de revisiter certaines des notions fondamentales de notre droit telles que la capacité de discernement, la conscience de commettre un acte illicite et la maîtrise de ses actes.

II- L’imputabilité d’une responsabilité des robots

Avec l’introduction de robots de plus en plus intelligents et autonomes, les actions de ces derniers seront certainement de nature à échapper de plus en plus au contrôle de leur propriétaire ne leur permettant plus de maîtriser et d’en appréhender les conséquences. Un tel scénario imposerait de revisiter les fondements traditionnels du droit de la responsabilité afin de savoir si les robots pourraient un jour répondre de leurs actes. On peut donc imaginer la création d’un régime spécial de responsabilité (A), ainsi que l’hypothèse d’une responsabilité de l’homme envers les robots (B).

A) Vers la création d’un régime spécial de responsabilité

Le Code civil prévoit pour le droit de la responsabilité civile trois notions fondamentales. La première étant l’existence d’une faute, la seconde un dommage et enfin un lien de causalité. Par conséquent, pour que la responsabilité d’un individu soit engagée il faut que ce dernier dispose d’un contrôle sur ses actes et de leurs conséquences.

Ainsi, l’individu devient responsable uniquement s’il dispose d’une autonomie décisionnelle et comportementale. C’est avec discernement que les décisions doivent être prises. C’est pour cette raison que la jurisprudence refuse de retenir la responsabilité des machines, faute d’absence de capacité de discernement.

Cependant, le législateur a rapidement pris en compte la multiplication des dommages causés par les machines et est venu instaurer une responsabilité de plein droit des choses que l’on a sous sa garde.

Cette responsabilité s’applique dès lors qu’un individu a l’usage, la direction et le contrôle de la chose. La jurisprudence considère donc que la personne qui les contrôle sera tenue responsable. A l’inverse, si les faits litigieux sont la conséquence d’un dysfonctionnement alors l’individu peut écarter sa responsabilité, cette dernière retombant sur le fabricant par le biais de la responsabilité des produits défectueux.

Le Parlement européen, dans une résolution adoptée le 16 février 1017 a recommandé de mettre en place un projet législatif permettant de répondre aux questions portant sur la responsabilité. Il demande notamment de réfléchir à la création d’un statut juridique spécial pour les robots.

Une nouvelle résolution a été prise le 12 février 2019. Est abordé ici par le Parlement la notion d’intelligence artificielle au sens large.

C’est ainsi qu’a émergé le projet de règlement européen « l’AI Act » présenté le 21 avril 2021 par la Commission européenne. Ce projet a pour objectif la création d’un cadre juridique commun sur l’intelligence artificielle.

On constate alors, dans le cas des robots ayant une certaine autonomie, la nécessité de faire évoluer le cadre juridique actuel. En effet, la responsabilité du fait des choses étant inapplicable en l’absence du critère de contrôle, la création d’un régime spécial semble inévitable.

B) L’hypothèse d’une responsabilité de l’homme envers les robots

Même si de prime abord, une responsabilité de l’homme envers les robots semble impensable. Il convient tout de même de se poser la question en raison d’abus éventuels que ces derniers pourraient subir par l’homme et des conséquences juridique qui pourrait apparaître. Nous avons assisté à une évolution importante en 2015 concernant la reconnaissance des animaux comme des êtres vivants doués de sensibilité » désormais reconnue à l’article 515-14 du code civil. Également, le Code pénal condamne les atteintes portées aux biens d’autrui.

Les robots d’aujourd’hui sont de plus en plus semblables aux êtres humains. En effet, ils sont capables d’avoir des émotions ainsi que de ressentir de l’empathie. Le législateur pourrait par conséquent se poser la question d’une personnalité juridique spéciale combinée à un régime spécial de protection des robots.

Certaines observations scientifiques démontrent que les robots, qui seront de plus en plus présents dans notre vie quotidienne, seront davantage regardés avec anthropomorphisme.

Toutefois ces observations ne permettent pas aujourd’hui de comparer les robots aux animaux ou même aux humains. Cependant, elles pourraient amener à protéger l’intégrité des robots en réprimant les atteintes porter à l’intégrité de ces derniers. Ainsi, il ne serait pas question de protéger les atteintes matérielles en tant que telles, mais plutôt pour protéger la sensibilité des humains et les intérêts de la société.

Pour lire une version plus complète de cet article sur le droit des robots, cliquez

Sources :

Code civil
Code de la propriété intellectuelle
Wikipédia
https://www.legifrance.gouv.fr/codes/article_lc/LEGIARTI000030250342/
https://eur-lex.europa.eu/legal-content/FR/ALL/?uri=CELEX:52021PC0206
https://www.legifrance.gouv.fr/codes/section_lc/LEGITEXT000006074228/LEGISCTA000043371833/#LEGISCTA000043371833

Intelligence artificielle

Woody Allen l’a dit : « L’intelligence artificielle se définit comme le contraire de la bêtise humaine ». Cette phrase, à moitié pleine d’ironie, cache en réalité un constat indéniable : celui d’une avancée exponentielle en la matière.

La peur que les machines surpassent les hommes, est avec l’intelligence artificielle, une crainte bien réelle. Quand est-il lorsque cette machine crée un dommage ? Qui peut être tenu responsable ?

NOUVEAU ! Pour tenter de faire supprimer un contenu qui pénalise vos droits, vous pouvez utiliser le service d’envoi de lettre de mise en demeure mis en place par le cabinet Murielle-Isabelle CAHEN.

Ces dernières années, l’intelligence artificielle s’est particulièrement développée et a été au cœur de nombreuses avancées. On peut notamment citer un exploit récent réalisé par l’intelligence artificielle AlphaGo créée par la société Deepmind, qui a, en 2016 été capable de batte le champion du monde de Go Lee Sedol. Ce jeu de plateau était pourtant réputé “impraticable” par une machine du fait des innombrables combinaisons possibles.

Même si ces nouvelles technologies fascinent, elles ne sont pas sans risque.

C’est donc naturellement qu’un débat autour de l’intelligence artificielle et plus précisément de la détermination du responsable (sur le plan civil comme pénal) dans le cadre d’un dommage causé par l’intelligence artificielle, ne fait pas encore consensus (I), il est pourtant essentiel de trouver une solution à des litiges de plus en plus fréquents (II).

I) Les enjeux du débat sur la responsabilité

Premièrement, nous devons définir précisément l’intelligence artificielle, et de ses différentes déclinaisons (A), pour ensuite se pencher sur la façon la plus pragmatique de définir le responsable en cas de litige (B).

A) L’intelligence artificielle : qu’est ce que c’est ?

Naturellement il convient avant toute chose de définir l’intelligence artificielle. Le terme générique caractérise en effet « l’ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence » .

La paternité du terme d’intelligence artificielle est attribuée à John McCarthy. Ce terme a par la suite été défini par son compère Marvin Lee Minsky comme “la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains, car elles demandent des processus mentaux de haut niveau […]”.

Cette définition résonne tout particulièrement, en ce que la notion de temporalité y est parfaitement encadrée. « Pour l’instant » : le mot est lâché, et il sonne toujours plus vrai aujourd’hui puisque le progrès scientifique en la matière n’a jamais été aussi rapide et d’actualité.

Le propre de l’intelligence artificielle est d’emmagasiner de nombreuses connaissances et de constituer une base sur laquelle se fonder pour réaliser les tâches demandées, grâce à ses interactions avec l’environnement et son « expérience ».

« Tay », l’intelligence artificielle de Microsoft, est un « chatbot » qui fut lancée par l’entreprise sur le réseau Twitter et répondant parfaitement à cette définition en ce que sa mission consistait à discuter avec les internautes en s’inspirant du langage, du savoir et du comportement de ces derniers à son égard.

Pour autant, les concepteurs retirèrent du réseau le programme, après que celui-ci ait tenu des propos racistes et diffamatoires à l’encontre de la communauté, qui s’amusait à tester ses limites en faussant son apprentissage.


Besoin de l’aide d’un avocat pour un problème d’intelligence artificielle ?

Téléphonez nous au : 01 43 37 75 63

ou contactez nous en cliquant sur le lien_


L’intelligence artificielle se caractérise par le stockage de vastes quantités de connaissances et, par son interaction avec l’environnement et son «expérience», constitue la base pour l’exécution des tâches requises.

Microsoft a développé un « chatbot » nommé « Tay ». C’est sur le réseau social Twitter qu’elle a été lancée. La mission de cette IA consistait à discuter avec les utilisateurs tout en s’inspirant de leur langage et de leur comportement. Cependant, ce programme a été retiré du réseau social rapidement.

Cependant, après que le programme ait tenu des propos racistes et diffamatoires sur la communauté, les concepteurs ont retiré le programme du réseau

Ce cas, parmi tant d’autres, illustre parfaitement les dérives liées à l’intelligence artificielle, et pose donc la question de savoir : qui est responsable ??

Le Parlement européen, dans une résolution en date du 12 février 2019 sur « la politique industrielle européenne globale sur l’intelligence artificielle et sur la robotique », tente de définir la notion d’IA et le régime juridique qui doit lui être applicable. Le Parlement abandonne l’idée de donner à l’intelligence artificielle une personnalité juridique et vient plus observer les conséquences de l’intelligence artificielle sur le régime de responsabilité civile, par exemple. En effet, le droit de la responsabilité civile doit être adapté pour « tenir compte de l’intelligence artificielle et de la robotique ».

Dans un projet de règlement sur l’IA présenté en avril 2021, l’Union européenne vient confirmer cette position et refuse d’accorder la personnalité juridique à l’IA.

Ce projet apporte tout de même un certain cadre juridique. Il est prévu plusieurs niveaux d’intelligence artificielle selon les risques de cette dernière sur l’humain. Le premier niveau correspond aux IA avec un risque inacceptable. Ces IA sont interdites en raison de leur système qui pourrait par exemple « manipuler les personnes au moyen de techniques subliminales afin de modifier leur comportement ce qui causerait un préjudice à la personne ou un tiers ». Ce type d’IA concerne également le scoring social portant une atteinte disproportionnée à la liberté des personnes.

Le second niveau concerne les IA avec un risque élevé. Elles sont autorisées, mais elles doivent s’accompagner de mesures importantes pour démontrer que cette IA est bien conforme aux mesures de sécurité imposées en raison du niveau élevé de risque. Le troisième niveau est l’IA à faible risque, elle devra respecter un guide de conduite. Le dernier niveau concerne les IA à risques minimes qui ne font l’objet d’aucune exigence.

B) Comment déterminer un responsable ?

Par définition, et comme l’affirment certains, « la responsabilité civile du fait d’un individu ou d’une chose est inhérente à l’action humaine […] Seul l’individu est responsable de ses décisions conduisant aux actes et aux conséquences malencontreuses induites par la faillibilité humaine » .

Dès lors, la responsabilité du fait des choses place aujourd’hui l’objet sous la garde de celui qui en dispose par un pouvoir d’usage, de direction et de contrôle, et responsabilise donc ce dernier lorsque l’objet en question se trouve impliqué dans le fait dommageable.

Une telle réflexion pose problème, en effet, bien qu’elle s’applique parfaitement à toutes sortes d’objets, elle n’est pas adaptée à l’intelligence artificielle, car par définition, l’homme n’a pas (pleinement, du moins) les pouvoirs précités.

Le problème d’une telle réflexion, c’est qu’elle s’applique parfaitement à toute sorte d’objets, mais pas vraiment à l’intelligence artificielle sur lequel, par définition, l’homme n’a pas (pleinement, du moins) les pouvoirs précités.

L’intelligence artificielle, amenée à fonctionner de manière autodidacte, conserve naturellement cette part d’indétermination et d’imprévisibilité qui met en péril une telle responsabilisation de l’homme.

Stéphane Larrière affirme très justement que : « Dès lors, l’homme laisse la main à l’intelligence artificielle dans l’exercice de ses facultés augmentées par ce complément cognitif : il se réalise alors une sorte de délégation conférée à la machine pour décider et faire à sa place ».

Par conséquent, le régime qui semble être le plus favorable est celui de la responsabilité sans faute, celle du fait d’autrui, celle “permettant d’imputer les frais du dommage à celui qui était le mieux placé, avant le dommage, pour contracter l’assurance destinée à garantir le risque” (G. Viney, Introduction à la responsabilité, Traité de droit civil, LGDJ 2008, p.40).

Néanmoins, au vu de la multitude de cas possibles, cette détermination n’est pas des plus aisée.

Le rapport de la Commission européenne portant sur les conséquences de l’intelligence artificielle, de l’internet des objets et de la robotique sur la sécurité s’est attelé à la question de la responsabilité. La Commission retient que « bien que la directive sur la responsabilité du fait des produits donne une définition large de la notion de produit, celle‑ci pourrait être précisée pour mieux traduire la complexité des technologies ». Par conséquent, la Commission européenne considère qu’en matière d’intelligence artificielle,  le régime de la responsabilité du fait des choses n’a pas à s’appliquer.

II) Un débat de plus en plus fréquent

Si les accidents liés aux voitures autonomes sont fréquents ces derniers temps (A), ne sont pas à exclure les risques liés aux autres formes d’intelligences artificielles (B).

A) Le cas des voitures autonomes

La détermination d’une telle responsabilité est un débat que l’actualité place régulièrement sur le devant de la scène médiatique, et souvent pour le pire. C’est le secteur de l’automobile qui en fait les frais aujourd’hui ; deux accidents auront marqué les esprits ces dernières semaines.

Le premier, survenu le 19 mars dernier en Arizona, concerne l’entreprise Uber. Suite à des tests sur la voie publique, l’un de ses modèles autonomes a percuté un piéton, décédé par la suite de ses blessures.

Le système de l’automobile mis en cause, n’ayant pas activé le système de freinage avant l’impact, a contraint la société de suspendre ses activités dans le domaine . Pour autant, celle-ci soutient que l’automobiliste est à mettre en cause dans l’affaire.

Le deuxième accident récent concerne cette fois-ci Tesla et son modèle X, au volant de laquelle est décédé un conducteur 4 jours après le drame précédent.

Encore une fois, l’autopilote se trouve au cœur des débats, et si la famille de la victime accuse l’entreprise, celle-ci se dédouane de toute responsabilité en soulignant que la victime « n’avait pas les mains sur le guidon au moment de l’accident », et contre toute indication de la voiture l’invitant à prendre de telles mesures.

Le 12 février 2019, le Parlement européen a rendu une résolution dans laquelle elle vient aborder la question des voitures automatiques en disposant que « la prévalence de véhicules autonomes présentera des risques […] de défaillances techniques et va transférer à l’avenir la responsabilité du conducteur vers le fabricant, imposant aux compagnies d’assurances de modifier la manière dont elles intègrent le risque dans leur souscription ».
Ces affaires mettent en lumière tout l’enjeu de l’autonomie de l’intelligence artificielle face au pouvoir de contrôle du conducteur sur la chose, dans la détermination du responsable du fait dommageable.

Le 14 avril 2021, une ordonnance est venue prévoir un nouveau régime de responsabilité pénale applicable pour les véhicules à délégation de conduite. Par la suite, le gouvernement a précisé par décret le 29 juin 2021  les modalités d’application de l’ordonnance.

L’article 123-1 du Code de la route prévoit désormais que la responsabilité pénale du conducteur ne sera pas retenue dans le cas où l’infraction commise serait le résultat d’une manœuvre d’un véhicule dont les fonctions sont totalement déléguées à un système automatisé, si, au moment des faits ce système exerçait le contrôle dynamique du véhicule.

L’article 123-2 de ce même Code prévoit en revanche que la responsabilité pénale du constructeur sera quant à elle retenue. Le constructeur est tenu responsable des atteintes involontaires à la vie et à l’intégrité des personnes. Sa responsabilité sera retenue, si l’existence d’une faute est établie au moment où l’IA exerçait le contrôle dynamique du véhicule. Également,  dès lors qu’il y a un défaut de conception, le constructeur sera tenu responsable.

B) D’autres risques potentiels à envisager

Il existe également d’autres circonstances ou les questions de responsabilité civile ou pénale se posent.

L’exemple de l’intelligence artificielle “Tay” qui a déjà été cité laisse penser que l’on pourrait voir un jour survenir un litige portant sur des propos dénigrants, voir du harcèlement avec pour origine de ces délits, l’intelligence artificielle.

Il faut également se questionner sur les assistants personnels intelligents comme Siri, Alexa, ou encore Google Home, définis comme des  “agents logiciel qui peuvent effectuer des tâches ou des services pour un individu” .

L’utilisation quotidienne qui est faite de ces technologies par leur propriétaire repose sur le fait d’effectuer des actions simples (lancer une playlist, envoyer un message ou encore passer un appel). Cependant, ces assistants personnels intelligents peuvent aussi  être utilisés pour effectuer des recherches plus complexes, avec degré d’importance de la réponse qui peut varier, et par conséquent avoir un impact plus ou moins grave en cas d’erreur.

Une actualité récente démontre bien ces risques. En effet, en décembre 2021, c’est l’assistant vocal d’Alexa qui s’est retrouvé au cœur d’une polémique. Ce dernier a dû faire l’objet d’une mise à jour d’urgence par Amazon. Un enfant avait demandé à Alexa de lui proposer des défis à réaliser. L’assistant intelligent d’Amazon a proposé à l’enfant de jouer avec une prise électrique.

Bien que l’enfant se porte bien aujourd’hui, cette affaire force à se poser des questions quant à la responsabilité des assistants personnels intelligents.

Ces technologies vont être utilisées dans des domaines tels que le médical par exemple qui ne laisse pas de place à l’erreur. La question sur la détermination d’un responsable pourrait se poser, dans le cas où la machine apporterait un résultat erroné à un calcul. Mais la question est complexe, car bien souvent, de toute façon, ce calcul n’était pas réalisable par l’Homme.

On en revient à cette idée de délégation soulevée plus haut. Reste à savoir quels critères prédomineront en la matière, à mesure des avancées technologies, mais aussi, malheureusement, à mesure de la variété des accidents…

Pour lire une version plus adaptée au mobile de cet article sur l’intelligence artificielle, cliquez

SOURCES :
(1) http://www.larousse.fr/encyclopedie/divers/intelligence_artificielle/187257
(2) http://laloidesparties.fr/responsabilite-ia
(3) G. Viney, Introduction à la responsabilité, Traité de droit civil, LGDJ 2008, p.40
(4) https://www.numerama.com/business/336940-uber-suspend-ses-activites-dans-la-voiture-autonome-apres-un-mort.html
(5) https://fr.wikipedia.org/wiki/Assistant_personnel_intelligent
Résolution du Parlement européen du 12 février 2019 sur une politique industrielle européenne globale sur l’intelligence artificielle et la robotique
https://www.europarl.europa.eu/doceo/document/TA-8-2019-0081_FR.html
Livre Blanc sur l’intelligence artificielle du 19 février 2020
https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_fr.pdf
https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000043370894
https://www.legifrance.gouv.fr/codes/section_lc/LEGITEXT000006074228/LEGISCTA000043371833/#LEGISCTA000043371833

Le positionnement publicitaire

La méthode du référencement payant consiste,  à offrir, moyennant finance, au site référencé une position en tête des résultats d’une recherche sur certains mots-clés prédéfinis. La rémunération se calcule soit par nombre de clic (Pay-Per-Clic), dans le cas du positionnement par enchères, soit par CPM (coût par milles pages vues), dans le cas du positionnement publicitaire par achat du lien.

NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire !

Le « Pay for Placement » et son corollaire, le nouveau marché de mots-clés, constituent, sans doute, des techniques de web marketing fort puissantes, qui servent, notamment, des moyens pour accroître la visibilité des sites Internet et augmenter leur notoriété.

Face au succès que la technique du référencement promotionnel est censée avoir auprès des principaux acteurs de la Net économie, il convient d’examiner son niveau de conformité aux règles de droit existantes. Trois séries de questions se posent à l’égard du positionnement publicitaire :

Tout d’abord, l’éventuelle appropriation des mots-clés par les sites les plus riches et l’exclusion, sur certains engins de recherche, des sites moins dépensiers, ne constituent-elles une entorse à la libre concurrence ?

Deuxièmement, la vente des mots clés par les moteurs de recherche est-elle une publicité clandestine ?

Enfin, comment peut-on protéger les titulaires des marques victimes de la pratique de  » position squatting  » ?


Besoin de l’aide d’un avocat pour un problème de contrefaçon ?

Téléphonez-nous au : 01 43 37 75 63

ou contactez-nous en cliquant sur le lien


I. Le positionnement publicitaire face aux règles du droit de la concurrence

En vertu de l’article 102 du Traité sur le fonctionnement de l’Union européenne (TFUE) : « Est incompatible avec le marché commun et interdit, dans la mesure où le commerce entre États membres est susceptible d’en être affecté, le fait pour une ou plusieurs entreprises d’exploiter de façon abusive une position dominante sur le marché commun ou dans une partie substantielle de celui-ci ».

Selon l’article 86 du Traité CE  » Est incompatible avec le marché commun et interdit, dans la mesure où le commerce entre États membres est susceptible d’en être affecté, le fait pour une ou plusieurs entreprises d’exploiter de façon abusive une position dominante sur le marché commun ou dans une partie substantielle de celui-ci « . Qu’en est il donc du positionnement publicitaire ?

Le référencement payant et la vente des mots-clés est susceptible d’aboutir à des situations anti-concurrentielles, dans la mesure où l’appropriation des mots-clés par certaines entreprises peut empêcher les acteurs du même secteur d’être visibles sur le Net. Le dernier chapitre du rapport de l’OMPI, relatif à la  » gestion des noms et adresses de l’Internet : Questions de propriété intellectuelle « , évoque ce même problème :

 » Plusieurs sociétés, sises dans plusieurs régions du monde, ont enregistré des noms de domaine comprenant tous l’élément  » Télécom « . Ce sont Symmetricom,Inc , Telecom UK ltd (, TWX Telecommunications gmbh (www.telecom.de), Telecom s.r.l. , Telstra Corporation Ltd. et Swisscom .

Néanmoins, certains des systèmes à mots clés existant actuellement ne renvoient l’utilisateur qui saisit le mot clé  » telecom  » qu’au site de Symmetricom, inc., sans rien dire des autres.(…)

En saisissant le mot clé  » golf « , l’utilisateur est dirigé d’une société sise aux États-Unis ( alors que d’autres utilisent le mot golf comme nom de domaine, en particulier une société du Royaume Uni , une société allemande, une société néerlandaise, une société australienne , etc.

Dans sa décision du 9 juin 2000, le Conseil de la concurrence a considéré, de sa part, que lorsqu’il s’agit d’opérateurs exerçant leur activité sur le même marché, il est difficile de soutenir que chacun d’entre eux détient individuellement une position dominante, sauf s’il s’agissait d’une position dominante collective, ce qui n’était pas allégué. En l’espèce, n’était prouvés ni la position dominante collective ni l’abus, il n’en reste pas moins que ces deux conditions puissent être réunies à l’avenir.

En effet, la position dominante collective pourrait être établie avec la généralisation des accords conclus entre les prestataires de positionnement payant et les outils de recherche, de telle sorte que les résultats des premiers occupent les premières places de toute recherche effectuée.

En France, par exemple, deux spécialistes en la matière, Ouverture et Espotting, ont déjà signé des accords avec, respectivement, AOL et Yahoo! Europe, par lesquels ces portails s’engagent à faire figurer les résultats fournis par les prestataires de positionnement payant partenaires en tête de liste.

Quant à l’abus de position dominante, le Conseil de la concurrence a rejeté l’argument de la société Concurrence en a affirmant que  » la fonction d’annuaire ou moteur de recherche sur Internet ne peut être tenue pour indispensable à la rencontre de la demande émanant du consommateur et l’offre de produits et services vendus sur Internet « .

Ceci signifie, a contrario, que si l’apparition dans la liste des résultats des outils de recherche était nécessaire pour accéder au marché, en exclure un opérateur serait une entrave à la libre concurrence. Or, comme on l’a déjà montré dans une étude antérieure (cf. La responsabilité des outils de recherche), la croissance exponentielle du volume des données mises en ligne rend aujourd’hui nécessaire l’utilisation d’outils de recherche pour pouvoir accéder aux informations ou aux sites s’y trouvant.

Certes, les outils de recherche peuvent choisir librement leur politique commerciale. La vente des mots clés ne paraît illicite face au droit de la concurrence, que si elle est réservée de manière exclusive à un numerus clausus d’opérateurs du marché électronique.

II. Le positionnement payant : quelle protection pour les consommateurs ?

Les moteurs de recherche  » traditionnels  » affichent les résultats d’une requête selon un algorithme qui permet de classer les sites par ordre de pertinence. L’internaute présume, donc, que les sites se trouvant en tête de liste sont ceux qui correspondent mieux à sa demande et c’est pour cette raison qu’il n’ira, très probablement, pas consulter la deuxième page.

Lors d’un positionnement payant, se pose, alors, la question suivante : dans la mesure où la liste retournée à l’internaute suite à sa requête semble objective, n’est-il pas induit en erreur s’il ignore que la présentation des résultats n’est pas seulement gouvernée par la pertinence, mais aussi dirigée par le prestataire de référencement ?

A) L’interdiction de la publicité clandestine ou trompeuse

L’article 2 du décret du 27 mars 1992 relatif à la publicité et au parrainage audiovisuel prévoit que :  » constitue une publicité toute forme de message télévisé diffusé contre rémunération ou autre contrepartie en vue de promouvoir la fourniture de biens ou de services « .

Par ailleurs, la directive  » Commerce Electronique  » du 8 juin 2000 énonce dans son article 2 que constitue une communication commerciale  » toute forme de communication destinée à promouvoir, directement ou indirectement, des biens, des services, ou l’image d’une entreprise, d’une organisation ou d’une personne ayant une activité commerciale, industrielle, artisanale ou exerçant une profession réglementée  »

Les moteurs de recherche sont des supports de publicité, puisqu’ils font la promotion des biens ou des services en échange d’une rémunération fournie par le site positionné. La jurisprudence, d’ailleurs, retient une conception large de la publicité :  » le critère essentiel de la publicité réside dans le fait qu’il puisse véhiculer un message commercial, qu’elle qu’en soit la forme « .

Le positionnement payant étant une publicité, il doit se conformer aux règles existantes en la matière. Le décret de 1992 précité dispose que  » la publicité clandestine est interdite « . Par ailleurs, la loi de 1986 sur l’audiovisuel énonce dans son article 43 al.2 que  » les messages publicitaires doivent être mentionnés comme tels « . L’article 6a de la Directive  » Commerce Electronique « , enfin, prévoit que  » la communication commerciale doit être clairement identifiable comme telle « .

Par conséquent, les engins de recherche doivent indiquer de manière claire la nature commerciale des liens figurant dans la liste des résultats, afin que l’internaute puisse savoir si un site a payé pour y figurer ou si sa présence sur la liste est le résultat d’une recherche réelle et objective.

Le Code de la consommation interdit de même  » toute publicité comportant, sous quelque forme que ce soit, des allégations, indications ou présentations de nature à induire en erreur, lorsque celles-ci portent sur la nature des biens ou services qui font l’objet de la publicité « .

Au délit de publicité clandestine s’ajoutera, donc, celui de publicité trompeuse, lorsque l’annonceur a acheté un ou plusieurs mots clés qui ne correspondent pas à son activité commerciale réelle.

B) L’application de la loi Sapin aux intermédiaires de positionnement payant

La loi du 29 janvier 1993, dite loi Sapin s’applique au support Internet, qu’il s’agisse d’espaces dans les bandeaux, icônes ou liens, dès lors qu’ils passent par l’intermédiaire des serveurs ou vendeurs d’espaces ou bien encore d’agences de publicité.

Le positionnement payant passe par l’intermédiaire d’un tiers, lorsque le responsable du site intéressé s’adresse non pas directement à l’outil de recherche, mais à un prestataire de référencement, qui lui se met en contact avec ce dernier.

Ces prestataires de référencement apparaissent, alors, comme des intermédiaires dans l’achat d’espace publicitaire, ce qui implique l’application de la loi Sapin. Ainsi, un contrat de mandat devra être établi par écrit entre le prestataire de positionnement et le site annonceur.

Il est encore prévu que l’intermédiaire ne pourra percevoir d’autres rémunérations que celles figurant au contrat de mandat, ce qui signifie que le prestataire ne peut être rémunéré que par l’annonceur et non pas par l’outil de recherche.

Il en va, pourtant, autrement, lorsqu’on est en présence d’un contrat de partenariat entre différents outils de recherche ou entre un outil de recherche et un site portail.

Dans ce dernier cas, le contrat n’a pas pour objet l’achat d’espace publicitaire, mais la diffusion des résultats d’un outil de recherche par un autre outil partenaire ou par un site, en échange, bien sûr d’une rémunération. Ainsi, la loi Sapin ne semble pas devoir s’appliquer en l’espèce.

III. Le  » position squatting  » et la protection des marques

Le position squatting est  » le fait de payer pour apparaître dans les premiers résultats, lors d’une recherche sur un mot clé représentant une marque, dont on détient pas les droits « . Selon une étude réalisée récemment par une société de référencement, 60% des entreprises du CAC 40 en sont victimes.

Le titulaire d’une marque peut-il s’opposer à ce que d’autres personnes utilisent celle-ci en tant que mot-clé pour acheter une position privilégiée sur les résultats des recherches des internautes ? Quels sont les recours dont celui-ci dispose vis à vis tant du squatteur que de l’outil de recherche ?

A) La responsabilité du squatteur

1) L’action en contrefaçon de marque

L’article L.713-2 du Code de la propriété intellectuelle prévoit une interdiction de l’usage dans la vie des affaires pour des produits ou des services, sans l’autorisation préalable du titulaire de la marque: “1° D’un signe identique à la marque et utilisé pour des produits ou des services identiques à ceux pour lesquels la marque est enregistrée ;

2° D’un signe identique ou similaire à la marque et utilisé pour des produits ou des services identiques ou similaires à ceux pour lesquels la marque est enregistrée, s’il existe, dans l’esprit du public, un risque de confusion incluant le risque d’association du signe avec la marque.” (2)

L’achat, auprès d’un outil de recherche, d’une position sur un mot-clé constituant un signe protégé peut-il être considéré comme un usage de marque au sens de l’article 713-2 du CPI, même si, comme c’est le cas très souvent, le signe en cause n’est pas visiblement utilisé ?

La réponse semble être positive, compte tenu, notamment, de la jurisprudence relative à la protection des marques face à leur reproduction en tant que méta-tags dans le code source d’un site. Celle-ci considère, en effet, que l’insertion par un tiers d’un signe distinctif déposé à titre de marque dans les balises méta d’une page web peut être qualifiée de contrefaçon.

Cette solution a été confirmée récemment dans une affaire opposant deux sociétés concurrentes dans le commerce des orgues de barbarie. En l’espèce, le TGI de Paris a considéré que  » la reproduction sans autorisation par une société de la marque d’en de ses concurrents sur la page source de son site Internet était constitutive de contrefaçon et d’atteint au nom commercial de la société concurrente « .

Dans le cas du position squatting l’effet escompté est identique : faire apparaître son site dans les résultats des recherches sur les mots-clés choisis.

Le fondement  de la contrefaçon a, d’ailleurs, été utilisé de manière reconventionnelle dans une affaire opposant aux Etats-Unis deux sociétés titulaires de la marque Nissan ( Nissan motor co., ltd et Nissan computer corporation), dont l’une se plaignait du fait que l’autre apparaissait avant elle dans les résultats des recherches sur le mot-clé  » Nissan  » et  » Nissan.com « . Le tribunal américain a, pourtant, rejeté la demande.

Qu’en est-il, pourtant, si l’acheteur du mot-clé, protégé à titre de marque, est en droit d’utiliser cette dernière pour annoncer la vente des produits qu’il a acquis licitement ?

En effet, rien ne s’oppose a priori à ce qu’un vendeur membre d’un réseau de distribution utilise la marque comme élément de référencement de son site. La jurisprudence reconnaît au distributeur des produits authentiques le droit d’utilisation de la marque pour la publicité de ses produits.

La CJCE a été amené à la même conclusion par le biais de la règle de l’épuisement des droits. Dans l’affaire opposant la société BMW à un garagiste indépendant, la CJCE a, par ailleurs, jugé que le titulaire d’une marque ne pouvait  » interdire à un tiers l’usage de sa marque en vue d’annoncer au public qu’il effectue la réparation et l’entretien des produits de cette marque…  » .

Selon cette décision, la liberté du revendeur d’utiliser la marque dans la promotion a une limite, lorsque la marque est utilisée d’une  » manière telle qu’elle peut donner l’impression qu’il existe un lien commercial entre le revendeur et le titulaire de la marque et notamment l’entreprise du revendeur appartient au réseau de distribution et qu’il existe une relation spéciale entre eux « .

En revanche, dans l’affaire Citycom c. Chanel, la Cour d’appel de Paris a condamné pour contrefaçon de marque un distributeur parallèle qui revendait des produits Channel en ligne, au motif qu’il avait utilisé la marque dans le code source de son site. Elle a souligné que  » ce code permettait aux internautes, par le biais des annuaires et des moteurs de recherche d’accéder directement au site susceptible de les intéresser par la simple opposition de la marque comme mot-clé « .

Le titulaire de la marque victime de position squatting pourra, donc, intenter une action pénale en contrefaçon et se porter partie civile, devant le tribunal correctionnel. Il peut également intenter une action en référé spécifique au droit des marques sur la base de l’article L.716-6 du Code de la propriété intellectuelle, afin que le juge ordonne au contrefaçeur de ne plus utiliser la marque en tant que mot-clé pour occuper une position privilégiée dans les résultats des outils de recherche.

2) L’action en concurrence déloyale

Selon le principe de spécialité, le titulaire de la marque ne peut empêcher l’usage de celle-ci pour désigner des produits et services différents de ceux visés dans l’enregistrement. Ainsi, lorsque le site positionné n’est pas concurrent du titulaire de la marque, ce dernier ne peut pas intenter une action en contrefaçon de marque.

Cependant, le titulaire de la marque victime de position squatting peut toujours intenter une action en concurrence déloyale contre le squatteur, si celui-ci ne cherche qu’à  » profiter du travail d’autrui sans bourse délier  » et notamment lorsque les mots-clés réservés n’ont aucun rapport avec l’activité commerciale de ce dernier.

Pour cela il faut établir qu’il y une faute, un dommage et un lien de causalité entre les deux. La faute résultant du comportement déloyal, le préjudice consistera en la perte de clientèle, l’atteinte à l’image ou à la valeur de la marque.

Il en va autrement, lorsque la marque squattée est notoire et que le squatteur cherche à profiter du renommé de celle-ci pour augmenter sa visibilité. Selon l’article 713-5 du Code de la propriété intellectuelle, « L’emploi d’une marque jouissant d’une renommée pour des produits ou services non similaires à ceux désignés dans l’enregistrement engage la responsabilité civile de son auteur s’il est de nature à porter préjudice au propriétaire de la marque ou si cet emploi constitue une exploitation injustifiée de cette dernière« .

L’article 713-5 du Code de la propriété intellectuelle dispose que : « Ne constitue pas une contrefaçon, mais engage la responsabilité civile de son auteur l’usage dans la vie des affaires, pour des produits ou des services, non autorisé par le titulaire d’une marque notoirement connue au sens de l’article 6 bis de la convention de Paris pour la protection de la propriété industrielle :

1° D’un signe identique à la marque et utilisé pour des produits ou des services identique à ceux pour lesquels la marque est notoirement connue ;

2° D’un signe identique ou similaire à la marque et utilisé pour des produits ou des services identiques ou similaires à ceux pour lesquels la marque est notoirement connue, s’il existe, dans l’esprit du public, un risque de confusion incluant le risque d’association du signe avec la marque ;

3° D’un signe identique ou similaire à la marque et utilisé pour des produits ou des services identiques, similaires ou non similaires à ceux pour lesquels la marque est notoirement connue, si cet usage du signe, sans juste motif, tire indûment profit du caractère distinctif ou de la notoriété de la marque, ou leur porte préjudice. »

B) La responsabilité de l’outil de recherche

L’outil de recherche qui vend des mots-clés peut-il voir sa responsabilité engagée au même titre que le squatteur ?

La responsabilité des fournisseurs des outils de recherche n’est traitée ni dans la Directive Commerce Electronique 200/31/CE ni dans la loi du 1 août 2000 concernant les intermédiaires de l’Internet. Toutefois, le législateur européen a chargé la Commission de présenter un rapport, avant le 17 juillet 2003, sur la nécessité de présenter des propositions relatives à la responsabilité des  » services de moteurs de recherche « .

La directive  » commerce électronique  » précitée, ne retient la responsabilité du prestataire d’hébergement que s’il est prouvé que celui-ci a eu connaissance de l’activité illicite et n’a rien entrepris pour la faire cesser.

Dans une étude antérieure, on a proposé de faire le même raisonnement pour les outils de recherche. En effet, étant donné le rôle joué par ceux-ci dans la société de l’information, leur responsabilité ne peut être plus étendue que celle des fournisseurs d’accès et d’hébergement. Ainsi, le TGI de Paris n’a pas retenu la responsabilité du moteur de recherche Alta Vista, car il avait retiré le site qui portait atteinte aux droits de la personnalité de M. Délanoe dès qu’il en avait eu connaissance.

Doit-on mener le même raisonnement à propos des outils qui propose un service de positionnement payant ? La réponse semble être plutôt négative, compte tenu du fait que, dans ce cas précis, l’outil de recherche se présente non pas comme un prestataire technique, mais en tant que support de publicité qui vend son espace.

En droit civil, le fournisseur du positionnement payant peut être tenu responsable, sur le fondement de l’article 1240 du Code civil, si en connaissance de cause il a vendu des mots-clés déposés à titre de marques.

En droit pénal, l’outil de recherche pourrait voir sa responsabilité engagée, soit comme auteur direct d’une infraction, soit, plus probablement, comme complice, sur le fondement de l’article 121-7 du Code pénal, pour avoir fourni en connaissance de cause une aide à la commission de l’infraction.

C) La responsabilité civile délictuelle du prestataire de positionnement payant

Le droit commun de la responsabilité est fondée sur la notion de faute au sens de l’article 1240 du Code civil. Ainsi, le fournisseur d’un outil de recherche peut être tenu responsable civilement des dommages causés, du fait de la vente d’un mot-clé, à une tierce personne. Dans ce cas, cette dernière devra prouver la réalité du dommage subi, la faute du fournisseur de l’outil de recherche et un lien de causalité entre les deux.

Or, la faute de l’outil de recherche sera, le plus souvent, difficile à démontrer. Certes, dans le cas où la marque serait notoire, la responsabilité de l’outil pourrait être engagée en raison de sa connaissance du signe squatté. Quid, pourtant, s’il s’agit d’une marque non connue ?

La jurisprudence, quant à elle, se montre hésitante. En effet, si le moteur de recherche Excite a été condamné en Allemagne pour avoir vendu à la société Fragrance Counter des mots-clés déposés à titre de marques par la société Estée Lauder, sa responsabilité n’a pas été retenue par le tribunal américain, dans l’affaire Playboy, au motif que  » Playboy  » était devenu un terme générique sur Internet. Actuellement est en cours aux Etats-Unis une nouvelle affaire, opposant la société Mark Nutitionals Incorporation, titulaire de la marque Body Solutions à quatre outils de recherche (AltaVista, FindWhat, Kanoodle et Overture), qui, eux, risquent de voir leur responsabilité engagée pour avoir vendu la marque en cause à des concurrents de la société demanderesse.

Certains auteurs envisagent, même, la possibilité d’engager la responsabilité pour risque des moteurs de recherche, afin de permettre au titulaire d’une marque victime de position squatting de réparer le préjudice subi du fait de l’utilisation de celle-ci, à titre de mot-clé, dans les moteurs de recherche par une tierce personne.

Toutefois, dans un arrêt rendu le 9 avril 2014, la Cour d’appel de Paris avait reconnu à Google le statut d’hébergeur pour son service Adwords (désormais Google Ads) tel que prévu par l’article 6.I.2 de la loi du 21 juin 2004 sur la confiance pour l’économie numérique (LCEN).

Elle a affirmé que Google n’a qu’un « caractère purement technique, automatique et passif, qui implique que le prestataire de services de la société de l’information n’a pas la connaissance ni le contrôle des informations transmises ou stockées ». En effet, selon les juges, la responsabilité de Google ne peut pas être engagée puisqu’il n’a pas un rôle actif dans la sélection des mots-clés par les annonceurs.

D) La responsabilité pénale du prestataire de positionnement payant

En matière pénale, l’outil de recherche, s’il ne peut pas être considéré comme auteur de contrefaçon de marque, il peut être condamné pour complicité, s’il a facilité la commission du délit, en vendant, en connaissance de cause, à un tiers non-titulaire un mot-clé protégé par le droit des marques. Il en va de même s’il a été prévenu par le titulaire de la marque de la contrefaçon et, malgré cela, il n’a pas enlevé le positionnement en cause.

En conclusion,

on s’aperçoit que la technique du positionnement payant et de la vente des mots clés est loin d’être à l’abri des procédures judiciaires : abus de position dominante de la part des outils de recherche, publicité clandestine et/ou trompeuse, contrefaçon de marque et parasitisme sont des allégations qui, une fois invoquées, constituent une véritable menace pour les engins de recherche. De plus, intenter une action contre ceux derniers pour acquérir réparation du préjudice subi présente un avantage, lorsque l’acheteur du positionnement se prouve insolvable. Tout cela rend nécessaire d’effectuer un contrôle a priori sur les mots-clés en vente et sur la qualité des futurs acheteurs, afin d’assurer que ceux-ci sont en droit d’utiliser la marque qui se cache souvent derrière les mots-clés choisis.

Pour lire une version plus complète de cet article sur le positionnement publicitaire, cliquez

Sources :