intelligence artificielle

Article 26 du règlement Européen l’Intelligence Artificielle : pas de référent (Délégué à l’Intelligence Artificielle) expressément désigné dans une entreprise

L’encadrement juridique de l’intelligence artificielle (IA) au sein de l’Union européenne, est matérialisé par le Règlement sur l’Intelligence Artificielle (RIA). Ce cadre réglementaire, qui sera progressivement appliqué entre 2025 et 2027, vise à établir des normes claires afin de protéger les droits des individus tout en favorisant l’innovation technologique.
NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire et un avocat enverra une lettre de mise en demeure !

L’article 26 de ce règlement, relatif aux obligations de conformité pour les fournisseurs et utilisateurs de systèmes d’IA à haut risque, cristallise une ambiguïté notable : l’absence d’une exigence explicite de désignation d’un référent interne dédié à l’IA, analogue au délégué à la protection des données (DPD) prévu par le Règlement général sur la protection des données (RGPD).

Il convient de rappeler que le RGPD impose, dans son article 37, la désignation d’un Délégué à la Protection des Données (DPD) pour les organismes qui traitent des données à caractère personnel, et ce, dans des conditions bien définies. Le DPD, en tant que référent interne, assume un rôle central en matière de conformité, de conseil et de sensibilisation, garantissant ainsi que les pratiques de traitement des données respectent les droits des personnes concernées. Cette structure de gouvernance, par son caractère obligatoire, a permis d’établir un cadre clair de responsabilité et de transparence au sein des entreprises, renforçant la confiance des consommateurs et des partenaires d’affaires.


Besoin de l’aide d’un avocat pour un problème de rgpd et d’IA ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien


Cette omission, loin d’être anodine, soulève des interrogations quant à l’effectivité des mécanismes de gouvernance et de conformité au sein des entreprises, ainsi que sur les risques juridiques encourus en cas de manquement aux obligations substantielles imposées par le législateur européen. En premier lieu, il convient de rappeler que le RIA, inspiré par une logique de *risk-based approach*, impose des obligations proportionnées au niveau de risque associé à chaque système d’IA. Les systèmes classés comme « à haut risque » (annexe III du RIA), tels que ceux utilisés dans le recrutement, l’éducation, ou la gestion des infrastructures critiques, sont soumis à un corpus exigeant de règles préalables à leur mise sur le marché (ex. : documentation technique, systèmes de gestion des risques, conformité aux exigences éthiques).

L’article 26, en particulier, prévoit que les fournisseurs et utilisateurs de ces systèmes doivent garantir la surveillance continue de leur conformité tout au long de leur cycle de vie. Toutefois, contrairement au RGPD, qui impose expressément la désignation d’un DPD sous certaines conditions (article 37 RGPD), le RIA ne prescrit pas de manière impérative la nomination d’un « délégué à l’intelligence artificielle ».

Cette absence de formalisation d’un référent dédié pourrait être interprétée comme une flexibilité laissée aux opérateurs économiques pour organiser leur conformité selon des modalités adaptées à leur structure. Néanmoins, elle suscite des craintes quant à la fragmentation des pratiques et à l’émergence de lacunes dans la traçabilité des décisions algorithmiques. Par exemple, une entreprise exploitant un système d’IA à haut risque dans le domaine de la santé, tel qu’un outil de diagnostic médical automatisé, pourrait se contenter de répartir les responsabilités de conformité entre plusieurs services (juridique, technique, qualité), sans qu’un acteur unique ne coordonne l’ensemble des diligences requises par le RIA (ex. : audits, documentation des biais algorithmiques, signalement des incidents).

Une telle approche, bien que potentiellement conforme *in abstracto* à l’article 26, risquerait de compromettre la cohérence des processus de conformité, augmentant ainsi les risques de contentieux liés à la responsabilité civile ou administrative. En outre, cette lacune normative contraste avec les orientations jurisprudentielles et doctrinales récentes, qui soulignent l’importance de mécanismes de gouvernance internalisés pour les technologies disruptives. À titre d’illustration, la Cour de justice de l’Union européenne (CJUE), dans l’arrêt *Wirtschaftsakademie Schleswig-Holstein* (C‑210/16), a rappelé l’importance d’une responsabilisation effective des acteurs dans le cadre du RGPD, en insistant sur la nécessité d’une supervision indépendante et spécialisée. Transposé au domaine de l’IA, ce raisonnement militerait pour la désignation proactive d’un référent compétent, même en l’absence d’obligation légale explicite. Enfin, l’article 26 doit être analysé à l’aune des sanctions prévues par le RIA en cas de non-conformité (articles 71 et 72), qui prévoient des amendes pouvant atteindre 7 % du chiffre d’affaires annuel mondial d’une entreprise.

Dans ce contexte, l’absence de référent désigné pourrait être invoquée par les autorités de surveillance, telles que le Conseil européen de l’Intelligence artificielle, comme un indice de négligence systémique, notamment si l’entreprise ne peut démontrer la mise en place de procédures alternatives robustes.

Par exemple, une banque utilisant un système d’IA pour l’octroi de crédits, et ne disposant pas de mécanismes clairs pour documenter les décisions algorithmiques (cf. article 14 RIA sur la transparence), s’exposerait à des sanctions aggravées en cas de discrimination avérée, faute d’avoir internalisé les compétences nécessaires via un référent identifié.

Ainsi, l’article 26 du RIA, en ne prescrivant pas de modèle unique de gouvernance, reflète une volonté de neutralité technologique et d’adaptabilité aux spécificités sectorielles. Cependant, cette approche laisse persister un risque de dilution des responsabilités, potentiellement préjudiciable à la sécurité juridique des entreprises comme à la protection des droits des personnes.

L’articulation entre flexibilité organisationnelle et exigences de conformité strictes constituera, sans nul doute, un enjeu majeur dans l’interprétation future de cette disposition par les régulateurs nationaux et les juridictions.

I. Introduction au Règlement Européen sur l’Intelligence Artificielle (RIA)

A. Contexte et objectifs du RIA

Le Règlement Européen sur l’Intelligence Artificielle (RIA), dont l’article 26 a été adopté le 13 juin 2024 et qui sera progressivement appliqué entre 2025 et 2027, représente une réponse institutionnelle à la montée en puissance de l’IA dans divers domaines. À l’heure actuelle, l’IA est omniprésente dans notre vie quotidienne, notamment à travers des applications telles que les assistants virtuels, les recommandations de contenu sur les plateformes de streaming, les systèmes de surveillance, et même les diagnostics médicaux.

Cependant, cette évolution rapide soulève des préoccupations majeures : comment garantir que ces technologies soient développées et utilisées de manière éthique et responsable ? Comment protéger les droits des individus face à des systèmes qui peuvent prendre des décisions autonomes et potentiellement biaisées ?

Ces questions sont d’autant plus pertinentes dans un contexte où des incidents liés à l’IA ont mis en lumière des problèmes tels que la discrimination algorithmique, les atteintes à la vie privée et l’opacité des algorithmes. Les systèmes d’IA peuvent reproduire et amplifier des biais existants dans les données sur lesquelles ils sont formés. Par exemple, des études ont montré que certains systèmes de reconnaissance faciale sont moins précis pour les personnes de couleur et les femmes, soulevant des préoccupations quant à leur utilisation par les forces de l’ordre.

De même, des algorithmes de recrutement peuvent discriminer certains groupes en raison de biais présents dans les données historiques. Le RIA vise à établir un cadre juridique qui garantit non seulement l’innovation dans le domaine de l’IA, mais aussi la protection des droits fondamentaux des citoyens. L’un des objectifs clés du règlement est de créer un environnement réglementaire harmonisé qui favorise l’innovation tout en garantissant la sécurité et le respect des droits individuels. Cela implique la mise en place d’exigences strictes pour les systèmes d’IA à haut risque, qui peuvent avoir des conséquences directes sur la vie des individus, comme dans le domaine de la santé ou de la justice.

Le règlement impose ainsi des obligations de transparence, de traçabilité, et de responsabilité aux développeurs et utilisateurs de ces technologies. En outre, le RIA intègre des principes éthiques, tels que le respect de la dignité humaine et le non-discrimination. Il cherche à promouvoir une IA qui soit non seulement efficace, mais aussi équitable et respectueuse des valeurs fondamentales de l’Union Européenne. Cela ouvre la voie à un cadre où l’innovation technologique et l’éthique ne sont pas en opposition, mais vont de pair pour construire un avenir numérique qui bénéficie à tous.

B. Importance de la régulation de l’intelligence artificielle

La nécessité de réguler l’intelligence artificielle découle de plusieurs facteurs interconnectés. Premièrement, l’IA, en tant que technologie émergente, présente des risques inhérents qui doivent être gérés de manière proactive. Les systèmes d’IA peuvent prendre des décisions qui affectent directement la vie des individus, notamment dans des domaines sensibles tels que la santé, l’emploi et la justice. Par conséquent, il est crucial de s’assurer que ces systèmes soient conçus pour respecter les droits des utilisateurs et pour éviter les préjugés et les discriminations. Le RIA permet de mettre en place des garde-fous pour minimiser ces risques, en imposant des exigences strictes aux systèmes d’IA à haut risque.

Deuxièmement, la régulation de l’IA est essentielle pour établir une confiance entre les utilisateurs et les fournisseurs de technologies. Les consommateurs, les citoyens et les parties prenantes sont de plus en plus préoccupés par les implications de l’IA sur leur vie quotidienne. En instaurant des normes claires et contraignantes, le RIA vise à rassurer les utilisateurs sur le fait que leurs droits seront protégés et que les systèmes d’IA fonctionneront de manière transparente et équitable. Ce climat de confiance est vital pour encourager l’adoption des technologies d’IA, tant par le grand public que par les entreprises.

Troisièmement, la régulation de l’IA est également un levier pour stimuler l’innovation. En fournissant un cadre juridique clair, le RIA permet aux entreprises de naviguer plus facilement dans le paysage complexe de l’IA. Cela crée un environnement propice à l’innovation, où les entreprises peuvent développer de nouveaux produits et services tout en respectant les normes éthiques et juridiques. Par ailleurs, la régulation peut également encourager la recherche et le développement de solutions d’IA qui répondent à des défis sociétaux pressants, comme le changement climatique ou la santé publique.

En intégrant une perspective éthique dès la conception des technologies d’IA, les entreprises peuvent contribuer à un développement durable et inclusif de l’IA. Enfin, la régulation de l’IA a des implications internationales. Avec l’émergence de réglementations similaires dans d’autres régions du monde, comme la législation américaine sur l’IA ou les initiatives en Asie, l’UE peut se positionner en tant que leader mondial dans la régulation de l’IA. Cela pourrait également influencer la manière dont d’autres régions adoptent des réglementations, créant un cadre de référence pour une utilisation responsable de l’IA à l’échelle mondiale. En ce sens, le RIA pourrait non seulement protéger les droits des citoyens européens, mais aussi contribuer à l’établissement de normes éthiques à l’échelle mondiale.

II. Absence d’obligation de désignation d’un référent à l’intelligence artificielle

A. Comparaison avec le Règlement Général sur la Protection des Données (RGPD)

Les, acteurs visés par le RIA sont principalement les fournisseurs et déployeurs de systèmes d’IA (dans une moindre mesure les importateurs, distributeurs et mandataires). Alors que dans le RGPD, il est mentionné, les Responsables de traitements et sous-traitants.

L’absence d’obligation explicite de désignation d’un référent à l’intelligence artificielle dans le RIA soulève des questions cruciales quant à la gouvernance et à la conformité des systèmes d’IA. En comparaison, le Règlement Général sur la Protection des Données (RGPD) impose la désignation d’un Délégué à la Protection des Données (DPD) dans certaines situations. Selon l’article 37 du RGPD, les entités qui traitent des données à grande échelle ou des données sensibles doivent désigner un DPD pour assurer le respect des règles de protection des données. Cette obligation de désignation d’un DPD permet de garantir que les questions de protection des données sont prises en compte de manière systématique au sein des organisations.

Le DPD joue un rôle clé en matière de sensibilisation, de formation et de conseil, tout en agissant comme point de contact pour les autorités de protection des données et les individus concernés. En l’absence d’une telle obligation au sein du RIA, les entreprises peuvent se retrouver sans un cadre de gouvernance clair pour gérer les enjeux liés à l’IA, ce qui pourrait engendrer des incohérences et des lacunes dans la conformité. Il est essentiel de souligner que le RIA et le RGPD ne visent pas les mêmes problématiques.

Le RGPD se concentre principalement sur la protection des données personnelles, tandis que le RIA aborde des questions plus larges liées à l’utilisation de l’IA, y compris la responsabilité des algorithmes, la sécurité des systèmes et l’éthique. Cependant, les deux règlements partagent des objectifs communs, tels que la protection des droits fondamentaux et la promotion de l’éthique. Dans ce contexte, le manque d’une obligation de désignation d’un référent à l’IA pourrait entraver la mise en œuvre de ces principes de manière cohérente et intégrée.

B. Impacts de l’absence d’un référent sur la conformité et la gouvernance interne

L’absence d’un référent à l’intelligence artificielle peut avoir des répercussions significatives sur la conformité et la gouvernance interne des organisations. Tout d’abord, sans un référent désigné, il est probable que les entreprises rencontrent des difficultés à identifier et à évaluer les risques associés à l’utilisation des systèmes d’IA.

Cela peut entraîner des situations où des systèmes à haut risque ne sont pas correctement évalués, exposant ainsi les entreprises à des violations potentielles des droits des utilisateurs et à des exigences réglementaires. Par exemple, une entreprise qui utilise un algorithme de recrutement sans une évaluation adéquate des biais pourrait se retrouver à discriminer des candidats en raison de caractéristiques telles que le sexe ou l’origine ethnique.

De plus, le manque d’un référent peut nuire à la mise en place d’une culture de conformité au sein de l’organisation. Un référent aurait la responsabilité de sensibiliser les employés aux enjeux liés à l’IA, d’assurer un suivi des évolutions réglementaires et de coordonner les actions nécessaires pour répondre aux exigences du RIA. En l’absence de cette figure, les entreprises risquent de se retrouver en situation de non-conformité, ce qui peut avoir des conséquences juridiques, financières et réputationnelles. Cela peut également créer un climat d’incertitude, où les employés ne savent pas comment agir face à des situations éthiques ou juridiques liées à l’IA.

En outre, l’absence d’un référent peut également entraîner une fragmentation des efforts en matière de gouvernance de l’IA au sein de l’organisation. Les différentes équipes, telles que les équipes techniques, juridiques et de conformité, pourraient travailler de manière isolée, sans coordination ni communication, ce qui peut aboutir à des incohérences dans la mise en œuvre des pratiques de gouvernance.

Cela pourrait également empêcher une approche systématique et intégrée pour traiter les enjeux éthiques et juridiques liés à l’IA. Par exemple, sans une ligne de communication claire entre les équipes, des décisions pourraient être prises sans tenir compte des implications éthiques, entraînant ainsi des conséquences potentiellement graves. Enfin, l’absence d’un référent pourrait également affecter la capacité des entreprises à répondre aux attentes des parties prenantes.

Dans un contexte où les consommateurs, les investisseurs et la société civile sont de plus en plus attentifs aux questions d’éthique et de responsabilité, les entreprises doivent être en mesure de démontrer qu’elles prennent ces enjeux au sérieux. Sans un référent dédié, il peut être difficile pour les entreprises de communiquer efficacement sur leurs efforts en matière de gouvernance de l’IA et de rassurer les parties prenantes sur leur engagement à respecter les normes éthiques. Cela pourrait également nuire à la réputation de l’entreprise et à sa capacité à attirer et à retenir des clients et des talents.

III. Nécessité d’un référent à l’intelligence artificielle

A. Rôle et responsabilités potentielles du référent

La désignation d’un référent à l’intelligence artificielle pourrait jouer un rôle déterminant dans la mise en œuvre des exigences du RIA. Ce référent, que l’on pourrait désigner sous le terme de Responsable de l’Intelligence Artificielle (RIA), pourrait être chargé de plusieurs responsabilités clés, notamment :

  1. Évaluation des risques : Le référent pourrait être responsable de l’évaluation continue des risques associés aux systèmes d’IA utilisés par l’organisation. Cela comprend l’identification des risques potentiels, l’analyse de l’impact de ces risques sur les droits des utilisateurs et la mise en place de mesures appropriées pour atténuer ces risques. Par exemple, le référent pourrait développer des protocoles d’évaluation des risques pour les nouveaux projets d’IA, garantissant ainsi que toutes les parties prenantes sont conscientes des enjeux éthiques et juridiques. Cela pourrait également inclure la mise en place d’un cadre pour l’audit régulier des systèmes d’IA afin de garantir leur conformité continue aux normes établies.
  2. Sensibilisation et formation : Le référent pourrait organiser des sessions de formation pour sensibiliser les employés aux enjeux éthiques et juridiques liés à l’utilisation de l’IA. Cela favoriserait une culture de responsabilité et de transparence au sein de l’organisation. Par exemple, des ateliers sur les biais algorithmiques et les meilleures pratiques pour le développement de systèmes d’IA éthiques pourraient être mis en place pour garantir que tous les employés comprennent les enjeux liés à leurs travaux. De plus, le référent pourrait développer des ressources pédagogiques, telles que des guides ou des modules de formation en ligne, pour informer tous les niveaux de l’organisation sur les questions relatives à l’IA.
  3. Coordination de la conformité : En tant que point de contact principal, le référent pourrait assurer la liaison entre les différentes parties prenantes, y compris les équipes techniques, juridiques et de conformité. Cela faciliterait la mise en œuvre des exigences du RIA et des meilleures pratiques en matière d’IA. Le référent pourrait également être chargé de surveiller l’évolution des réglementations et de s’assurer que l’organisation s’adapte en conséquence. En cas de changement réglementaire, le référent devrait être capable d’évaluer rapidement l’impact sur les pratiques de l’organisation et de recommander des ajustements nécessaires.
  4. Reporting et communication : Le référent pourrait jouer un rôle clé dans la communication des efforts de l’organisation en matière de gouvernance de l’IA. En élaborant des rapports réguliers sur les initiatives prises, les risques identifiés et les mesures mises en œuvre pour les atténuer, le référent pourrait renforcer la transparence et la responsabilité de l’organisation. Cela pourrait également permettre à l’entreprise de démontrer son engagement envers une utilisation éthique de l’IA auprès des parties prenantes. Ces rapports pourraient être publiés de manière accessible, permettant aux parties prenantes d’évaluer les progrès de l’entreprise en matière de gouvernance de l’IA.
  5. Gestion des incidents : En cas de défaillance ou de problème lié à un système d’IA, le référent pourrait être chargé de la gestion des incidents. Cela comprend la mise en place de protocoles pour signaler et traiter les incidents, ainsi que la communication avec les autorités compétentes et les parties prenantes concernées. Une gestion efficace des incidents est cruciale pour maintenir la confiance des utilisateurs et des partenaires commerciaux, et pour garantir que l’organisation agit de manière responsable. Le référent devrait également être en mesure de recommander des actions correctives pour prévenir la récurrence des incidents
  6. Évaluation des fournisseurs : Dans le cadre de l’utilisation de l’IA, une entreprise peut faire appel à des fournisseurs externes pour le développement ou la mise en œuvre de solutions d’IA. Le référent devrait jouer un rôle dans l’évaluation des fournisseurs pour garantir qu’ils respectent également les normes éthiques et réglementaires. Cela pourrait inclure des critères d’évaluation spécifiques liés à la protection des données, à la transparence des algorithmes et à l’absence de biais.

B. Avantages pour les entreprises et la confiance des parties prenantes

La désignation d’un référent à l’intelligence artificielle présente plusieurs avantages significatifs pour les entreprises. En premier lieu, cela permettrait de renforcer la conformité aux exigences réglementaires. En ayant une personne dédiée à la gestion des questions liées à l’IA, les entreprises peuvent mieux anticiper et répondre aux évolutions réglementaires, évitant ainsi de potentielles sanctions. Par exemple, un référent pourrait s’assurer que tous les systèmes d’IA à haut risque sont évalués et certifiés conformément aux exigences du RIA, réduisant ainsi le risque de non-conformité.

De plus, la présence d’un référent contribuerait à instaurer un climat de confiance entre l’entreprise et ses parties prenantes. Dans un contexte où les préoccupations concernant la sécurité et l’éthique de l’IA sont de plus en plus présentes, la désignation d’un référent pourrait rassurer les clients, les investisseurs et le grand public sur l’engagement de l’entreprise à adopter des pratiques responsables et éthiques. Par exemple, une entreprise qui désigne un référent à l’IA pourrait mettre en avant cet effort dans sa communication externe, soulignant son engagement envers une utilisation éthique et responsable de l’IA.

En favorisant une meilleure gouvernance de l’IA, les entreprises pourraient également améliorer leur réputation et leur image de marque. Dans un monde où les consommateurs sont de plus en plus conscients des enjeux éthiques, une entreprise qui prend des mesures proactives pour garantir une utilisation responsable de l’IA sera perçue de manière plus favorable. Cela pourrait également ouvrir la voie à de nouvelles opportunités d’affaires, en permettant aux entreprises de se positionner comme des acteurs responsables et innovants sur le marché de l’IA.

Enfin, la désignation d’un référent à l’intelligence artificielle pourrait également aider les entreprises à anticiper et à répondre aux préoccupations sociétales. En intégrant une perspective éthique dans le développement et l’utilisation de l’IA, les entreprises peuvent contribuer à la création de solutions qui répondent aux besoins de la société tout en respectant les valeurs fondamentales. Cela pourrait également favoriser un dialogue constructif avec les parties prenantes, permettant aux entreprises de mieux comprendre les attentes de la société en matière d’IA et d’y répondre de manière appropriée.

VI. Perspectives d’évolution et recommandations

A. Évolution de la réglementation et des normes

À l’heure actuelle, la réglementation de l’IA est en constante évolution. Les discussions au sein des instances européennes et internationales continuent d’évoluer, et il est probable que de nouvelles directives ou ajustements au RIA apparaîtront dans les années à venir. Les entreprises doivent donc rester vigilantes et proactives, en surveillant les évolutions réglementaires pour s’assurer qu’elles sont en conformité avec les exigences en constante évolution.

Cela implique également d’adapter les systèmes de gouvernance internes pour intégrer les changements possibles dans le paysage réglementaire. L’Union Européenne, en tant que leader dans la régulation de l’IA, pourrait également jouer un rôle de catalyseur pour l’harmonisation des réglementations au niveau mondial.

Les discussions autour de la réglementation de l’IA sont en cours dans d’autres régions, notamment aux États-Unis et en Asie. L’UE peut influencer ces débats en partageant ses expériences et en proposant des normes qui pourraient être adoptées à l’échelle internationale. Cela pourrait contribuer à créer un cadre réglementaire mondial qui promeut une utilisation responsable de l’IA, tout en respectant les droits des individus.

B. Recommandations pour les entreprises

Il est recommandé aux entreprises de prendre des mesures concrètes pour renforcer leur gouvernance en matière d’IA. Parmi ces recommandations, on peut inclure :

  1. Désignation d’un référent à l’IA : Comme mentionné, la désignation d’un référent à l’intelligence artificielle est cruciale pour assurer une gouvernance efficace. Ce référent doit être en mesure de travailler en étroite collaboration avec les autres départements de l’entreprise pour garantir une approche intégrée.
  2. Formation continue : Les entreprises doivent investir dans la formation continue de leurs employés sur les enjeux éthiques et juridiques liés à l’utilisation de l’IA. Cela comprend des sessions de sensibilisation, des ateliers pratiques et des formations sur les meilleures pratiques pour le développement d’IA éthique. Par exemple, des programmes de formation pourraient être mis en place pour les équipes de développement, afin de les sensibiliser aux biais algorithmiques et à l’importance de la diversité dans les ensembles de données.
  3. Mise en place de politiques internes : Les entreprises devraient développer des politiques internes claires sur l’utilisation de l’IA, en définissant des protocoles pour l’évaluation des risques, la gestion des incidents et la communication avec les parties prenantes. Ces politiques doivent être régulièrement mises à jour pour refléter les changements réglementaires et technologiques. Par exemple, l’entreprise pourrait établir un comité de gouvernance de l’IA, composé de membres de différents départements, pour superviser la mise en œuvre des politiques et des normes.
  4. Engagement auprès des parties prenantes : Les entreprises devraient établir un dialogue continu avec leurs parties prenantes, y compris les clients, les employés, les investisseurs et la société civile. En écoutant les préoccupations et les attentes des parties prenantes, les entreprises peuvent mieux adapter leurs pratiques et renforcer leur responsabilité sociale. Cela pourrait inclure la création de forums de discussion ou de consultations publiques pour recueillir des avis sur les projets d’IA.
  5. Adoption de technologies éthiques : Les entreprises doivent s’efforcer d’adopter des technologies qui respectent les principes éthiques. Cela inclut l’utilisation d’algorithmes transparents, la minimisation des biais et la protection des données personnelles. En intégrant des valeurs éthiques dans le développement de l’IA, les entreprises peuvent non seulement se conformer aux réglementations, mais aussi contribuer à un avenir numérique responsable.
  6. Collaboration inter-entreprises et avec le secteur public : Les entreprises devraient également envisager de collaborer avec d’autres acteurs de l’industrie, ainsi qu’avec des organismes publics, pour partager des meilleures pratiques en matière de gouvernance de l’IA. Des initiatives de collaboration pourraient conduire à l’élaboration de normes sectorielles et à l’établissement de lignes directrices sur l’utilisation éthique de l’IA.

Pour lire une version plus complète de cet article sur l’IA, cliquez

Sources :

INTELLIGENCE ARTIFICIELLE ET DROIT D’AUTEUR

L’intelligence artificielle fait partie de notre quotidien, qu’il s’agisse de la reconnaissance vocale sur nos téléphones portables, des suggestions personnalisées de films sur des plates-formes de streaming (certes, plus ou moins convaincantes…) ou des systèmes de reconnaissance d’images permettant de « taguer » des visages ou de filtrer des contenus violents ou pornographiques publiés sur les réseaux sociaux.

NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire !

Le statut des créations issues de l’intelligence artificielle est nettement plus délicat. Le Petit Robert définit l’intelligence artificielle comme « la partie de l’informatique qui a pour but la simulation des facultés cognitives afin de suppléer l’être humain pour assurer des fonctions dont on convient, dans un contexte donné, qu’elles requièrent de l’intelligence ». Nous basculons de la création assistée par ordinateur vers la création générée par ordinateur. Or les créations de ces machines intelligentes (que d’aucuns aiment à qualifier de robots sont très nombreuses dans la littérature, spécialement de science-fiction.

L’on se souvient, par exemple, des belles sculptures de lumière réalisées par le majordome robot de Madame Lardner (Max) dans la nouvelle de Asimov, Light Verse, œuvres que le propriétaire du robot s’approprie indûment. Ces créations, accidentelles, cesseront lorsque John Semper Trevis réparera malencontreusement le robot créateur.


Besoin de l’aide d’un avocat pour un problème de contrefaçon ?

Téléphonez-nous au : 01 43 37 75 63

ou contactez-nous en cliquant sur le lien


Les créations de ces machines intelligentes ne sont plus aujourd’hui accidentelles et la Commission juridique du Parlement européen a invité le 12 janvier 2017 la Commission européenne à soumettre une directive envisageant « la création d’une personnalité juridique spécifique aux robots, pour qu’au moins les robots autonomes les plus sophistiqués puissent être considérés comme des personnes électroniques dotées de droits et de devoirs bien précis » et définissant « des critères de création intellectuelle propres applicables aux œuvres protégeables par droit d’auteur créés par des ordinateurs ou des robots » – ce qui est riche d’un implicite sur lequel nous reviendrons.

Les défenseurs de cette position soulignent qu’une telle protection stimulerait ainsi la création dans ces domaines et conférerait à l’Europe un avantage concurrentiel.

I – la protection du droit d’auteur appliquée aux œuvres générées à partir d’une l’intelligence artificielle

A – les limites invoquées à l’application du droit d’auteur

  1. L’auteur, personne physique

Traditionnellement, le droit d’auteur français protège l’auteur d’une « œuvre de l’esprit ». Les dispositions de l’article L. 112-1 du CPI prévoient en ce sens que : « Les dispositions du présent Code protègent les droits des auteurs sur toutes les œuvres de l’esprit, quels qu’en soient le genre, la forme d’expression, le mérite ou la destination. »

Dès lors, comment concevoir qu’une œuvre générée par une IA, c’est-à-dire à partir d’un ou plusieurs algorithmes, soit considérée comme une « œuvre de l’esprit » et protégée en tant que telle par le droit d’auteur ?

En effet, la jurisprudence admet que l’auteur d’une œuvre de l’esprit ne peut être qu’une personne physique, et la Cour de cassation juge à cet égard qu’une personne morale ne peut avoir la qualité d’auteur.

Dès lors, si le collectif Obvious à l’origine du Port rait de Belamy signe le tableau avec la formule de l’algorithme, il ne s’agit là bien entendu que d’un clin d’œil dans la mesure où, à ce jour, aucune personnalité juridique n’est reconnue à une IA qui ne peut dès lors se voir reconnaître la titularité des droits d’auteur.

L’idée d’une personnalité juridique propre aux robots a bien été promue, notamment et de façon étonnante par le Parlement européen dans une résolution du 16 février 2017, ce qui a donné lieu à de nombreuses critiques, en partie reprises par les auteurs du récent rapport pour qui cette option serait « largement impraticable » (cf. rapport p. 36).

  1. La condition de l’originalité

Par construction jurisprudentielle, la protection par le droit d’auteur suppose que la création soit originale. Cette condition ne ressort pas des dispositions du Code de la propriété intellectuelle, qui ne s’y réfère pas, sauf pour protéger le titre des œuvres (cf. article L. 112-4). L’originalité est ainsi appréciée par les juges, au cas par cas, comme l’expression, l’empreinte ou le reflet de la personnalité de l’auteur.

Cette conception impliquant de nouveau une intervention humaine, il apparaît difficile de qualifier d’originale une œuvre générée par une IA : comment celle-ci pourrait-elle, en effet, matérialiser le reflet de la personnalité de son auteur s’il s’agit d’une machine ? Du moins tant que les machines ne seront pas douées de conscience ou d’esprit et qu’une personnalité juridique ne leur sera pas reconnue…

Ces difficultés résultent d’une conception traditionnelle et classique du droit d’auteur français qui ne conçoit la création que comme l’apanage de l’humain et qui place toujours l’auteur, personne physique, au centre de la protection.

Toutefois, comme le relève un récent rapport déposé auprès du CSPLA le 27 janvier 2020, les difficultés ainsi soulevées ne devraient pas être « insurmontables ». Ainsi, sans remettre en cause le lien entre l’auteur et son œuvre qui fonde notre droit d’auteur, ce droit « semble suffisamment souple pour recevoir ces créations » et « l’attribution des droits au concepteur de l’IA semble de nature à apporter des solutions pertinentes ».

B – les solutions offertes par l’application du droit d’auteur

  1. Le rapport « Intelligence artificielle et culture »

Le 25 avril 2018, la Commission européenne, dans sa communication « Une intelligence artificielle pour l’Europe », a invité les États membres à réfléchir aux conséquences de l’intelligence artificielle sur la propriété intellectuelle. Dans ce contexte, le Conseil supérieur de la propriété littéraire et artistique (CSPLA) a confié aux professeures Alexandra Bensamoun et Joelle Farchy une mission sur les enjeux juridiques et économiques de l’intelligence artificielle dans les secteurs de la création culturelle, qui a donné lieu au dépôt, le 27 janvier 2020, d’un rapport intitulé « Intelligence artificielle et culture ».

Selon les auteures de ce rapport, il importe de rappeler en premier lieu que le droit d’auteur et sa mise en œuvre ne peuvent se passer de la présence humaine. Toutefois « une analyse renouvelée des conditions d’accès à la protection (création, originalité, auteur) pourrait permettre de recevoir ces réalisations culturelles au sein du droit d’auteur ».

  1. Quelle solution ?

Ledit rapport écarte ainsi dans ses conclusions toute intervention législative, en retenant qu’il importe d’abord « d’éprouver le droit positif et d’être prêt à intervenir si un éventuel besoin de régulation se révélait à l’avenir » alors que « le droit positif devrait pour l’heure pouvoir être appliqué, dans une lecture renouvelée des critères d’accès à la protection ».

Avec prudence, il est toutefois rappelé qu’il ne peut être exclu, compte tenu de la technique en constant développement, que « l’outil [de l’intelligence artificielle] gagne en autonomie, en réduisant le rôle de l’humain ».

Il ne faut donc pas complètement exclure qu’à l’avenir, une intervention du législateur soit rendue nécessaire et « une voie intéressante pourrait alors être, au vu des différentes positions et analyses, celle de la création d’un droit spécial du droit d’auteur ».

C’est alors le régime appliqué au logiciel ou celui appliqué à l’œuvre collective qui pourrait, selon les auteures du rapport « Intelligence artificielle et culture » déposé au CSPLA, servir de modèle à la création d’un droit spécial, notamment en adaptant les articles L. 113-2 et L. 113-5 du CPI pour y intégrer les créations générées par une IA.

En effet, selon le Code de la propriété intellectuelle, « la qualité d’auteur appartient, sauf preuve contraire, à celui ou à ceux sous le nom de qui l’œuvre est divulguée » (article L. 113-1 du CPI).

Ainsi, dans le cas de l’œuvre collective créée à l’initiative d’une personne physique ou morale qui la divulgue et dans laquelle la contribution de chaque auteur y ayant participé se fond dans un ensemble sans qu’il soit possible d’identifier la contribution de chacun (cf. article L. 113-2 du CPI), il est prévu par l’article L. 113-5 du CPI que cette œuvre « est, sauf preuve contraire, la propriété de la personne physique ou morale sous le nom de laquelle elle est divulguée. Cette personne est investie des droits de l’auteur ».

Il est donc admis qu’une personne morale, si elle ne peut pas être l’auteur d’une œuvre de l’esprit, peut en revanche être titulaire des droits d’auteur existant sur cette œuvre.

L’arsenal juridique de l’œuvre collective et du logiciel semble donc offrir des pistes de solutions intéressantes.

La matière étant, à l’évidence, en constante évolution, la prudence semble de mise, étant rappelé que toute issue législative devra naturellement « s’opérer dans un cadre international, a minima européen ».

 

II- Une protection alternative adaptée aux créations de l’intelligence artificielle

A – L’adaptation du droit d’auteur à l’intelligence artificielle

Si l’œuvre est considérée comme protégée par le droit d’auteur, la question de la paternité de l’œuvre est centrale. Certaines législations étrangères comme Hong Kong, l’Inde, l’Irlande, la Nouvelle-Zélande ou le Royaume-Uni, ont choisi d’attribuer cette paternité au concepteur du programme.

En France, le Conseil supérieur de la propriété littéraire et artistique (CSPLA) recommande, dans son rapport intitulé « Mission Intelligence artificielle et Culture » du 27 janvier 2020, de s’inspirer des mécanismes existants en droit d’auteur. Une première piste résiderait dans l’aménagement de la notion d’originalité afin de qualifier la création de l’intelligence artificielle en œuvre de l’esprit, comme ce fut le cas pour le logiciel, où l’empreinte de la personnalité de l’auteur a été remplacée par l’apport intellectuel de son créateur. S’agissant de la titularité, « la désignation du concepteur de l’intelligence artificielle apparaît comme la solution la plus respectueuse du droit d’auteur » selon le rapport du CSPLA. Une autre possibilité serait d’appliquer les règles de l’accession par production de l’article 546 du Code civil pour permettre au propriétaire de l’intelligence artificielle d’acquérir les accessoires que produit sa chose (les œuvres étant les fruits de l’intelligence artificielle).

Cependant, cela ne signifie nullement que la titularité des droits revienne toujours à la personne physique. En effet, l’instigateur de la technologie pourrait être récompensé sur le modèle de l’œuvre collective qui, selon l’article L. 113-2, alinéa 3, du CPI, est « une œuvre crée sur l’initiative d’une personne physique ou morale qui l’édite, la publie et la divulgue sous sa direction et en son nom ».

Par ailleurs, un droit spécifique, sorte de droit voisin, pourrait être créé pour attribuer des prérogatives patrimoniales à celui qui communique l’œuvre au public. La disposition serait alors intégrée à l’article L. 123-4 du CPI, in fine, en ces termes : « Celui qui prend les dispositions nécessaires en termes d’investissement pour communiquer au public une création de forme générée par une intelligence artificielle et assimilable à une œuvre de l’esprit jouit d’un droit d’exploitation d’une durée de X années à compter de la communication ». Pour permettre plus de souplesse, le CSPLA suggère de privilégier les solutions contractuelles en ajoutant en début de disposition « sauf stipulations contraires ».

Derrière l’identification du titulaire, des créations se pose également la question cruciale de la responsabilité en cas de dommages provoqués par l’intelligence artificielle. En effet, la proposition de règlement de la Commission européenne du 21 avril 2021 place le fournisseur d’un système d’intelligence artificielle comme acteur central. Il est défini comme la personne physique ou morale, l’agence ou tout autre organisme qui développe ou possède un système d’intelligence artificielle, sous son propre nom ou sa propre marque, à titre onéreux ou gratuit. Cette désignation simplifiée du responsable n’est d’ailleurs pas sans rappeler la responsabilité du producteur du fait d’un produit défectueux puisqu’est également désignée comme producteur la « personne qui se présente comme producteur en apposant sur le produit son nom, sa marque ou un autre signe distinctif ».

B – Les modes alternatifs de protection des créations de l’intelligence artificielle

Au-delà du droit d’auteur , le Parlement européen recommande de privilégier une évaluation sectorielle et par type des implications des technologies de l’intelligence artificielle en prenant notamment en compte « le degré d’intervention humaine, l’autonomie de l’IA , l’importance du rôle et de la source des données et des contenus protégés par le droit d’auteur utilisés, ainsi que l’éventuelle intervention d’autres facteurs ; rappelle que toute démarche doit trouver le juste équilibre entre la nécessité de protéger les investissements en ressources et en efforts et celle d’encourager la création et le partage ».

Pour sa part, le CSPLA suggère de s’inspirer du droit accordé au producteur de bases de données en introduisant un droit sui generis visant à protéger les efforts financiers, humains ou matériels des intervenants au processus créatif développé par l’intelligence artificielle.

Appliqué à l’intelligence artificielle, ce droit sui generis permettrait un retour sur investissement, déjouant ainsi les tentatives d’appropriation de valeur et encourageant du même coup l’investissement dans le domaine de l’intelligence artificielle. La proposition pourrait être intégrée dans la première partie du code de la propriété intellectuelle, à la suite du droit des bases de données : « Le producteur d’une intelligence artificielle permettant la génération de créations assimilables à des œuvres de l’esprit bénéficie d’une protection sur ces créations lorsque celles-ci résultent d’un investissement financier, matériel ou humain substantiel ».

En tout état de cause, d’autres modes de protection existent. Ainsi, le programmateur de la technologie peut se faire rémunérer en concédant une licence d’utilisation de son logiciel. De plus, la directive n° 2016/943 du 8 juin 2016 sur le secret des affaires, transposée à l’article L. 151-1 du CPI, permet au concepteur de s’opposer à la divulgation illicite du savoir-faire technologique et l’appropriation de son investissement. Enfin, une action sera toujours possible sur le fondement du droit commun de la responsabilité civile extracontractuelle contre les actes de concurrence déloyale ou les agissements parasitaires.

Pour lire un article plus complet sur l’intelligence artificielle et la protection des contenus, cliquez

Sources :
Cour de cassation, civile, Chambre civile 1, 15 janvier 2015, 13-23.566, Publié au bulletin – Légifrance (legifrance.gouv.fr)
Cour de cassation, Assemblée Plénière, du 7 mars 1986, 83-10.477, Publié au bulletin – Légifrance (legifrance.gouv.fr)