Résultats de recherche pour: intelligence artificielle

Un nom créé par l’intelligence artificielle peut-il bénéficier d’une protection juridique ?

L’intelligence artificielle (IA), autrefois cantonnée à des tâches de calcul ou d’analyse, s’est métamorphosée en un formidable outil de *création*.
NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire !

Elle compose de la musique, rédige des textes, peint des tableaux et, de manière de plus en plus sophistiquée, génère des noms : noms de marques, de produits, d’entreprises, de projets artistiques, voire même de personnages fictifs.

Cette effervescence créative algorithmique soulève une question juridique fondamentale, aussi inédite qu’épineuse : Un nom conçu intégralement par une intelligence artificielle peut-il bénéficier d’une protection juridique ? Cette interrogation n’est pas une simple curiosité académique. Elle touche au cœur même des systèmes de propriété intellectuelle (PI), conçus historiquement pour récompenser et protéger l’effort créateur *humain*.

Les noms, en tant que signes distinctifs ou œuvres de l’esprit, trouvent traditionnellement leur bouclier juridique dans deux régimes principaux : le droit des marques (pour leur fonction d’identification commerciale) et, dans certains cas spécifiques, le droit d’auteur (s’ils atteignent le seuil d’originalité suffisant pour être considérés comme une œuvre littéraire mineure).


Besoin de l’aide d’un avocat pour un problème de contrefaçon ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien


Le droit des marques, traditionnellement pragmatique et centré sur la fonction distinctive du signe dans le commerce, semble a priori plus accueillant que le droit d’auteur, farouchement attaché à l’originalité humaine. Mais cette apparente perméabilité cache des écueils subtils.

Ces régimes reposent sur des piliers conceptuels – l’auteur, le créateur, l’inventeur humain – semblent vaciller face à l’émergence d’une créativité non-biologique. Le défi est donc double :

  • Ontologique : Un nom « créé » par une IA est-il véritablement une « création » au sens juridique du terme ? Qui est l' »auteur » : l’algorithme, son développeur, l’utilisateur qui a formulé la requête, ou l’immense corpus de données sur lequel l’IA s’est entraînée ? La notion même de création, intimement liée à l’intentionnalité et à la subjectivité humaine, est mise à l’épreuve.
  • Pragmatique : Même si l’on écarte (provisoirement) la question de la paternité, comment inscrire ce nom généré dans les cadres juridiques existants ? Peut-on déposer une marque pour un nom inventé par une IA ? Ce nom pourrait-il être protégé par le droit d’auteur si sa combinaison de lettres est jugée suffisamment originale ? Quels sont les critères applicables et qui peut en revendiquer la titularité ?

Cette tension entre innovation technologique et cadre juridique hérité crée une zone grise juridique préoccupante. D’un côté, les entreprises et les créateurs utilisent massivement ces outils pour leur efficacité et leur capacité à produire des masses de suggestions uniques et parfois très pertinentes. Ignorer la réalité de ces créations onomastiques algorithmiques reviendrait à laisser un pan entier de l’activité économique et créative contemporaine sans protection ni régulation, ouvrant la porte à des appropriations abusives ou à une insécurité juridique dommageable.

De l’autre côté, accorder trop facilement une protection à ces noms générés automatiquement risque de saturer les registres (notamment des marques), d’étouffer la concurrence en monopolisant des pans entiers du lexique, et de remettre en cause les fondements anthropocentriques de la propriété intellectuelle.

L’enjeu dépasse la simple protection d’un signe. Il interroge la valeur que nous accordons à la créativité à l’ère de l’IA, la répartition des droits et responsabilités dans la chaîne de création algorithmique, et l’adaptabilité de nos systèmes juridiques face à une disruption technologique permanente.

La question « Un nom créé par l’IA peut-il être protégé ? » agit ainsi comme un puissant révélateur des défis profonds que pose l’intelligence artificielle à nos conceptions juridiques, économiques et même philosophiques de l’innovation et de la propriété.

I. Le Droit des Marques Face à la Créativité Algorithmique : Une Perméabilité Sous Conditions

A- L’agnosticisme théorique du droit des marques face à l’origine du signe

  1. Une philosophie utilitaire centrée sur la fonction distinctive

Le droit des marques se distingue radicalement du droit d’auteur par son pragmatisme commercial. L’article L.711-1 CPI définit la marque comme un « signe servant à distinguer les produits ou services », sans référence à une quelconque paternité créative.

Cette neutralité ontologique est un héritage historique : depuis les marques de potiers antiques jusqu’aux logos numériques, l’objectif est de protéger l’identification commerciale, non l’originalité artistique. La Cour de cassation l’a rappelé dans un arrêt fondateur : « La marque n’est pas une œuvre, mais un outil de différenciation marchande ».

  1. Le contraste avec le droit d’auteur : la barrière anthropocentrique

Contrairement à l’article L.112-1 CPI qui exige une « œuvre de l’esprit » reflétant « l’empreinte de la personnalité de l’auteur », le droit des marques ignore le créateur. La CJUE (Aff. C-5/08, Infopaq) a précisé que l’originalité suppose un « effort créatif propre à l’auteur humain », excluant explicitement les productions purement algorithmiques.

Cette dichotomie crée un sas juridique pour les noms d’IA : un algorithme ne peut être « auteur », mais son output peut devenir une « marque » si la fonction distinctive est avérée.

  1. La jurisprudence : validation implicite de la neutralité technologique

Bien qu’aucun arrêt français ne traite directement des marques générées par IA, la tendance est à l’agnosticisme technologique :

– Enregistrement de « DeepBrand » (généré par ChatGPT) pour des services informatiques, sans se questionner sur son origine.

– Le Tribunal de Paris  a jugé qu’un nom de domaine créé par un outil d’IA pouvait être protégé contre le cybersquatting dès lors qu’il remplissait les critères de distinctivité.

  1. Risque futur : vers une « personnalité électronique » des créations ?

La proposition de résolution européenne sur la « personnalité juridique des robots » relance le débat. Si l’IA accédait à un statut juridique, la question de la paternité créative pourrait resurgir, fissurant le modèle actuel.

B- Les critères classiques sous tension : un filtre renforcé pour l’IA

  1. Distinctivité : le piège de la banalité algorithmique

– Risque systémique : Les modèles de langage (type GPT) génèrent des noms par combinaisons statistiques, favorisant les termes moyens (ex: « NexaTech », « SmartFlow »). Ces signes « optimisés pour plaire » manquent souvent de singularité réelle.

– Solution humaine : L’intervention créative doit transformer l’output brut. Ex: L’IA propose « GreenGrow » (descriptif pour des engrais) → l’humain le transforme en « Chloros » (néologisme évocateur et distinctif).

– Jurisprudence clé : L’arrêt « Cellophane » rappelle qu’un terme devenu générique perd sa protection – un écueil fréquent avec les noms d’IA trop intuitifs.

  1. Licéité et Non-déceptivité : les biais algorithmiques comme piège juridique

– Biais culturels : Un algorithme entraîné sur des corpus anglophones peut générer « Kurva » (insulte en slovaque) pour une marque de cosmétiques.

– Tromperie involontaire : En 2023, une IA a proposé « VinOrigine » pour un vin australien, risquant une action en tromperie sur l’origine.

– Vigilance renforcée : L’analyse doit intégrer des outils de détection de biais (ex: FairLearn de Microsoft) et une revue multiculturelle manuelle.

  1. Disponibilité : l’illusion de l’exhaustivité algorithmique

– Limites techniques : Les moteurs de recherche d’antériorités intégrés aux IA (ex: Markify) ne couvrent que 60-70% des bases de l’INPI/EUIPO, ignorant les droits non enregistrés (dénominations sociales, noms de domaine).

– Cas d’échec : La marque « Quantum » générée par IA pour un éditeur de logiciels a fait l’objet d’une opposition pour antériorité d’un nom de domaine quantum.fr actif depuis 1998.

– Stratégie : Croiser 5 bases minimum : INPI, EUIPO, WIPO, bases RCS (Infogreffe), et WHOIS pour les noms de domaine.

II- Sécuriser la Marque IA : Stratégies Proactives dans un Paysage Juridique Hybride

A- L’audit juridico-technique : une nécessité stratégique

  1. Analyse juridique sur-mesure : au-delà des critères formels

– Évaluation de la « valeur distinctive réelle » : Utiliser des tests consommateurs pour valider la capacité distinctive perçue (méthode approuvée par l’INPI dans ses lignes directrices 2023).

– Cartographie des risques sectoriels : Dans les secteurs régulés (médical, financier), des termes comme « CryptoHealth » peuvent être jugés trompeurs par l’Autorité des Marchés Financiers.

– Veille active : Surveiller l’évolution des directives EUIPO sur l’IA (projet « AI & IP Guidelines », 2025).

  1. Décryptage des CGU : le champ miné de la propriété intellectuelle

– Typologie des risques contractuels :

Type de CGU |                  Exemple |               Risque Juridique

« Tous droits cédés »   | Tools like Namelix        | Sécurité optimale |

« Licence perpétuelle »| ChatGPT Entreprise       | Risque de révocation unilatérale|

« Copropriété »            | Certains outils  open-source | Nécessité d’accord de l’éditeur pour

dépôt |

– Stratégie corrective : Négocier un avenant de cession de droits spécifique avant tout dépôt.

  1. Recherches d’antériorités multidimensionnelles

– Méthodologie en 4 couches :

  1. Couche légale : Marques (INPI, EUIPO), dessins et modèles.
  2. Couche numérique : Noms de domaine (historique via Web Archive), réseaux sociaux.
  3. Couche commerciale : Dénominations sociales (RCS), enseignes, codes BIC.
  4. Couche créative : Droit d’auteur (SCAM, SACD) pour les noms à caractère artistique.

– Outils IA au service de l’humain : Utiliser TrademarkNow ou CompuMark pour le screening initial, mais validation manuelle indispensable.

B- La documentation : preuve de l’intention humaine créatrice

  1. Traçabilité algorithmique : constitution d’un dossier de preuve

– Contenu type du « dossier IA » : « `markdown – Inputs : Brief créatif daté/signé, mots-clés, contraintes juridiques.

– Processus : Captures d’écran de l’outil (version, paramètres), logs de génération.

– Outputs bruts : Liste exhaustive des propositions.

– Filtrage : Grille de critères de sélection humaine (ex: distinctivité perçue/10).

– Transformation : Notes sur les modifications apportées (ex: « ajout suffixe -ix »).

– Décision : PV de réunion de validation, étude de risque juridique jointe. « `

– Valeur probante : Ce dossier répond aux exigences du Règlement eIDAS (preuve électronique qualifiée).

  1. Valorisation de l’intervention humaine : stratégies de légitimation

– Hiérarchisation des apports :

Niveau d’intervention             | Valeur juridique

  • Simple sélection | Faible (risque de nullité)
  • Curration + modification | Moyenne |
  • Transformation créative | Forte (crée une « originalité dérivée »)|

– Exemple probant : Dans le dépôt de « NeuroLumina » (2024), le dossier prouvait :

  • L’IA avait proposé « BrainLight » (trop descriptif).
  • Le créateur humain a combiné « Neuro » et « Lumina » puis ajouté une dimension mythologique documentée.
  • Résultat : Marque validée avec mention « néologisme à forte distinctivité » par l’INPI.
  1. Conséquences procédurales : anticiper les contentieux

-Face à une opposition : Le dossier prouve la bonne foi (Art. L.712-6 CPI) et la diligence.

– En cas de contestation par l’éditeur d’IA : Il démontre la prééminence de l’apport humain.

– Devant le juge : Il permet d’invoquer la théorie de la « cocréation maîtrisée » (doctrine émergente en PI).

Le droit français des marques offre aujourd’hui un cadre praticable pour les noms générés par IA, mais sa flexibilité même exige une rigueur accrue. La clé ne réside pas dans une réforme législative – l’article L.711-1 CPI est suffisamment ouvert – mais dans l’adaptation des pratiques :

  1. Reconnaître l’IA comme un outil, non comme un créateur,
  2. Ériger la documentation en impératif stratégique,
  3. Faire de l’expertise juridique un levier créatif.

Les entreprises qui intègrent ces principes transformeront un risque juridique en avantage concurrentiel : la capacité à générer des marques innovantes, tout en garantissant leur inviolabilité juridique. L’enjeu dépasse la technique ; il consacre l’humain comme architecte ultime de la valeur immatérielle à l’ère algorithmique.

Pour lire une version plus complète de cet article sur les marques crées par IA, cliquez

Sources :

  1. Cour de cassation, civile, Chambre commerciale, 6 décembre 2023, 22-16.078, Publié au bulletin – Légifrance
  2. Stratégie de différenciation : définition, avantages et exemples
  3. https://curia.europa.eu/juris/document/document.jsf?text=&docid=72620&pageIndex=0&doclang=FR&mode=lst&dir=&occ=first&part=1&cid=3302804
  4. Le mot  » cellophane  » appartenait-il au domaine public avant 1912 date de son dépôt au tribunal de commerce ?
  5. Article L441-1 – Code de la consommation – Légifrance
  6. Article L712-6 – Code de la propriété intellectuelle – Légifrance

Article 26 du règlement Européen l’Intelligence Artificielle : pas de référent (Délégué à l’Intelligence Artificielle) expressément désigné dans une entreprise

L’encadrement juridique de l’intelligence artificielle (IA) au sein de l’Union européenne, est matérialisé par le Règlement sur l’Intelligence Artificielle (RIA). Ce cadre réglementaire, qui sera progressivement appliqué entre 2025 et 2027, vise à établir des normes claires afin de protéger les droits des individus tout en favorisant l’innovation technologique.
NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire et un avocat enverra une lettre de mise en demeure !

L’article 26 de ce règlement, relatif aux obligations de conformité pour les fournisseurs et utilisateurs de systèmes d’IA à haut risque, cristallise une ambiguïté notable : l’absence d’une exigence explicite de désignation d’un référent interne dédié à l’IA, analogue au délégué à la protection des données (DPD) prévu par le Règlement général sur la protection des données (RGPD).

Il convient de rappeler que le RGPD impose, dans son article 37, la désignation d’un Délégué à la Protection des Données (DPD) pour les organismes qui traitent des données à caractère personnel, et ce, dans des conditions bien définies. Le DPD, en tant que référent interne, assume un rôle central en matière de conformité, de conseil et de sensibilisation, garantissant ainsi que les pratiques de traitement des données respectent les droits des personnes concernées. Cette structure de gouvernance, par son caractère obligatoire, a permis d’établir un cadre clair de responsabilité et de transparence au sein des entreprises, renforçant la confiance des consommateurs et des partenaires d’affaires.


Besoin de l’aide d’un avocat pour un problème de rgpd et d’IA ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien


Cette omission, loin d’être anodine, soulève des interrogations quant à l’effectivité des mécanismes de gouvernance et de conformité au sein des entreprises, ainsi que sur les risques juridiques encourus en cas de manquement aux obligations substantielles imposées par le législateur européen. En premier lieu, il convient de rappeler que le RIA, inspiré par une logique de *risk-based approach*, impose des obligations proportionnées au niveau de risque associé à chaque système d’IA. Les systèmes classés comme « à haut risque » (annexe III du RIA), tels que ceux utilisés dans le recrutement, l’éducation, ou la gestion des infrastructures critiques, sont soumis à un corpus exigeant de règles préalables à leur mise sur le marché (ex. : documentation technique, systèmes de gestion des risques, conformité aux exigences éthiques).

L’article 26, en particulier, prévoit que les fournisseurs et utilisateurs de ces systèmes doivent garantir la surveillance continue de leur conformité tout au long de leur cycle de vie. Toutefois, contrairement au RGPD, qui impose expressément la désignation d’un DPD sous certaines conditions (article 37 RGPD), le RIA ne prescrit pas de manière impérative la nomination d’un « délégué à l’intelligence artificielle ».

Cette absence de formalisation d’un référent dédié pourrait être interprétée comme une flexibilité laissée aux opérateurs économiques pour organiser leur conformité selon des modalités adaptées à leur structure. Néanmoins, elle suscite des craintes quant à la fragmentation des pratiques et à l’émergence de lacunes dans la traçabilité des décisions algorithmiques. Par exemple, une entreprise exploitant un système d’IA à haut risque dans le domaine de la santé, tel qu’un outil de diagnostic médical automatisé, pourrait se contenter de répartir les responsabilités de conformité entre plusieurs services (juridique, technique, qualité), sans qu’un acteur unique ne coordonne l’ensemble des diligences requises par le RIA (ex. : audits, documentation des biais algorithmiques, signalement des incidents).

Une telle approche, bien que potentiellement conforme *in abstracto* à l’article 26, risquerait de compromettre la cohérence des processus de conformité, augmentant ainsi les risques de contentieux liés à la responsabilité civile ou administrative. En outre, cette lacune normative contraste avec les orientations jurisprudentielles et doctrinales récentes, qui soulignent l’importance de mécanismes de gouvernance internalisés pour les technologies disruptives. À titre d’illustration, la Cour de justice de l’Union européenne (CJUE), dans l’arrêt *Wirtschaftsakademie Schleswig-Holstein* (C‑210/16), a rappelé l’importance d’une responsabilisation effective des acteurs dans le cadre du RGPD, en insistant sur la nécessité d’une supervision indépendante et spécialisée. Transposé au domaine de l’IA, ce raisonnement militerait pour la désignation proactive d’un référent compétent, même en l’absence d’obligation légale explicite. Enfin, l’article 26 doit être analysé à l’aune des sanctions prévues par le RIA en cas de non-conformité (articles 71 et 72), qui prévoient des amendes pouvant atteindre 7 % du chiffre d’affaires annuel mondial d’une entreprise.

Dans ce contexte, l’absence de référent désigné pourrait être invoquée par les autorités de surveillance, telles que le Conseil européen de l’Intelligence artificielle, comme un indice de négligence systémique, notamment si l’entreprise ne peut démontrer la mise en place de procédures alternatives robustes.

Par exemple, une banque utilisant un système d’IA pour l’octroi de crédits, et ne disposant pas de mécanismes clairs pour documenter les décisions algorithmiques (cf. article 14 RIA sur la transparence), s’exposerait à des sanctions aggravées en cas de discrimination avérée, faute d’avoir internalisé les compétences nécessaires via un référent identifié.

Ainsi, l’article 26 du RIA, en ne prescrivant pas de modèle unique de gouvernance, reflète une volonté de neutralité technologique et d’adaptabilité aux spécificités sectorielles. Cependant, cette approche laisse persister un risque de dilution des responsabilités, potentiellement préjudiciable à la sécurité juridique des entreprises comme à la protection des droits des personnes.

L’articulation entre flexibilité organisationnelle et exigences de conformité strictes constituera, sans nul doute, un enjeu majeur dans l’interprétation future de cette disposition par les régulateurs nationaux et les juridictions.

I. Introduction au Règlement Européen sur l’Intelligence Artificielle (RIA)

A. Contexte et objectifs du RIA

Le Règlement Européen sur l’Intelligence Artificielle (RIA), dont l’article 26 a été adopté le 13 juin 2024 et qui sera progressivement appliqué entre 2025 et 2027, représente une réponse institutionnelle à la montée en puissance de l’IA dans divers domaines. À l’heure actuelle, l’IA est omniprésente dans notre vie quotidienne, notamment à travers des applications telles que les assistants virtuels, les recommandations de contenu sur les plateformes de streaming, les systèmes de surveillance, et même les diagnostics médicaux.

Cependant, cette évolution rapide soulève des préoccupations majeures : comment garantir que ces technologies soient développées et utilisées de manière éthique et responsable ? Comment protéger les droits des individus face à des systèmes qui peuvent prendre des décisions autonomes et potentiellement biaisées ?

Ces questions sont d’autant plus pertinentes dans un contexte où des incidents liés à l’IA ont mis en lumière des problèmes tels que la discrimination algorithmique, les atteintes à la vie privée et l’opacité des algorithmes. Les systèmes d’IA peuvent reproduire et amplifier des biais existants dans les données sur lesquelles ils sont formés. Par exemple, des études ont montré que certains systèmes de reconnaissance faciale sont moins précis pour les personnes de couleur et les femmes, soulevant des préoccupations quant à leur utilisation par les forces de l’ordre.

De même, des algorithmes de recrutement peuvent discriminer certains groupes en raison de biais présents dans les données historiques. Le RIA vise à établir un cadre juridique qui garantit non seulement l’innovation dans le domaine de l’IA, mais aussi la protection des droits fondamentaux des citoyens. L’un des objectifs clés du règlement est de créer un environnement réglementaire harmonisé qui favorise l’innovation tout en garantissant la sécurité et le respect des droits individuels. Cela implique la mise en place d’exigences strictes pour les systèmes d’IA à haut risque, qui peuvent avoir des conséquences directes sur la vie des individus, comme dans le domaine de la santé ou de la justice.

Le règlement impose ainsi des obligations de transparence, de traçabilité, et de responsabilité aux développeurs et utilisateurs de ces technologies. En outre, le RIA intègre des principes éthiques, tels que le respect de la dignité humaine et le non-discrimination. Il cherche à promouvoir une IA qui soit non seulement efficace, mais aussi équitable et respectueuse des valeurs fondamentales de l’Union Européenne. Cela ouvre la voie à un cadre où l’innovation technologique et l’éthique ne sont pas en opposition, mais vont de pair pour construire un avenir numérique qui bénéficie à tous.

B. Importance de la régulation de l’intelligence artificielle

La nécessité de réguler l’intelligence artificielle découle de plusieurs facteurs interconnectés. Premièrement, l’IA, en tant que technologie émergente, présente des risques inhérents qui doivent être gérés de manière proactive. Les systèmes d’IA peuvent prendre des décisions qui affectent directement la vie des individus, notamment dans des domaines sensibles tels que la santé, l’emploi et la justice. Par conséquent, il est crucial de s’assurer que ces systèmes soient conçus pour respecter les droits des utilisateurs et pour éviter les préjugés et les discriminations. Le RIA permet de mettre en place des garde-fous pour minimiser ces risques, en imposant des exigences strictes aux systèmes d’IA à haut risque.

Deuxièmement, la régulation de l’IA est essentielle pour établir une confiance entre les utilisateurs et les fournisseurs de technologies. Les consommateurs, les citoyens et les parties prenantes sont de plus en plus préoccupés par les implications de l’IA sur leur vie quotidienne. En instaurant des normes claires et contraignantes, le RIA vise à rassurer les utilisateurs sur le fait que leurs droits seront protégés et que les systèmes d’IA fonctionneront de manière transparente et équitable. Ce climat de confiance est vital pour encourager l’adoption des technologies d’IA, tant par le grand public que par les entreprises.

Troisièmement, la régulation de l’IA est également un levier pour stimuler l’innovation. En fournissant un cadre juridique clair, le RIA permet aux entreprises de naviguer plus facilement dans le paysage complexe de l’IA. Cela crée un environnement propice à l’innovation, où les entreprises peuvent développer de nouveaux produits et services tout en respectant les normes éthiques et juridiques. Par ailleurs, la régulation peut également encourager la recherche et le développement de solutions d’IA qui répondent à des défis sociétaux pressants, comme le changement climatique ou la santé publique.

En intégrant une perspective éthique dès la conception des technologies d’IA, les entreprises peuvent contribuer à un développement durable et inclusif de l’IA. Enfin, la régulation de l’IA a des implications internationales. Avec l’émergence de réglementations similaires dans d’autres régions du monde, comme la législation américaine sur l’IA ou les initiatives en Asie, l’UE peut se positionner en tant que leader mondial dans la régulation de l’IA. Cela pourrait également influencer la manière dont d’autres régions adoptent des réglementations, créant un cadre de référence pour une utilisation responsable de l’IA à l’échelle mondiale. En ce sens, le RIA pourrait non seulement protéger les droits des citoyens européens, mais aussi contribuer à l’établissement de normes éthiques à l’échelle mondiale.

II. Absence d’obligation de désignation d’un référent à l’intelligence artificielle

A. Comparaison avec le Règlement Général sur la Protection des Données (RGPD)

Les, acteurs visés par le RIA sont principalement les fournisseurs et déployeurs de systèmes d’IA (dans une moindre mesure les importateurs, distributeurs et mandataires). Alors que dans le RGPD, il est mentionné, les Responsables de traitements et sous-traitants.

L’absence d’obligation explicite de désignation d’un référent à l’intelligence artificielle dans le RIA soulève des questions cruciales quant à la gouvernance et à la conformité des systèmes d’IA. En comparaison, le Règlement Général sur la Protection des Données (RGPD) impose la désignation d’un Délégué à la Protection des Données (DPD) dans certaines situations. Selon l’article 37 du RGPD, les entités qui traitent des données à grande échelle ou des données sensibles doivent désigner un DPD pour assurer le respect des règles de protection des données. Cette obligation de désignation d’un DPD permet de garantir que les questions de protection des données sont prises en compte de manière systématique au sein des organisations.

Le DPD joue un rôle clé en matière de sensibilisation, de formation et de conseil, tout en agissant comme point de contact pour les autorités de protection des données et les individus concernés. En l’absence d’une telle obligation au sein du RIA, les entreprises peuvent se retrouver sans un cadre de gouvernance clair pour gérer les enjeux liés à l’IA, ce qui pourrait engendrer des incohérences et des lacunes dans la conformité. Il est essentiel de souligner que le RIA et le RGPD ne visent pas les mêmes problématiques.

Le RGPD se concentre principalement sur la protection des données personnelles, tandis que le RIA aborde des questions plus larges liées à l’utilisation de l’IA, y compris la responsabilité des algorithmes, la sécurité des systèmes et l’éthique. Cependant, les deux règlements partagent des objectifs communs, tels que la protection des droits fondamentaux et la promotion de l’éthique. Dans ce contexte, le manque d’une obligation de désignation d’un référent à l’IA pourrait entraver la mise en œuvre de ces principes de manière cohérente et intégrée.

B. Impacts de l’absence d’un référent sur la conformité et la gouvernance interne

L’absence d’un référent à l’intelligence artificielle peut avoir des répercussions significatives sur la conformité et la gouvernance interne des organisations. Tout d’abord, sans un référent désigné, il est probable que les entreprises rencontrent des difficultés à identifier et à évaluer les risques associés à l’utilisation des systèmes d’IA.

Cela peut entraîner des situations où des systèmes à haut risque ne sont pas correctement évalués, exposant ainsi les entreprises à des violations potentielles des droits des utilisateurs et à des exigences réglementaires. Par exemple, une entreprise qui utilise un algorithme de recrutement sans une évaluation adéquate des biais pourrait se retrouver à discriminer des candidats en raison de caractéristiques telles que le sexe ou l’origine ethnique.

De plus, le manque d’un référent peut nuire à la mise en place d’une culture de conformité au sein de l’organisation. Un référent aurait la responsabilité de sensibiliser les employés aux enjeux liés à l’IA, d’assurer un suivi des évolutions réglementaires et de coordonner les actions nécessaires pour répondre aux exigences du RIA. En l’absence de cette figure, les entreprises risquent de se retrouver en situation de non-conformité, ce qui peut avoir des conséquences juridiques, financières et réputationnelles. Cela peut également créer un climat d’incertitude, où les employés ne savent pas comment agir face à des situations éthiques ou juridiques liées à l’IA.

En outre, l’absence d’un référent peut également entraîner une fragmentation des efforts en matière de gouvernance de l’IA au sein de l’organisation. Les différentes équipes, telles que les équipes techniques, juridiques et de conformité, pourraient travailler de manière isolée, sans coordination ni communication, ce qui peut aboutir à des incohérences dans la mise en œuvre des pratiques de gouvernance.

Cela pourrait également empêcher une approche systématique et intégrée pour traiter les enjeux éthiques et juridiques liés à l’IA. Par exemple, sans une ligne de communication claire entre les équipes, des décisions pourraient être prises sans tenir compte des implications éthiques, entraînant ainsi des conséquences potentiellement graves. Enfin, l’absence d’un référent pourrait également affecter la capacité des entreprises à répondre aux attentes des parties prenantes.

Dans un contexte où les consommateurs, les investisseurs et la société civile sont de plus en plus attentifs aux questions d’éthique et de responsabilité, les entreprises doivent être en mesure de démontrer qu’elles prennent ces enjeux au sérieux. Sans un référent dédié, il peut être difficile pour les entreprises de communiquer efficacement sur leurs efforts en matière de gouvernance de l’IA et de rassurer les parties prenantes sur leur engagement à respecter les normes éthiques. Cela pourrait également nuire à la réputation de l’entreprise et à sa capacité à attirer et à retenir des clients et des talents.

III. Nécessité d’un référent à l’intelligence artificielle

A. Rôle et responsabilités potentielles du référent

La désignation d’un référent à l’intelligence artificielle pourrait jouer un rôle déterminant dans la mise en œuvre des exigences du RIA. Ce référent, que l’on pourrait désigner sous le terme de Responsable de l’Intelligence Artificielle (RIA), pourrait être chargé de plusieurs responsabilités clés, notamment :

  1. Évaluation des risques : Le référent pourrait être responsable de l’évaluation continue des risques associés aux systèmes d’IA utilisés par l’organisation. Cela comprend l’identification des risques potentiels, l’analyse de l’impact de ces risques sur les droits des utilisateurs et la mise en place de mesures appropriées pour atténuer ces risques. Par exemple, le référent pourrait développer des protocoles d’évaluation des risques pour les nouveaux projets d’IA, garantissant ainsi que toutes les parties prenantes sont conscientes des enjeux éthiques et juridiques. Cela pourrait également inclure la mise en place d’un cadre pour l’audit régulier des systèmes d’IA afin de garantir leur conformité continue aux normes établies.
  2. Sensibilisation et formation : Le référent pourrait organiser des sessions de formation pour sensibiliser les employés aux enjeux éthiques et juridiques liés à l’utilisation de l’IA. Cela favoriserait une culture de responsabilité et de transparence au sein de l’organisation. Par exemple, des ateliers sur les biais algorithmiques et les meilleures pratiques pour le développement de systèmes d’IA éthiques pourraient être mis en place pour garantir que tous les employés comprennent les enjeux liés à leurs travaux. De plus, le référent pourrait développer des ressources pédagogiques, telles que des guides ou des modules de formation en ligne, pour informer tous les niveaux de l’organisation sur les questions relatives à l’IA.
  3. Coordination de la conformité : En tant que point de contact principal, le référent pourrait assurer la liaison entre les différentes parties prenantes, y compris les équipes techniques, juridiques et de conformité. Cela faciliterait la mise en œuvre des exigences du RIA et des meilleures pratiques en matière d’IA. Le référent pourrait également être chargé de surveiller l’évolution des réglementations et de s’assurer que l’organisation s’adapte en conséquence. En cas de changement réglementaire, le référent devrait être capable d’évaluer rapidement l’impact sur les pratiques de l’organisation et de recommander des ajustements nécessaires.
  4. Reporting et communication : Le référent pourrait jouer un rôle clé dans la communication des efforts de l’organisation en matière de gouvernance de l’IA. En élaborant des rapports réguliers sur les initiatives prises, les risques identifiés et les mesures mises en œuvre pour les atténuer, le référent pourrait renforcer la transparence et la responsabilité de l’organisation. Cela pourrait également permettre à l’entreprise de démontrer son engagement envers une utilisation éthique de l’IA auprès des parties prenantes. Ces rapports pourraient être publiés de manière accessible, permettant aux parties prenantes d’évaluer les progrès de l’entreprise en matière de gouvernance de l’IA.
  5. Gestion des incidents : En cas de défaillance ou de problème lié à un système d’IA, le référent pourrait être chargé de la gestion des incidents. Cela comprend la mise en place de protocoles pour signaler et traiter les incidents, ainsi que la communication avec les autorités compétentes et les parties prenantes concernées. Une gestion efficace des incidents est cruciale pour maintenir la confiance des utilisateurs et des partenaires commerciaux, et pour garantir que l’organisation agit de manière responsable. Le référent devrait également être en mesure de recommander des actions correctives pour prévenir la récurrence des incidents
  6. Évaluation des fournisseurs : Dans le cadre de l’utilisation de l’IA, une entreprise peut faire appel à des fournisseurs externes pour le développement ou la mise en œuvre de solutions d’IA. Le référent devrait jouer un rôle dans l’évaluation des fournisseurs pour garantir qu’ils respectent également les normes éthiques et réglementaires. Cela pourrait inclure des critères d’évaluation spécifiques liés à la protection des données, à la transparence des algorithmes et à l’absence de biais.

B. Avantages pour les entreprises et la confiance des parties prenantes

La désignation d’un référent à l’intelligence artificielle présente plusieurs avantages significatifs pour les entreprises. En premier lieu, cela permettrait de renforcer la conformité aux exigences réglementaires. En ayant une personne dédiée à la gestion des questions liées à l’IA, les entreprises peuvent mieux anticiper et répondre aux évolutions réglementaires, évitant ainsi de potentielles sanctions. Par exemple, un référent pourrait s’assurer que tous les systèmes d’IA à haut risque sont évalués et certifiés conformément aux exigences du RIA, réduisant ainsi le risque de non-conformité.

De plus, la présence d’un référent contribuerait à instaurer un climat de confiance entre l’entreprise et ses parties prenantes. Dans un contexte où les préoccupations concernant la sécurité et l’éthique de l’IA sont de plus en plus présentes, la désignation d’un référent pourrait rassurer les clients, les investisseurs et le grand public sur l’engagement de l’entreprise à adopter des pratiques responsables et éthiques. Par exemple, une entreprise qui désigne un référent à l’IA pourrait mettre en avant cet effort dans sa communication externe, soulignant son engagement envers une utilisation éthique et responsable de l’IA.

En favorisant une meilleure gouvernance de l’IA, les entreprises pourraient également améliorer leur réputation et leur image de marque. Dans un monde où les consommateurs sont de plus en plus conscients des enjeux éthiques, une entreprise qui prend des mesures proactives pour garantir une utilisation responsable de l’IA sera perçue de manière plus favorable. Cela pourrait également ouvrir la voie à de nouvelles opportunités d’affaires, en permettant aux entreprises de se positionner comme des acteurs responsables et innovants sur le marché de l’IA.

Enfin, la désignation d’un référent à l’intelligence artificielle pourrait également aider les entreprises à anticiper et à répondre aux préoccupations sociétales. En intégrant une perspective éthique dans le développement et l’utilisation de l’IA, les entreprises peuvent contribuer à la création de solutions qui répondent aux besoins de la société tout en respectant les valeurs fondamentales. Cela pourrait également favoriser un dialogue constructif avec les parties prenantes, permettant aux entreprises de mieux comprendre les attentes de la société en matière d’IA et d’y répondre de manière appropriée.

VI. Perspectives d’évolution et recommandations

A. Évolution de la réglementation et des normes

À l’heure actuelle, la réglementation de l’IA est en constante évolution. Les discussions au sein des instances européennes et internationales continuent d’évoluer, et il est probable que de nouvelles directives ou ajustements au RIA apparaîtront dans les années à venir. Les entreprises doivent donc rester vigilantes et proactives, en surveillant les évolutions réglementaires pour s’assurer qu’elles sont en conformité avec les exigences en constante évolution.

Cela implique également d’adapter les systèmes de gouvernance internes pour intégrer les changements possibles dans le paysage réglementaire. L’Union Européenne, en tant que leader dans la régulation de l’IA, pourrait également jouer un rôle de catalyseur pour l’harmonisation des réglementations au niveau mondial.

Les discussions autour de la réglementation de l’IA sont en cours dans d’autres régions, notamment aux États-Unis et en Asie. L’UE peut influencer ces débats en partageant ses expériences et en proposant des normes qui pourraient être adoptées à l’échelle internationale. Cela pourrait contribuer à créer un cadre réglementaire mondial qui promeut une utilisation responsable de l’IA, tout en respectant les droits des individus.

B. Recommandations pour les entreprises

Il est recommandé aux entreprises de prendre des mesures concrètes pour renforcer leur gouvernance en matière d’IA. Parmi ces recommandations, on peut inclure :

  1. Désignation d’un référent à l’IA : Comme mentionné, la désignation d’un référent à l’intelligence artificielle est cruciale pour assurer une gouvernance efficace. Ce référent doit être en mesure de travailler en étroite collaboration avec les autres départements de l’entreprise pour garantir une approche intégrée.
  2. Formation continue : Les entreprises doivent investir dans la formation continue de leurs employés sur les enjeux éthiques et juridiques liés à l’utilisation de l’IA. Cela comprend des sessions de sensibilisation, des ateliers pratiques et des formations sur les meilleures pratiques pour le développement d’IA éthique. Par exemple, des programmes de formation pourraient être mis en place pour les équipes de développement, afin de les sensibiliser aux biais algorithmiques et à l’importance de la diversité dans les ensembles de données.
  3. Mise en place de politiques internes : Les entreprises devraient développer des politiques internes claires sur l’utilisation de l’IA, en définissant des protocoles pour l’évaluation des risques, la gestion des incidents et la communication avec les parties prenantes. Ces politiques doivent être régulièrement mises à jour pour refléter les changements réglementaires et technologiques. Par exemple, l’entreprise pourrait établir un comité de gouvernance de l’IA, composé de membres de différents départements, pour superviser la mise en œuvre des politiques et des normes.
  4. Engagement auprès des parties prenantes : Les entreprises devraient établir un dialogue continu avec leurs parties prenantes, y compris les clients, les employés, les investisseurs et la société civile. En écoutant les préoccupations et les attentes des parties prenantes, les entreprises peuvent mieux adapter leurs pratiques et renforcer leur responsabilité sociale. Cela pourrait inclure la création de forums de discussion ou de consultations publiques pour recueillir des avis sur les projets d’IA.
  5. Adoption de technologies éthiques : Les entreprises doivent s’efforcer d’adopter des technologies qui respectent les principes éthiques. Cela inclut l’utilisation d’algorithmes transparents, la minimisation des biais et la protection des données personnelles. En intégrant des valeurs éthiques dans le développement de l’IA, les entreprises peuvent non seulement se conformer aux réglementations, mais aussi contribuer à un avenir numérique responsable.
  6. Collaboration inter-entreprises et avec le secteur public : Les entreprises devraient également envisager de collaborer avec d’autres acteurs de l’industrie, ainsi qu’avec des organismes publics, pour partager des meilleures pratiques en matière de gouvernance de l’IA. Des initiatives de collaboration pourraient conduire à l’élaboration de normes sectorielles et à l’établissement de lignes directrices sur l’utilisation éthique de l’IA.

Pour lire une version plus complète de cet article sur l’IA, cliquez

Sources :

L’AI Act en Europe : l’intelligence artificielle sera éthique

Les Etats membres de l’Union européenne (UE) ont approuvé, le 2 février 2024, l’Artificial Intelligence Act, une législation inédite au niveau mondial pour réguler l’intelligence artificielle (IA), a annoncé la présidence belge du Conseil de l’UE.

NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire !

Les ambassadeurs des Vingt-Sept ont « confirmé à l’unanimité » l’accord politique trouvé en décembre dernier entre les Etats membres et les eurodéputés, a-t-elle indiqué sur X. Les négociations sur ce texte, qui ont débuté en avril 2021, avaient été percutées à la fin 2022 par l’apparition de ChatGPT, le générateur de textes de l’entreprise californienne OpenAI, capable de rédiger des dissertations, des poèmes ou des traductions en quelques secondes.

L’IA Act est une proposition législative ambitieuse de l’Union européenne (UE) visant à établir un cadre juridique solide pour l’utilisation de l’IA dans l’UE. L’objectif principal de cette législation est de promouvoir une IA éthique et responsable, tout en protégeant les droits fondamentaux des individus et en assurant la sécurité des utilisateurs.

L’un des points clés de l’AI Act est la catégorisation des systèmes d’IA en fonction de leur niveau de risque. Les systèmes d’IA à haut risque, tels que ceux utilisés dans les secteurs de la santé, de la sécurité ou des transports, seront soumis à des exigences plus strictes en matière de transparence, de documentation et de contrôle humain.

De plus, des mécanismes de contrôle et de certification seront mis en place pour évaluer la conformité des systèmes d’IA aux normes éthiques. L’AI Act souligne également l’importance de la protection des droits fondamentaux, tels que la vie privée, la non-discrimination et la dignité humaine, dans le développement et l’utilisation de l’IA. Il met en place des mesures spécifiques pour prévenir les biais discriminatoires, garantir la confidentialité des données et assurer la transparence des systèmes d’IA utilisés par les autorités publiques.


Besoin de l’aide d’un avocat pour un problème de contrefaçon ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien


En adoptant l’AI Act, l’Union européenne envoie un message fort : l’intelligence artificielle doit être développée et utilisée dans le respect des valeurs éthiques et des droits fondamentaux. Cette législation pionnière positionne l’Europe comme un leader mondial dans la promotion d’une IA éthique et responsable. Cependant, l’AI Act ne se limite pas à la réglementation. Il encourage également l’innovation et la recherche dans le domaine de l’IA, en soutenant le développement de technologies éthiques et durables. Il favorise la collaboration entre les acteurs de l’industrie, les chercheurs et les autorités réglementaires, afin de promouvoir des pratiques exemplaires et d’assurer une utilisation responsable de l’IA.

I. Les principes éthiques de l’intelligence artificielle en Europe

A. Contexte de la réglementation

L’intelligence artificielle (IA) est en train de transformer de nombreux aspects de notre société, et il est essentiel de s’assurer qu’elle est développée et utilisée de manière éthique. En Europe, une nouvelle réglementation appelée l’AI Act a été proposée pour encadrer l’utilisation de l’IA et garantir sa conformité aux principes éthiques.

La Commission européenne reconnaît l’importance de réglementer l’intelligence artificielle pour protéger les droits fondamentaux, la sécurité et la vie privée des citoyens européens. Le développement rapide de l’IA a soulevé des préoccupations concernant la discrimination, la surveillance excessive, la prise de décision automatisée et les atteintes à la vie privée. Par conséquent, l’UE cherche à établir un cadre réglementaire solide pour guider l’utilisation de l’IA de manière responsable. L’AI Act: L’AI Act est une proposition législative de l’UE qui vise à établir des règles claires et harmonisées pour l’utilisation de l’intelligence artificielle au sein de l’Union européenne.

Voici quelques points clés de l’AI Act:

  1. Catégorisation des systèmes d’IA: L’AI Act classe les systèmes d’IA en fonction de leur niveau de risque, allant des systèmes à risque élevé (comme les technologies de surveillance et les systèmes de prise de décision automatisée dans les domaines critiques) aux systèmes à risque limité (comme les chatbots et les assistants virtuels).
  2. Obligations pour les fournisseurs de systèmes d’IA à risque élevé : Les fournisseurs de systèmes d’IA à risque élevé devront se conformer à des exigences strictes, telles que la réalisation d’une évaluation de conformité, la mise en place de systèmes de gouvernance et de documentation appropriés, et la soumission à des audits indépendants.
  3. Transparence et explicabilité : L’AI Act exige que les systèmes d’IA à risque élevé soient transparents et explicables. Les utilisateurs doivent être informés lorsque des décisions importantes sont prises par des systèmes d’IA et doivent avoir accès à des explications sur la logique, la portée et les conséquences de ces décisions.
  4. Interdiction de certaines pratiques : L’AI Act interdit certaines pratiques jugées inacceptables, telles que l’utilisation d’une IA pour manipuler le comportement des utilisateurs, la création de deepfakes malveillants et l’utilisation de systèmes biométriques à des fins de surveillance généralisée.

En somme, l’AI Act (Artificial Intelligence Act) en Europe est une proposition de réglementation visant à encadrer l’utilisation de l’intelligence artificielle dans l’Union européenne. L’objectif principal de cette proposition est de garantir que l’IA développée et utilisée en Europe respecte des normes éthiques élevées. Cette réglementation vise à protéger les droits fondamentaux des citoyens, à garantir la transparence et la responsabilité des systèmes d’IA, et à promouvoir la sécurité et la fiabilité de ces technologies. En mettant en place des normes et des obligations claires pour les développeurs et les utilisateurs d’IA, l’AI Act cherche à favoriser l’innovation tout en veillant à ce que l’IA soit utilisée de manière éthique et responsable. Cette proposition de réglementation marque une étape importante dans la définition d’un cadre juridique pour l’IA en Europe, reflétant la volonté des autorités européennes de promouvoir une IA digne de confiance.

B. Présentation des principes éthiques clés en Europe

L’Europe est réputée pour être à la pointe de la protection des droits humains et des valeurs éthiques. Ces principes incluent la transparence, la responsabilité, la sécurité et la confidentialité des données, la non-discrimination et la protection des droits humains.

Transparence : La transparence est un principe fondamental qui consiste à rendre compte des actions et des décisions prises. En Europe, les organisations sont tenues de divulguer les informations pertinentes sur leurs activités, leurs politiques et leurs pratiques. Cela permet aux parties prenantes, telles que les consommateurs, les employés et les investisseurs, de prendre des décisions éclairées et de comprendre comment leurs données sont utilisées.

Responsabilité : La responsabilité est un principe qui implique que les organisations et les individus assument les conséquences de leurs actions. En Europe, les entreprises sont tenues de respecter les lois et les réglementations en vigueur, ainsi que de respecter les normes éthiques. La responsabilité englobe également la prise en compte des impacts sociaux, environnementaux et économiques de leurs activités.

Sécurité et confidentialité des données : La sécurité et la confidentialité des données sont des principes cruciaux dans le contexte de la numérisation croissante de la société. En Europe, des réglementations telles que le Règlement général sur la protection des données (RGPD) ont été mises en place pour garantir que les données personnelles des individus sont protégées et utilisées de manière appropriée. Les organisations sont tenues de mettre en place des mesures de sécurité robustes pour prévenir les violations de données et de respecter les droits des individus en matière de confidentialité.

Non-discrimination : La non-discrimination est un principe qui vise à garantir l’égalité des chances pour tous, indépendamment de leur origine, de leur sexe, de leur religion, de leur handicap ou de toute autre caractéristique protégée par la loi. En Europe, il existe des lois et des politiques visant à lutter contre toutes les formes de discrimination, que ce soit dans le domaine de l’emploi, de l’accès aux services publics ou de la vie quotidienne.

Protection des droits humains : La protection des droits humains est un principe fondamental en Europe. Les droits fondamentaux, tels que la liberté d’expression, la liberté de religion, le droit à la vie privée et le droit à un procès équitable, sont protégés par la Convention européenne des droits de l’homme et d’autres instruments juridiques. Les organisations et les individus sont tenus de respecter ces droits et de prendre des mesures pour les protéger et les promouvoir.

C. Exemples de politiques, de directives et de réglementations en cours de développement ou déjà en place pour garantir l’éthique de l’intelligence artificielle en Europe

L’intelligence artificielle (IA) présente un potentiel énorme pour améliorer notre société, mais elle soulève également des préoccupations éthiques. En Europe, des politiques, des directives et des réglementations sont en cours de développement ou déjà en place pour garantir que l’IA est utilisée de manière éthique et responsable.

Le groupe de travail sur l’IA de l’UE : la Commission européenne a créé un groupe de travail sur l’IA pour élaborer des orientations et des recommandations sur l’éthique de l’IA. Ce groupe de travail rassemble des experts des Etats membres de l’UE et se concentre sur des questions telles que la transparence, la responsabilité et la protection des droits fondamentaux.

Transparence et explicabilité : La transparence et l’explicabilité sont des principes éthiques essentiels pour l’utilisation de l’IA en Europe. Les utilisateurs doivent être informés lorsque des décisions importantes sont prises par des systèmes d’IA et doivent avoir accès à des explications sur la logique, la portée et les conséquences de ces décisions. Des directives sont en cours d’élaboration pour encourager la transparence des algorithmes et permettre aux utilisateurs de comprendre comment l’IA fonctionne.

Responsabilité : La responsabilité est un autre principe éthique important en Europe. Les utilisateurs doivent savoir qui est responsable des décisions prises par les systèmes d’IA et comment les erreurs ou les préjudices seront résolus. Des réglementations sont en cours de développement pour définir les responsabilités des fournisseurs de systèmes d’IA et pour établir des mécanismes de recours en cas de préjudice causé par une IA défectueuse.

Protection des droits fondamentaux : La protection des droits fondamentaux est une préoccupation majeure en Europe lorsqu’il s’agit d’IA. Des réglementations telles que le Règlement général sur la protection des données (RGPD) ont été mises en place pour garantir que les données personnelles sont utilisées de manière appropriée et respectueuse de la vie privée. Des politiques sont également en cours de développement pour garantir que l’IA ne porte pas atteinte aux droits fondamentaux tels que la non-discrimination, la liberté d’expression et le droit à un procès équitable.

Les lignes directrices de l’UE sur l’éthique de l’IA : en 2019, la Commission européenne a publié des lignes directrices sur l’éthique de l’IA. Ces lignes directrices fournissent des principes éthiques et des recommandations pour le développement, le déploiement et l’utilisation de l’IA en Europe.

Évaluation de l’impact social : L’évaluation de l’impact social de l’IA est un aspect clé de son développement éthique en Europe. Des politiques sont en cours de développement pour encourager les évaluations d’impact social, qui examinent les conséquences de l’IA sur les individus, les communautés et la société dans son ensemble. Cela permettra de minimiser les effets négatifs potentiels de l’IA et de maximiser ses avantages pour tous.

Gouvernance et régulation : La gouvernance et la régulation de l’IA sont des éléments clés pour garantir son utilisation éthique en Europe. Des réglementations spécifiques sont en cours de développement pour encadrer l’utilisation de l’IA dans des domaines sensibles tels que la santé, la finance et la sécurité.

Initiative HLEG sur l’IA éthique : le High-Level Expert Group on Artificial Intelligence (HLEG) est un groupe d’experts nommés par la Commission Européenne pour conseiller sur les aspects éthiques de l’IA. Le groupe a publié des lignes directrices sur l’éthique de l’IA en 2019, qui ont été largement utilisées pour orienter les politiques et les pratique en Europe.

Ces exemples illustrent l’engagement de l’Europe à développer des politiques et réglementation pour garantir l’éthiques de l’IA. L’objectif est de crée un environnement propice à l’utilisation responsable et bénéfique de l’IA, en protégeant les droits fondamentaux des individus et en veillant à ce que l’IA soit utilisée de manière transparente juste et sûre.

 

II. Les défis et les perspectives de l’éthique de l’intelligence artificielle en Europe

A. Analyse des défis spécifiques liés à l’éthique de l’intelligence artificielle en Europe, tels que la protection des données personnelles, la prise de décision automatisée, la responsabilité des systèmes intelligents, etc.

L’éthique de l’intelligence artificielle (IA) est un sujet de préoccupation de plus en plus important en Europe. Alors que l’IA continue de se développer et de s’intégrer dans divers aspects de notre société, il est essentiel de comprendre et d’analyser les défis spécifiques liés à son éthique.

Protection des données personnelles : La protection des données personnelles est un défi majeur en matière d’éthique de l’IA en Europe. Dans le cadre du Règlement général sur la protection des données (RGPD), l’Union européenne a mis en place des réglementations strictes pour garantir que les données personnelles sont collectées, traitées et utilisées de manière légale, équitable et transparente. Cependant, avec l’utilisation croissante de l’IA, il est essentiel de s’assurer que les algorithmes et les systèmes d’IA respectent également ces réglementations et protègent la vie privée des individus.

Prise de décision automatisée : Un autre défi éthique important est la prise de décision automatisée par les systèmes d’IA. Les décisions prises par les algorithmes peuvent avoir un impact significatif sur les individus, notamment en matière d’emploi, de prêt, de système judiciaire, etc. Il est essentiel de s’assurer que ces décisions sont équitables, transparentes et non discriminatoires. Des mesures sont prises en Europe pour garantir que les systèmes d’IA utilisent des données impartiales et évitent les biais préjudiciables.

Responsabilité des systèmes intelligents : La question de la responsabilité des systèmes intelligents est un défi complexe en matière d’éthique de l’IA. Qui est responsable lorsque les systèmes d’IA commettent des erreurs ou causent des préjudices ? Les réglementations en cours de développement en Europe cherchent à établir des mécanismes de responsabilité clairs pour les fournisseurs de systèmes d’IA. Cela inclut des exigences de transparence, de traçabilité et de redevabilité pour garantir que les systèmes d’IA sont utilisés de manière responsable et que les erreurs peuvent être résolues de manière appropriée.

Équité et non-discrimination : L’équité et la non-discrimination sont des valeurs fondamentales en Europe et doivent être respectées dans l’utilisation de l’IA. Il est essentiel de s’assurer que les systèmes d’IA ne renforcent pas les biais existants ou ne reproduisent pas les inégalités sociales. Des mesures sont prises pour développer des outils et des méthodes permettant de détecter et de remédier aux biais dans les systèmes d’IA, ainsi que pour promouvoir la diversité et l’inclusion.

B. L’éthique de l’intelligence artificielle en Europe : Mécanismes de surveillance et de contrôle pour garantir la conformité

L’éthique de l’intelligence artificielle en Europe est un sujet d’une importance croissante. Pour garantir la conformité, il existe plusieurs mécanismes de surveillance et de contrôle. Tout d’abord, les autorités de régulation jouent un rôle clé dans la supervision de l’utilisation de l’intelligence artificielle. Elles établissent des normes et des réglementations pour encadrer son utilisation et veiller à ce qu’elle respecte les principes éthiques. Ces autorités peuvent mener des enquêtes et imposer des sanctions en cas de non-conformité.

Ensuite, il est important d’avoir des mécanismes de transparence et de responsabilité. Les développeurs et les utilisateurs de l’intelligence artificielle doivent être en mesure de comprendre comment les systèmes sont conçus et comment ils prennent leurs décisions. Cela peut passer par la documentation des algorithmes, la traçabilité des données utilisées et la mise en place de mécanismes de redevabilité en cas de préjudice causé par une décision automatisée.

Par ailleurs, les mécanismes de consentement et de protection des données jouent un rôle crucial dans la protection des droits des individus. Les utilisateurs doivent être informés de manière transparente sur la collecte et l’utilisation de leurs données, et ils doivent avoir le choix de consentir ou non à leur utilisation. Enfin, la recherche et le développement de l’intelligence artificielle doivent se faire de manière éthique. Les chercheurs et les entreprises doivent respecter des principes éthiques fondamentaux tels que la non-discrimination, la justice et le respect de la vie privée. En résumé, parmi ces mécanismes, on trouve :

  1. Autorités de régulation : Des organismes de régulation sont chargés de superviser l’application des réglementations en matière d’IA et de s’assurer que les entreprises et les organisations respectent les normes éthiques établies.
  2. Évaluations d’impact : Des évaluations d’impact éthique sont réalisées pour analyser les conséquences potentielles des systèmes d’IA sur les droits fondamentaux, la vie privée, la sécurité et la société dans son ensemble.
  3. Transparence et redevabilité : Les développeurs d’IA sont tenus de rendre compte de leurs décisions et de leurs actions, en expliquant de manière transparente le fonctionnement des systèmes d’IA et en prenant la responsabilité de leurs effets.
  4. Systèmes de signalement : Des mécanismes de signalement sont mis en place pour permettre aux individus de signaler tout problème lié à l’éthique de l’IA, afin d’assurer une réponse rapide et appropriée.

En combinant ces mécanismes de surveillance et de contrôle, l’Europe vise à promouvoir une utilisation éthique de l’intelligence artificielle tout en garantissant la protection des droits fondamentaux des citoyens.

C. L’éthique de l’intelligence artificielle en Europe : Exploration des perspectives futures de l’éthique de l’intelligence artificielle en Europe, telles que l’élaboration de normes internationales, l’implication des citoyens dans les décisions liées à l’IA, le développement de technologies éthiques, etc.

L’éthique de l’intelligence artificielle en Europe est en constante évolution, et de nombreuses perspectives futures sont explorées pour renforcer cette éthique. Voici quelques-unes de ces perspectives :

  1. Élaboration de normes internationales : L’Europe cherche à jouer un rôle moteur dans l’élaboration de normes internationales en matière d’éthique de l’intelligence artificielle. Cela permettrait d’harmoniser les pratiques et de garantir un niveau élevé de responsabilité et de protection des droits des individus à l’échelle mondiale.
  2. Implication des citoyens : Il est de plus en plus reconnu que les citoyens doivent être impliqués dans les décisions liées à l’intelligence artificielle. Des consultations publiques, des débats et des mécanismes de participation citoyenne peuvent être mis en place pour permettre aux individus d’exprimer leurs préoccupations et leurs attentes concernant l’utilisation de l’IA.
  3. Développement de technologies éthiques : Les chercheurs et les développeurs se penchent de plus en plus sur la conception de technologies éthiques. Cela peut inclure la mise en place de systèmes d’intelligence artificielle qui respectent les principes d’équité, de transparence, de responsabilité et de respect de la vie privée. Des mécanismes de contrôle et de vérification peuvent également être intégrés pour s’assurer que les systèmes fonctionnent de manière éthique.
  4. Renforcement de la responsabilité : Les mécanismes de responsabilité pour l’utilisation de l’intelligence artificielle seront renforcés. Cela peut inclure des audits réguliers, des évaluations d’impact éthique et des sanctions en cas de non-conformité. Il est également possible que des certifications éthiques soient mises en place pour les entreprises et les organisations qui souhaitent utiliser l’IA de manière responsable.
  5. Sensibilisation et formation : La sensibilisation et la formation sur l’éthique de l’intelligence artificielle seront renforcées. Il s’agit de garantir que les utilisateurs, les développeurs et les décideurs comprennent les enjeux éthiques liés à l’IA et disposent des connaissances nécessaires pour prendre des décisions éclairées.

En résumé, les perspectives futures de l’éthique de l’intelligence artificielle en Europe incluent l’élaboration de normes internationales, l’implication des citoyens, le développement de technologies éthiques, le renforcement de la responsabilité et la sensibilisation et la formation. Ces initiatives visent à garantir que l’utilisation de l’IA respecte les valeurs éthiques et les droits des individus.

Pour lire une version plus complète de cet article sur l’intelligence artificielle et l’europe, cliquez

Sources :

  1. Les pays européens approuvent une première loi pour réguler l’intelligence artificielle (lemonde.fr)
  2. AI Act : en Europe, l’intelligence artificielle sera éthique – Contrepoints
  3. Intelligence artificielle : 8 géants de la tech s’engagent à appliquer la recommandation éthique de l’Unesco – ladepeche.fr

Intelligence artificielle

Woody Allen l’a dit : « L’intelligence artificielle se définit comme le contraire de la bêtise humaine ». Cette phrase, à moitié pleine d’ironie, cache en réalité un constat indéniable : celui d’une avancée exponentielle en la matière.

La peur que les machines surpassent les hommes, est avec l’intelligence artificielle, une crainte bien réelle. Quand est-il lorsque cette machine crée un dommage ? Qui peut être tenu responsable ?

NOUVEAU ! Pour tenter de faire supprimer un contenu qui pénalise vos droits, vous pouvez utiliser le service d’envoi de lettre de mise en demeure mis en place par le cabinet Murielle-Isabelle CAHEN.

Ces dernières années, l’intelligence artificielle s’est particulièrement développée et a été au cœur de nombreuses avancées. On peut notamment citer un exploit récent réalisé par l’intelligence artificielle AlphaGo créée par la société Deepmind, qui a, en 2016 été capable de batte le champion du monde de Go Lee Sedol. Ce jeu de plateau était pourtant réputé “impraticable” par une machine du fait des innombrables combinaisons possibles.

Le 26 août 2022, une œuvre entièrement générée par une intelligence artificielle a remporté le premier prix de la Colorado State Fair Fine Art Compétition, un concours d’art états-unien. (6)

Même si ces nouvelles technologies fascinent, elles ne sont pas sans risque.


Besoin de l’aide d’un avocat pour un problème d’intelligence artificielle ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien_


C’est donc naturellement qu’un débat autour de l’intelligence artificielle et plus précisément de la détermination du responsable (sur le plan civil comme pénal) dans le cadre d’un dommage causé par l’intelligence artificielle, ne fait pas encore consensus (I), il est pourtant essentiel de trouver une solution à des litiges de plus en plus fréquents (II).

I) Les enjeux du débat sur la responsabilité

Premièrement, nous devons définir précisément l’intelligence artificielle, et de ses différentes déclinaisons (A), pour ensuite se pencher sur la façon la plus pragmatique de définir le responsable en cas de litige (B).

A) L’intelligence artificielle : qu’est ce que c’est ?

Naturellement il convient avant toute chose de définir l’intelligence artificielle. Le terme générique caractérise en effet « l’ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence » .

La paternité du terme d’intelligence artificielle est attribuée à John McCarthy. Ce terme a par la suite été défini par son compère Marvin Lee Minsky comme “la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains, car elles demandent des processus mentaux de haut niveau […]”.

Cette définition résonne tout particulièrement, en ce que la notion de temporalité y est parfaitement encadrée. « Pour l’instant » : le mot est lâché, et il sonne toujours plus vrai aujourd’hui puisque le progrès scientifique en la matière n’a jamais été aussi rapide et d’actualité.

La proposition de Règlement « législation de l’IA » de 2021 défini le système d’intelligence artificielle comme un « logiciel qui est développé au moyen dune ou plusieurs des techniques et approches énumérées à lannexe I et qui peut, pour un ensemble donné dobjectifs définis par lhomme, générer des résultats tels que des contenus, des prédictions, des recommandations ou des décisions influençant les environnements avec lesquels il interagit ». (7)

Le propre de l’intelligence artificielle est d’emmagasiner de nombreuses connaissances et de constituer une base sur laquelle se fonder pour réaliser les tâches demandées, grâce à ses interactions avec l’environnement et son « expérience ».

« Tay », l’intelligence artificielle de Microsoft, est un « chatbot » qui fut lancée par l’entreprise sur le réseau Twitter et répondant parfaitement à cette définition en ce que sa mission consistait à discuter avec les internautes en s’inspirant du langage, du savoir et du comportement de ces derniers à son égard.

Pour autant, les concepteurs retirèrent du réseau le programme, après que celui-ci ait tenu des propos racistes et diffamatoires à l’encontre de la communauté, qui s’amusait à tester ses limites en faussant son apprentissage.


Besoin de l’aide d’un avocat pour un problème d’intelligence artificielle ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien_


L’intelligence artificielle se caractérise par le stockage de vastes quantités de connaissances et, par son interaction avec l’environnement et son «expérience», constitue la base pour l’exécution des tâches requises.

Le Parlement européen, dans une résolution en date du 12 février 2019 sur « la politique industrielle européenne globale sur l’intelligence artificielle et sur la robotique », tente de définir la notion d’IA et le régime juridique qui doit lui être applicable. Le Parlement abandonne l’idée de donner à l’intelligence artificielle une personnalité juridique et vient plus observer les conséquences de l’intelligence artificielle sur le régime de responsabilité civile, par exemple. En effet, le droit de la responsabilité civile doit être adapté pour « tenir compte de l’intelligence artificielle et de la robotique ».

Dans un projet de règlement sur l’IA présenté en avril 2021, l’Union européenne vient confirmer cette position et refuse d’accorder la personnalité juridique à l’IA.

Ce projet apporte tout de même un certain cadre juridique. Il est prévu plusieurs niveaux d’intelligence artificielle selon les risques de cette dernière sur l’humain. Le premier niveau correspond aux IA avec un risque inacceptable. Ces IA sont interdites en raison de leur système qui pourrait par exemple « manipuler les personnes au moyen de techniques subliminales afin de modifier leur comportement ce qui causerait un préjudice à la personne ou un tiers ». Ce type d’IA concerne également le scoring social portant une atteinte disproportionnée à la liberté des personnes.

Le second niveau concerne les IA avec un risque élevé. Elles sont autorisées, mais elles doivent s’accompagner de mesures importantes pour démontrer que cette IA est bien conforme aux mesures de sécurité imposées en raison du niveau élevé de risque. Le troisième niveau est l’IA à faible risque, elle devra respecter un guide de conduite. Le dernier niveau concerne les IA à risques minimes qui ne font l’objet d’aucune exigence.

Le Parlement européen et le Conseil de l’Union européenne ont trouvé un accord sur le texte du projet de loi le 8 décembre 2023. Le 13 mars dernier, les députés européens ont approuvé ce texte par 523 votes pour 46 contre et 49 abstentions, faisant de cette proposition la première loi sur l’intelligence artificielle dans le monde. Le règlement est actuellement en phase de vérification finale par un expert en droit et linguistique, avant son adoption officielle par le Conseil. (8)

B) Comment déterminer un responsable ?

Par définition, et comme l’affirment certains, « la responsabilité civile du fait d’un individu ou d’une chose est inhérente à l’action humaine […] Seul l’individu est responsable de ses décisions conduisant aux actes et aux conséquences malencontreuses induites par la faillibilité humaine » .

Dès lors, la responsabilité du fait des choses place aujourd’hui l’objet sous la garde de celui qui en dispose par un pouvoir d’usage, de direction et de contrôle, et responsabilise donc ce dernier lorsque l’objet en question se trouve impliqué dans le fait dommageable.

Une telle réflexion pose problème, en effet, bien qu’elle s’applique parfaitement à toutes sortes d’objets, elle n’est pas adaptée à l’intelligence artificielle, car par définition, l’homme n’a pas (pleinement, du moins) les pouvoirs précités.

Le problème d’une telle réflexion, c’est qu’elle s’applique parfaitement à toute sorte d’objets, mais pas vraiment à l’intelligence artificielle sur lequel, par définition, l’homme n’a pas (pleinement, du moins) les pouvoirs précités.

L’intelligence artificielle, amenée à fonctionner de manière autodidacte, conserve naturellement cette part d’indétermination et d’imprévisibilité qui met en péril une telle responsabilisation de l’homme.

Stéphane Larrière affirme très justement que : « Dès lors, l’homme laisse la main à l’intelligence artificielle dans l’exercice de ses facultés augmentées par ce complément cognitif : il se réalise alors une sorte de délégation conférée à la machine pour décider et faire à sa place ».

Par conséquent, le régime qui semble être le plus favorable est celui de la responsabilité sans faute, celle du fait d’autrui, celle “permettant d’imputer les frais du dommage à celui qui était le mieux placé, avant le dommage, pour contracter l’assurance destinée à garantir le risque” (G. Viney, Introduction à la responsabilité, Traité de droit civil, LGDJ 2008, p.40).

Néanmoins, au vu de la multitude de cas possibles, cette détermination n’est pas des plus aisée.

Le rapport de la Commission européenne portant sur les conséquences de l’intelligence artificielle, de l’internet des objets et de la robotique sur la sécurité s’est attelé à la question de la responsabilité. La Commission retient que « bien que la directive sur la responsabilité du fait des produits donne une définition large de la notion de produit, celle‑ci pourrait être précisée pour mieux traduire la complexité des technologies ». Par conséquent, la Commission européenne considère qu’en matière d’intelligence artificielle,  le régime de la responsabilité du fait des choses n’a pas à s’appliquer.

Une proposition de nouvelle directive sur la responsabilité du fait des produits défectueux a été adoptée le 28 septembre 2022. La commission européenne, qui en est à l’origine, a fait le constat que le régime de responsabilité du fait des produits née de la directive 85/374 de 1985, n’est plus adapté pour les produits complexes tels que l’IA. Elle tente alors de modifier ce régime, notamment en restreignant le champ d’application des victimes, et en étendant celui des responsables. (9)

II) Un débat de plus en plus fréquent

Si les accidents liés aux voitures autonomes sont fréquents ces derniers temps (A), ne sont pas à exclure les risques liés aux autres formes d’intelligences artificielles (B).

A) Le cas des voitures autonomes

La détermination d’une telle responsabilité est un débat que l’actualité place régulièrement sur le devant de la scène médiatique, et souvent pour le pire. C’est le secteur de l’automobile qui en fait les frais aujourd’hui ; deux accidents auront marqué les esprits ces dernières semaines.

Le premier, survenu le 19 mars dernier en Arizona, concerne l’entreprise Uber. Suite à des tests sur la voie publique, l’un de ses modèles autonomes a percuté un piéton, décédé par la suite de ses blessures.

Le système de l’automobile mis en cause, n’ayant pas activé le système de freinage avant l’impact, a contraint la société de suspendre ses activités dans le domaine . Pour autant, celle-ci soutient que l’automobiliste est à mettre en cause dans l’affaire.

Le deuxième accident récent concerne cette fois-ci Tesla et son modèle X, au volant de laquelle est décédé un conducteur 4 jours après le drame précédent.

Encore une fois, l’autopilote se trouve au cœur des débats, et si la famille de la victime accuse l’entreprise, celle-ci se dédouane de toute responsabilité en soulignant que la victime « n’avait pas les mains sur le guidon au moment de l’accident », et contre toute indication de la voiture l’invitant à prendre de telles mesures.

Le 12 février 2019, le Parlement européen a rendu une résolution dans laquelle elle vient aborder la question des voitures automatiques en disposant que « la prévalence de véhicules autonomes présentera des risques […] de défaillances techniques et va transférer à l’avenir la responsabilité du conducteur vers le fabricant, imposant aux compagnies d’assurances de modifier la manière dont elles intègrent le risque dans leur souscription ».
Ces affaires mettent en lumière tout l’enjeu de l’autonomie de l’intelligence artificielle face au pouvoir de contrôle du conducteur sur la chose, dans la détermination du responsable du fait dommageable.

Le 14 avril 2021, une ordonnance est venue prévoir un nouveau régime de responsabilité pénale applicable pour les véhicules à délégation de conduite. Par la suite, le gouvernement a précisé par décret le 29 juin 2021  les modalités d’application de l’ordonnance.

L’article 123-1 du Code de la route prévoit désormais que la responsabilité pénale du conducteur ne sera pas retenue dans le cas où l’infraction commise serait le résultat d’une manœuvre d’un véhicule dont les fonctions sont totalement déléguées à un système automatisé, si, au moment des faits ce système exerçait le contrôle dynamique du véhicule.

L’article 123-2 de ce même Code prévoit en revanche que la responsabilité pénale du constructeur sera quant à elle retenue. Le constructeur est tenu responsable des atteintes involontaires à la vie et à l’intégrité des personnes. Sa responsabilité sera retenue, si l’existence d’une faute est établie au moment où l’IA exerçait le contrôle dynamique du véhicule. Également,  dès lors qu’il y a un défaut de conception, le constructeur sera tenu responsable.

Pendant la session plénière à Strasbourg le 15 janvier 2018, le député néerlandais Win Van de Camp, membre du parti démocrate-chrétien, a présenté un rapport d’initiative sur la conduite autonome qui a été soumis au vote durant une session plénière à Strasbourg. (10)

B) D’autres risques potentiels à envisager

Il existe également d’autres circonstances ou les questions de responsabilité civile ou pénale se posent.

L’exemple de l’intelligence artificielle “Tay” qui a déjà été cité laisse penser que l’on pourrait voir un jour survenir un litige portant sur des propos dénigrants, voir du harcèlement avec pour origine de ces délits, l’intelligence artificielle.

Il faut également se questionner sur les assistants personnels intelligents comme Siri, Alexa, ou encore Google Home, définis comme des  “agents logiciel qui peuvent effectuer des tâches ou des services pour un individu” .

L’utilisation quotidienne qui est faite de ces technologies par leur propriétaire repose sur le fait d’effectuer des actions simples (lancer une playlist, envoyer un message ou encore passer un appel). Cependant, ces assistants personnels intelligents peuvent aussi  être utilisés pour effectuer des recherches plus complexes, avec degré d’importance de la réponse qui peut varier, et par conséquent avoir un impact plus ou moins grave en cas d’erreur.

Une actualité récente démontre bien ces risques. En effet, en décembre 2021, c’est l’assistant vocal d’Alexa qui s’est retrouvé au cœur d’une polémique. Ce dernier a dû faire l’objet d’une mise à jour d’urgence par Amazon. Un enfant avait demandé à Alexa de lui proposer des défis à réaliser. L’assistant intelligent d’Amazon a proposé à l’enfant de jouer avec une prise électrique.

Bien que l’enfant se porte bien aujourd’hui, cette affaire force à se poser des questions quant à la responsabilité des assistants personnels intelligents.

Ces technologies vont être utilisées dans des domaines tels que le médical par exemple qui ne laisse pas de place à l’erreur. La question sur la détermination d’un responsable pourrait se poser, dans le cas où la machine apporterait un résultat erroné à un calcul. Mais la question est complexe, car bien souvent, de toute façon, ce calcul n’était pas réalisable par l’Homme.

L’ONU a adoptée une première résolution sur l’intelligence artificielle le 21 mars 2024. Celle-ci a encouragé l’adoption de normes internationales visant à garantir des outils « sûrs » et respectant les droits humains. (11)

On en revient à cette idée de délégation soulevée plus haut. Reste à savoir quels critères prédomineront en la matière, à mesure des avancées technologies, mais aussi, malheureusement, à mesure de la variété des accidents…

Pour lire une version plus adaptée au mobile de cet article sur l’intelligence artificielle, cliquez

SOURCES :
(1) http://www.larousse.fr/encyclopedie/divers/intelligence_artificielle/187257
(2) http://laloidesparties.fr/responsabilite-ia
(3) G. Viney, Introduction à la responsabilité, Traité de droit civil, LGDJ 2008, p.40
(4) https://www.numerama.com/business/336940-uber-suspend-ses-activites-dans-la-voiture-autonome-apres-un-mort.html
(5) https://fr.wikipedia.org/wiki/Assistant_personnel_intelligent
Résolution du Parlement européen du 12 février 2019 sur une politique industrielle européenne globale sur l’intelligence artificielle et la robotique
https://www.europarl.europa.eu/doceo/document/TA-8-2019-0081_FR.html
Livre Blanc sur l’intelligence artificielle du 19 février 2020
https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_fr.pdf
https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000043370894
https://www.legifrance.gouv.fr/codes/section_lc/LEGITEXT000006074228/LEGISCTA000043371833/#LEGISCTA000043371833
(6)  https://www.village-justice.com/articles/prompt-art-intelligence-artificielle-droit-auteur-guide-pratique,43649.html
(7) https://eur-lex.europa.eu/legal-content/FR/TXT/HTML/?uri=CELEX:52021PC0206#:~:text=La%20proposition%20%C3%A9tablit%20des%20r%C3%A8gles,%C3%A0%20l’%C3%A9preuve%20du%20temps
(8) https://www.vie-publique.fr/questions-reponses/292157-intelligence-artificielle-le-cadre-juridique-europeen-de-lia
(9) https://www-dalloz-fr.ezpum.scdi-montpellier.fr/documentation/Document?id=NOTE_DZ%2FPRECIS%2FDROITDES-ACTIVITESNUMERIQUES%2F2023%2FPARA%2F1407_1&ctxt=0_YSR0MD1MYSBwcm9wb3NpdGlvbiBkZSBSw6hnbGVtZW50IGzDqWdpc2xhdGlvbiBkZSBs4oCZSUHCoMKneCRzZj1zaW1wbGUtc2VhcmNo&ctxtl=0_cyRwYWdlTnVtPTHCp3MkdHJpZGF0ZT1GYWxzZcKncyRzb3J0PSNkZWZhdWx0X0Rlc2PCp3Mkc2xOYlBhZz0yMMKncyRpc2Fibz1UcnVlwqdzJHBhZ2luZz1UcnVlwqdzJG9uZ2xldD3Cp3MkZnJlZXNjb3BlPUZhbHNlwqdzJHdvSVM9RmFsc2XCp3Mkd29TUENIPUZhbHNlwqdzJGZsb3dNb2RlPUZhbHNlwqdzJGJxPcKncyRzZWFyY2hMYWJlbD3Cp3Mkc2VhcmNoQ2xhc3M9&scrll=DZ%2FPRECIS%2FDROITDES-ACTIVITESNUMERIQUES%2F2023%2FPARA%2F1410
(10) https://www.europarl.europa.eu/topics/fr/article/20190110STO23102/vehicules-autonomes-dans-l-ue-de-la-science-fiction-a-la-realite
(11) https://www.rtl.fr/actu/debats-societe/l-assemblee-generale-de-l-onu-appelle-a-reguler-l-intelligence-artificielle-7900366119