intelligence artificielle

L’intelligence artificielle transforme les photos d’adolescents en pièges dangereux

À première vue, une photo d’adolescent publiée sur un réseau social semble anodine. Un sourire, une pose, un instant de vie partagé avec des amis ou une communauté numérique.
NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire et un avocat enverra une lettre de mise en demeure !

Pourtant, dans l’écosystème technologique actuel, cette image n’est plus seulement un souvenir ou un moyen d’expression : elle devient une donnée exploitable, duplicable et transformable à l’infini. À l’ère de l’intelligence artificielle générative, une photographie peut être détournée de son sens initial et utilisée comme un outil de manipulation, de domination ou de violence.

Les adolescents, grands utilisateurs des réseaux sociaux, constituent une population particulièrement exposée. En pleine construction identitaire, ils livrent une part importante de leur image en ligne, souvent sans en mesurer les implications futures. Or, ces images alimentent aujourd’hui des technologies capables de reproduire un visage, de simuler des gestes ou d’inventer des situations avec un réalisme troublant. Les deepfakes, longtemps cantonnés à des usages expérimentaux ou artistiques, sont désormais accessibles à tous. Selon un rapport de Sensity AI, plus de 90 % des deepfakes diffusés en ligne sont de nature pornographique, et une part croissante concerne des personnes très jeunes, parfois mineures.

Ce détournement de l’image s’inscrit dans une dynamique plus large de violences numériques : cyberharcèlement, chantage, sextorsion, atteintes à la vie privée. Ce qui distingue ces nouvelles formes de violence, c’est leur caractère automatisé, massif et souvent anonyme. L’intelligence artificielle agit comme un multiplicateur de nuisance, accentuant l’écart entre la vulnérabilité des adolescents et la puissance des outils à disposition de leurs agresseurs.


Besoin de l’aide d’un avocat pour un problème de contrefaçon ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien


Dès lors, une question fondamentale se pose : comment une simple photo peut-elle devenir une arme numérique ? Et dans quelle mesure nos sociétés sont-elles préparées à protéger les adolescents face à des technologies capables de produire des violences invisibles, mais profondément destructrices ?

I – Une jeunesse surexposée dans un écosystème visuel automatisé

A – Les réseaux sociaux comme fabrique de visibilité permanente

La surexposition des adolescents sur les réseaux sociaux n’est plus un phénomène marginal : elle constitue désormais une norme sociale. À l’adolescence, période charnière de construction identitaire, l’image joue un rôle central. Se montrer, se comparer, être vu et reconnu sont des besoins profondément ancrés dans cette tranche d’âge. Les plateformes numériques ont parfaitement intégré ces ressorts psychologiques et les exploitent à travers des interfaces conçues pour encourager le partage visuel constant.

Selon l’Organisation mondiale de la santé, l’adolescence est une phase de vulnérabilité émotionnelle accrue, où l’estime de soi dépend fortement du regard des autres

Or, sur les réseaux sociaux, ce regard est quantifié : likes, commentaires, partages. Chaque photo devient un indicateur de valeur sociale. Cette logique pousse de nombreux adolescents à publier toujours plus d’images, parfois très personnelles, sans toujours mesurer les implications à long terme.

Les plateformes comme TikTok ou Instagram favorisent particulièrement les contenus mettant en avant le visage et le corps. Les algorithmes de recommandation privilégient les visages reconnaissables, expressifs, bien éclairés — exactement les conditions idéales pour l’entraînement et l’exploitation par des systèmes d’intelligence artificielle

À cela s’ajoute un phénomène préoccupant : la décontextualisation de l’image. Une photo prise dans un cadre intime ou amical peut être sortie de son contexte initial, copiée, sauvegardée, redistribuée ailleurs, parfois des années plus tard. Pour un adolescent, une image publiée à 13 ans peut ressurgir transformée à 16 ou 17 ans, dans un contexte radicalement différent.

Enfin, il est important de souligner que cette surexposition n’est pas toujours volontaire. Parents, proches, établissements scolaires participent parfois à cette mise en visibilité involontaire, via ce que les chercheurs appellent le sharenting (partage parental de photos d’enfants)

Ainsi, bien avant d’avoir conscience de leur identité numérique, certains adolescents disposent déjà d’une empreinte visuelle exploitable.

B – L’image adolescente comme donnée exploitable par l’IA

Là où une photo semblait autrefois figée et inoffensive, l’intelligence artificielle lui confère aujourd’hui une plasticité inquiétante. Grâce aux progrès de l’IA générative, une image peut être modifiée, animée, recomposée ou insérée dans un autre contexte avec un réalisme saisissant.

Les deepfakes reposent sur des modèles capables d’apprendre les traits d’un visage à partir de quelques images seulement. Une poignée de photos publiques suffit à générer des vidéos ou des images dans lesquelles la personne semble dire ou faire des choses qu’elle n’a jamais dites ou faites.

Dans le cas des adolescents, les usages malveillants sont multiples :

  • Humiliation publique : insertion du visage dans des scènes dégradantes ou ridicules, diffusées dans un cadre scolaire ou communautaire.
  • Deepfakes pornographiques : phénomène particulièrement alarmant, touchant majoritairement des filles mineures, dont les visages sont collés sur des corps d’adultes dans des contenus sexuels.
  • Sextorsion : chantage à la diffusion d’images truquées, parfois utilisé pour obtenir de l’argent ou des images réelles supplémentaires.
  • Faux profils : usurpation d’identité à des fins de manipulation, de moquerie ou d’escroquerie.

Le caractère destructeur de ces pratiques tient au fait que l’image falsifiée est perçue comme une preuve, même lorsqu’elle est fausse. Dans l’imaginaire collectif, « voir, c’est croire ». Cette crédibilité visuelle rend la défense des victimes extrêmement difficile.

De plus, l’IA permet une industrialisation de la violence numérique. Là où un montage photo demandait autrefois du temps et des compétences, il est aujourd’hui possible de produire des dizaines de contenus truqués en quelques minutes.

Les conséquences psychologiques sont lourdes. Plusieurs études montrent un lien direct entre cyberharcèlement visuel et :

  • anxiété sévère
  • dépression
  • troubles du sommeil
  • idées suicidaires

Dans ce contexte, la photo devient une arme non pas par sa nature, mais par l’usage technologique et social qui en est fait.

II – La transformation de l’image en outil de violence numérique

A – Deepfakes, pornographie truquée et nouvelles formes de cyberviolence

Sur le plan juridique, la protection des adolescents face à ces dérives se heurte à plusieurs obstacles majeurs. Certes, le droit à l’image, la protection de la vie privée et la lutte contre la pédocriminalité sont inscrits dans la loi. Mais l’IA bouleverse profondément ces cadres traditionnels.

Le Règlement général sur la protection des données (RGPD) reconnaît les données biométriques — dont le visage — comme des données sensibles

Cependant, son application face aux deepfakes est complexe :

  • Qui est responsable lorsque l’image est générée par une IA open source ?
  • Comment identifier l’auteur réel d’un contenu diffusé anonymement ?
  • Comment agir lorsque les serveurs sont situés hors de l’Union européenne ?

De nombreux contenus illégaux circulent pendant des semaines avant d’être retirés, malgré les signalements. Pour une victime adolescente, chaque jour compte : le temps numérique n’est pas neutre, il aggrave le traumatisme.

Les forces de l’ordre et les magistrats manquent encore de formation spécialisée sur les technologies d’IA, même si des initiatives émergent.

L’AI Act européen marque une avancée importante en classant certains usages de l’IA comme « à haut risque », mais son efficacité dépendra de sa mise en œuvre concrète et de sa capacité à évoluer face à des technologies en constante mutation.

B – Impacts psychologiques, sociaux et identitaires sur les mineurs

Face à une menace aussi diffuse et rapide, la réponse ne peut être uniquement répressive. Elle doit être préventive, éducative et collective.

L’éducation au numérique apparaît comme un levier essentiel. Il ne s’agit pas de culpabiliser les adolescents pour leurs usages, mais de leur donner des clés de compréhension :

  • comprendre ce qu’est une IA générative
  • savoir qu’une image peut être réutilisée indéfiniment
  • connaître ses droits et les démarches de signalement

Des programmes d’éducation aux médias et à l’information (EMI) sont déjà mis en place dans les établissements scolaires, mais restent souvent insuffisants face à la rapidité des évolutions technologiques.

Les plateformes numériques ont également une responsabilité majeure. Certaines développent des outils de détection automatique des deepfakes, mais ces systèmes restent imparfaits. La logique économique — maximiser l’engagement — entre parfois en conflit avec la protection des utilisateurs les plus jeunes.

Enfin, les concepteurs d’IA doivent être pleinement intégrés à la réflexion éthique. Former des modèles capables de refuser la génération de contenus impliquant des mineurs est une nécessité absolue. L’OCDE insiste sur le principe de « responsabilité humaine » dans le développement de l’IA.

Pour lire une version plus complète de cet article sur les photos d’ados et l’IA, cliquez

Sources :

  1. https://sensity.ai/reports/
  2. https://www.who.int/news-room/fact-sheets/detail/adolescent-mental-health
  3. https://algorithmwatch.org/en/
  4. https://www.cnil.fr/fr/thematiques/enfants-et-ados
  5. L’UE enquête sur le X d’Elon Musk à propos des deepfakes sexuels IA de Grok
  6. FAQ | Conseil européen de protection des données
  7. Aperçu des principes de l’IA – OCDE. IA

 

Les caméras face à l’intelligence artificielle : comment l’IA fragilise les preuves en justice.

L’évolution des technologies numériques a profondément transformé les modes de preuve admis en justice, redéfinissant progressivement les hiérarchies traditionnelles du droit probatoire.
NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire et un avocat enverra une lettre de mise en demeure !

Après avoir longtemps reposé sur la suprématie de l’écrit, la preuve judiciaire s’est enrichie de supports techniques variés, parmi lesquels la vidéo occupe désormais une place centrale. Par sa capacité à capter simultanément l’image, le son, le mouvement et le contexte spatio-temporel, la preuve audiovisuelle apparaît comme un instrument particulièrement apte à restituer la matérialité des faits litigieux, suscitant une forte adhésion tant chez les justiciables que chez les magistrats. Elle est ainsi fréquemment perçue comme une traduction fidèle, sinon immédiate, de la réalité.

Cette confiance repose sur une représentation profondément ancrée selon laquelle l’image animée constituerait un témoignage objectif des événements. Or, cette croyance se heurte aujourd’hui à une remise en cause technologique sans précédent. Les progrès de l’intelligence artificielle, et plus spécifiquement des techniques de manipulation automatisée de contenus audiovisuels, permettent désormais de produire des vidéos d’un réalisme troublant, mettant en scène des situations ou des comportements entièrement fictifs. Les deepfakes illustrent avec acuité cette capacité nouvelle à dissocier l’image de toute réalité factuelle, fragilisant ainsi l’autorité probatoire traditionnellement attachée à la vidéo.

Cette mutation technologique place la preuve vidéo au cœur d’une tension juridique majeure. Si elle demeure largement mobilisée dans le cadre des procédures civiles et pénales, sa fiabilité ne peut plus être présumée avec la même évidence qu’auparavant. L’image, autrefois perçue comme un vecteur de vérité, devient un objet de suspicion, susceptible de manipulation indétectable à l’œil nu. Cette situation affecte directement les fondements du droit de la preuve, qui repose sur la confiance dans les instruments permettant d’établir les faits et sur la sécurité juridique des décisions rendues.


Besoin de l’aide d’un avocat pour un problème de contrefaçon ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien


Conscients de ces enjeux, les pouvoirs publics et les juridictions tentent d’apporter des réponses normatives et pratiques. L’Union européenne s’est engagée dans une démarche de régulation à travers le Règlement sur l’intelligence artificielle (AI Act), visant notamment à encadrer les usages à risque de l’IA et à renforcer la transparence des contenus générés ou modifiés artificiellement. Parallèlement, le juge est conduit à renouveler son approche de la preuve audiovisuelle, en renforçant le recours à l’expertise et en intégrant de nouveaux critères d’appréciation de l’authenticité.

Dès lors, la question n’est plus de savoir si la vidéo conserve une place dans le système probatoire, mais dans quelles conditions elle peut encore prétendre à une force probante crédible à l’ère de l’intelligence artificielle. Il s’agit ainsi d’interroger la capacité du droit de la preuve à s’adapter à ces bouleversements technologiques sans renoncer à ses exigences fondamentales de vérité, d’équité et de sécurité juridique.

I – La consécration juridique de la preuve vidéo comme instrument privilégié de manifestation de la vérité

A – La reconnaissance progressive de la vidéo comme mode de preuve à forte valeur persuasive

La singularité de la preuve vidéo tient à sa capacité exceptionnelle à restituer les faits litigieux dans leur globalité spatio-temporelle. Là où l’écrit fragmente la réalité par le langage, et où le témoignage reconstruit les événements a posteriori à travers le prisme de la mémoire humaine, la vidéo donne à voir une séquence continue d’actions, de paroles et d’interactions. Elle offre une représentation simultanée du comportement des protagonistes, de leur environnement matériel et du déroulement chronologique des faits, conférant à la preuve une densité informationnelle inégalée.

Cette richesse perceptive produit un effet cognitif puissant sur le juge. De nombreuses études ont démontré que l’image animée induit un phénomène de « présence », donnant l’impression d’assister directement aux faits plutôt que d’en prendre connaissance par un intermédiaire narratif. Cette impression de réalité immédiate réduit mécaniquement la distance critique du spectateur et renforce la force de conviction de la preuve. En pratique judiciaire, la vidéo tend ainsi à occuper une place centrale dans le raisonnement probatoire, parfois au détriment d’une analyse plus distanciée de sa fiabilité intrinsèque.

Sur le plan juridique, cette puissance persuasive s’est traduite par une reconnaissance progressive et extensive de la preuve vidéo. En droit pénal, le principe de liberté de la preuve permet l’admission de tout élément susceptible de contribuer à la manifestation de la vérité, sous réserve du respect de la loyauté de la preuve et des droits fondamentaux. Les vidéos de surveillance, les enregistrements réalisés par des particuliers ou les captations issues de dispositifs embarqués sont ainsi devenus des éléments probatoires majeurs dans de nombreuses affaires.

En droit civil, bien que le régime de la preuve soit historiquement dominé par l’écrit, la jurisprudence a progressivement admis la vidéo comme mode de preuve complémentaire, voire principal dans certaines hypothèses, notamment lorsque l’écrit est matériellement impossible à produire. Cette évolution témoigne d’un glissement profond du droit de la preuve vers une logique pragmatique, privilégiant l’efficacité probatoire et la recherche de la vérité sur le formalisme strict.

Enfin, la vidéo exerce une autorité symbolique particulière. Elle est perçue comme une preuve « moderne », objective et technologique, en adéquation avec une société de l’image. Cette dimension symbolique renforce encore sa légitimité aux yeux des juridictions, contribuant à faire de la preuve vidéo un pilier du contentieux contemporain.

B – La construction d’une confiance probatoire fondée sur la présomption d’authenticité technique de l’image animée

La confiance accordée à la preuve vidéo repose également sur un contexte technologique particulier. Pendant plusieurs décennies, la falsification audiovisuelle a été perçue comme un phénomène marginal, réservé à des professionnels disposant de compétences spécialisées et de moyens techniques importants. Les opérations de montage, de trucage ou de manipulation étaient longues, coûteuses et généralement détectables, notamment en cas d’analyse experte.

Les juridictions se sont appuyées sur un ensemble de critères techniques pour apprécier l’authenticité des vidéos : continuité des séquences, cohérence des ombres et des sources lumineuses, synchronisation entre l’image et le son, analyse des métadonnées, examen du support d’enregistrement et de la chaîne de conservation. L’expertise audiovisuelle et numérique offrait des garanties solides contre la fraude, renforçant la présomption de fiabilité attachée à l’image animée.

Cette maîtrise humaine de la falsification constituait un élément clé. Le montage impliquait nécessairement une intervention visible, laissant des traces techniques ou esthétiques. La manipulation demeurait une activité intentionnelle, identifiable et relativement rare. Dans ce contexte, la production d’une vidéo en justice était perçue comme un acte engageant fortement la crédibilité de son auteur, tant le risque de détection d’une fraude était élevé.

Progressivement, cette situation a contribué à instituer une véritable présomption implicite d’authenticité de la preuve vidéo. Sans être juridiquement consacrée, cette présomption fonctionnait en pratique : contester une vidéo apparaissait difficile, voire vain, sauf à démontrer de manière précise une altération manifeste. Le juge, tout en conservant son pouvoir souverain d’appréciation, accordait souvent à la vidéo un crédit supérieur aux autres moyens de preuve.

Cette construction jurisprudentielle et culturelle explique pourquoi la vidéo a longtemps été qualifiée, sinon de preuve incontestable, du moins de preuve particulièrement robuste. Or, c’est précisément cette robustesse supposée que l’intelligence artificielle vient aujourd’hui fragiliser de manière radicale.

II – La déstabilisation contemporaine de la preuve vidéo face aux technologies d’intelligence artificielle

A – La rupture du paradigme de l’image-trace : deepfakes, doute technologique et crise de confiance probatoire

L’essor de l’intelligence artificielle générative constitue une rupture technologique et conceptuelle majeure dans l’histoire de la preuve. Les deepfakes, fondés sur des algorithmes d’apprentissage profond, permettent de créer ou de modifier des vidéos avec un niveau de réalisme tel qu’il devient extrêmement difficile, voire impossible, de distinguer le vrai du faux sans outils spécialisés. Contrairement aux montages traditionnels, ces contenus ne reposent plus sur une juxtaposition visible d’éléments, mais sur une génération algorithmique continue de l’image et du son.

Cette évolution rompt le lien historique entre l’image et l’événement réel. Là où la vidéo était traditionnellement perçue comme la trace d’un fait ayant existé, elle devient désormais une construction potentiellement fictive, sans ancrage dans la réalité. Cette rupture affecte directement la logique probatoire, fondée sur l’idée que la preuve est la manifestation indirecte d’un fait objectif.

Dans le champ judiciaire, les deepfakes introduisent un double risque. D’une part, celui de la production de preuves falsifiées visant à tromper le juge, à incriminer injustement une personne ou à influencer l’issue d’un procès. D’autre part, celui de la contestation systématique de preuves authentiques, au motif qu’elles pourraient avoir été manipulées. Ce phénomène, qualifié de « dividende du menteur », permet à une partie de semer le doute sans avoir à démontrer positivement la falsification.

Cette situation conduit à une crise de confiance généralisée dans l’image numérique. Le juge est confronté à une incertitude nouvelle : la vidéo, autrefois facteur de clarification du débat probatoire, devient un élément ambigu, nécessitant une vigilance accrue. Le procès risque alors de se déplacer du terrain des faits vers celui de la crédibilité technologique, complexifiant considérablement l’office du juge.

Au-delà du contentieux individuel, cette crise interroge la fonction même de la preuve dans l’ordre juridique. Si l’image ne peut plus être tenue pour un reflet fiable de la réalité, c’est l’ensemble du système probatoire qui se trouve fragilisé, avec des conséquences potentielles sur la sécurité juridique et la confiance des citoyens dans la justice.

B – L’émergence d’un nouveau régime probatoire conditionné : sécurisation technique et réévaluation judiciaire de la vidéo

Face à ces défis, le droit de la preuve est contraint d’évoluer. La vidéo ne peut plus être appréhendée comme une preuve autosuffisante, dont la seule production suffirait à établir la réalité des faits. Sa valeur probante tend désormais à être conditionnée par l’existence de garanties techniques, juridiques et procédurales renforcées.

La première réponse réside dans la corroboration probatoire. La vidéo doit être confrontée à d’autres éléments de preuve : témoignages concordants, données techniques indépendantes, géolocalisation, logs numériques, analyses forensiques. Cette approche plurielle permet de réduire le risque d’erreur ou de manipulation.

Par ailleurs, de nouvelles solutions technologiques sont explorées afin de sécuriser la preuve vidéo en amont. L’horodatage certifié, la signature numérique, la traçabilité des fichiers et l’utilisation de technologies de registre distribué visent à garantir l’intégrité et l’authenticité des enregistrements dès leur création. Ces dispositifs ne rendent pas la falsification impossible, mais ils en augmentent considérablement le coût et la détectabilité.

Sur le plan normatif, le législateur s’efforce également d’encadrer l’usage de l’intelligence artificielle, notamment en imposant des obligations de transparence, de traçabilité et d’étiquetage des contenus générés artificiellement. L’objectif est double : prévenir les usages frauduleux et restaurer la confiance dans les contenus audiovisuels licites.

Ainsi, la preuve vidéo ne disparaît pas du paysage judiciaire, mais elle change de nature. Elle cesse d’être une preuve incontestable par principe pour devenir une preuve contextuelle et conditionnée, dont la force dépend de son environnement technique et juridique. Cette transformation marque une évolution profonde du droit de la preuve, appelé à intégrer durablement les défis posés par l’intelligence artificielle tout en préservant sa finalité essentielle : la recherche de la vérité dans un cadre équitable et sécurisé.

Pour lire une version plus complète de cet article sur la preuve et l’IA, cliquez

 

Sources :

  1. La vidéo en tant que moyen de preuve incontestable face au défi de l’intelligence artificielle. Par Ahmed Benattou.
  2. Approche européenne de l’intelligence artificielle | Façonner l’avenir numérique de l’Europe
  3. Les modes de preuve en droit pénal : entre rigueur et évolution – J’ai des droits

 

Article 26 du règlement Européen l’Intelligence Artificielle : pas de référent (Délégué à l’Intelligence Artificielle) expressément désigné dans une entreprise

L’encadrement juridique de l’intelligence artificielle (IA) au sein de l’Union européenne, est matérialisé par le Règlement sur l’Intelligence Artificielle (RIA). Ce cadre réglementaire, qui sera progressivement appliqué entre 2025 et 2027, vise à établir des normes claires afin de protéger les droits des individus tout en favorisant l’innovation technologique.
NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire et un avocat enverra une lettre de mise en demeure !

L’article 26 de ce règlement, relatif aux obligations de conformité pour les fournisseurs et utilisateurs de systèmes d’IA à haut risque, cristallise une ambiguïté notable : l’absence d’une exigence explicite de désignation d’un référent interne dédié à l’IA, analogue au délégué à la protection des données (DPD) prévu par le Règlement général sur la protection des données (RGPD).

Il convient de rappeler que le RGPD impose, dans son article 37, la désignation d’un Délégué à la Protection des Données (DPD) pour les organismes qui traitent des données à caractère personnel, et ce, dans des conditions bien définies. Le DPD, en tant que référent interne, assume un rôle central en matière de conformité, de conseil et de sensibilisation, garantissant ainsi que les pratiques de traitement des données respectent les droits des personnes concernées. Cette structure de gouvernance, par son caractère obligatoire, a permis d’établir un cadre clair de responsabilité et de transparence au sein des entreprises, renforçant la confiance des consommateurs et des partenaires d’affaires.


Besoin de l’aide d’un avocat pour un problème de rgpd et d’IA ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien


Cette omission, loin d’être anodine, soulève des interrogations quant à l’effectivité des mécanismes de gouvernance et de conformité au sein des entreprises, ainsi que sur les risques juridiques encourus en cas de manquement aux obligations substantielles imposées par le législateur européen. En premier lieu, il convient de rappeler que le RIA, inspiré par une logique de *risk-based approach*, impose des obligations proportionnées au niveau de risque associé à chaque système d’IA. Les systèmes classés comme « à haut risque » (annexe III du RIA), tels que ceux utilisés dans le recrutement, l’éducation, ou la gestion des infrastructures critiques, sont soumis à un corpus exigeant de règles préalables à leur mise sur le marché (ex. : documentation technique, systèmes de gestion des risques, conformité aux exigences éthiques).

L’article 26, en particulier, prévoit que les fournisseurs et utilisateurs de ces systèmes doivent garantir la surveillance continue de leur conformité tout au long de leur cycle de vie. Toutefois, contrairement au RGPD, qui impose expressément la désignation d’un DPD sous certaines conditions (article 37 RGPD), le RIA ne prescrit pas de manière impérative la nomination d’un « délégué à l’intelligence artificielle ».

Cette absence de formalisation d’un référent dédié pourrait être interprétée comme une flexibilité laissée aux opérateurs économiques pour organiser leur conformité selon des modalités adaptées à leur structure. Néanmoins, elle suscite des craintes quant à la fragmentation des pratiques et à l’émergence de lacunes dans la traçabilité des décisions algorithmiques. Par exemple, une entreprise exploitant un système d’IA à haut risque dans le domaine de la santé, tel qu’un outil de diagnostic médical automatisé, pourrait se contenter de répartir les responsabilités de conformité entre plusieurs services (juridique, technique, qualité), sans qu’un acteur unique ne coordonne l’ensemble des diligences requises par le RIA (ex. : audits, documentation des biais algorithmiques, signalement des incidents).

Une telle approche, bien que potentiellement conforme *in abstracto* à l’article 26, risquerait de compromettre la cohérence des processus de conformité, augmentant ainsi les risques de contentieux liés à la responsabilité civile ou administrative. En outre, cette lacune normative contraste avec les orientations jurisprudentielles et doctrinales récentes, qui soulignent l’importance de mécanismes de gouvernance internalisés pour les technologies disruptives. À titre d’illustration, la Cour de justice de l’Union européenne (CJUE), dans l’arrêt *Wirtschaftsakademie Schleswig-Holstein* (C‑210/16), a rappelé l’importance d’une responsabilisation effective des acteurs dans le cadre du RGPD, en insistant sur la nécessité d’une supervision indépendante et spécialisée. Transposé au domaine de l’IA, ce raisonnement militerait pour la désignation proactive d’un référent compétent, même en l’absence d’obligation légale explicite. Enfin, l’article 26 doit être analysé à l’aune des sanctions prévues par le RIA en cas de non-conformité (articles 71 et 72), qui prévoient des amendes pouvant atteindre 7 % du chiffre d’affaires annuel mondial d’une entreprise.

Dans ce contexte, l’absence de référent désigné pourrait être invoquée par les autorités de surveillance, telles que le Conseil européen de l’Intelligence artificielle, comme un indice de négligence systémique, notamment si l’entreprise ne peut démontrer la mise en place de procédures alternatives robustes.

Par exemple, une banque utilisant un système d’IA pour l’octroi de crédits, et ne disposant pas de mécanismes clairs pour documenter les décisions algorithmiques (cf. article 14 RIA sur la transparence), s’exposerait à des sanctions aggravées en cas de discrimination avérée, faute d’avoir internalisé les compétences nécessaires via un référent identifié.

Ainsi, l’article 26 du RIA, en ne prescrivant pas de modèle unique de gouvernance, reflète une volonté de neutralité technologique et d’adaptabilité aux spécificités sectorielles. Cependant, cette approche laisse persister un risque de dilution des responsabilités, potentiellement préjudiciable à la sécurité juridique des entreprises comme à la protection des droits des personnes.

L’articulation entre flexibilité organisationnelle et exigences de conformité strictes constituera, sans nul doute, un enjeu majeur dans l’interprétation future de cette disposition par les régulateurs nationaux et les juridictions.

I. Introduction au Règlement Européen sur l’Intelligence Artificielle (RIA)

A. Contexte et objectifs du RIA

Le Règlement Européen sur l’Intelligence Artificielle (RIA), dont l’article 26 a été adopté le 13 juin 2024 et qui sera progressivement appliqué entre 2025 et 2027, représente une réponse institutionnelle à la montée en puissance de l’IA dans divers domaines. À l’heure actuelle, l’IA est omniprésente dans notre vie quotidienne, notamment à travers des applications telles que les assistants virtuels, les recommandations de contenu sur les plateformes de streaming, les systèmes de surveillance, et même les diagnostics médicaux.

Cependant, cette évolution rapide soulève des préoccupations majeures : comment garantir que ces technologies soient développées et utilisées de manière éthique et responsable ? Comment protéger les droits des individus face à des systèmes qui peuvent prendre des décisions autonomes et potentiellement biaisées ?

Ces questions sont d’autant plus pertinentes dans un contexte où des incidents liés à l’IA ont mis en lumière des problèmes tels que la discrimination algorithmique, les atteintes à la vie privée et l’opacité des algorithmes. Les systèmes d’IA peuvent reproduire et amplifier des biais existants dans les données sur lesquelles ils sont formés. Par exemple, des études ont montré que certains systèmes de reconnaissance faciale sont moins précis pour les personnes de couleur et les femmes, soulevant des préoccupations quant à leur utilisation par les forces de l’ordre.

De même, des algorithmes de recrutement peuvent discriminer certains groupes en raison de biais présents dans les données historiques. Le RIA vise à établir un cadre juridique qui garantit non seulement l’innovation dans le domaine de l’IA, mais aussi la protection des droits fondamentaux des citoyens. L’un des objectifs clés du règlement est de créer un environnement réglementaire harmonisé qui favorise l’innovation tout en garantissant la sécurité et le respect des droits individuels. Cela implique la mise en place d’exigences strictes pour les systèmes d’IA à haut risque, qui peuvent avoir des conséquences directes sur la vie des individus, comme dans le domaine de la santé ou de la justice.

Le règlement impose ainsi des obligations de transparence, de traçabilité, et de responsabilité aux développeurs et utilisateurs de ces technologies. En outre, le RIA intègre des principes éthiques, tels que le respect de la dignité humaine et le non-discrimination. Il cherche à promouvoir une IA qui soit non seulement efficace, mais aussi équitable et respectueuse des valeurs fondamentales de l’Union Européenne. Cela ouvre la voie à un cadre où l’innovation technologique et l’éthique ne sont pas en opposition, mais vont de pair pour construire un avenir numérique qui bénéficie à tous.

B. Importance de la régulation de l’intelligence artificielle

La nécessité de réguler l’intelligence artificielle découle de plusieurs facteurs interconnectés. Premièrement, l’IA, en tant que technologie émergente, présente des risques inhérents qui doivent être gérés de manière proactive. Les systèmes d’IA peuvent prendre des décisions qui affectent directement la vie des individus, notamment dans des domaines sensibles tels que la santé, l’emploi et la justice. Par conséquent, il est crucial de s’assurer que ces systèmes soient conçus pour respecter les droits des utilisateurs et pour éviter les préjugés et les discriminations. Le RIA permet de mettre en place des garde-fous pour minimiser ces risques, en imposant des exigences strictes aux systèmes d’IA à haut risque.

Deuxièmement, la régulation de l’IA est essentielle pour établir une confiance entre les utilisateurs et les fournisseurs de technologies. Les consommateurs, les citoyens et les parties prenantes sont de plus en plus préoccupés par les implications de l’IA sur leur vie quotidienne. En instaurant des normes claires et contraignantes, le RIA vise à rassurer les utilisateurs sur le fait que leurs droits seront protégés et que les systèmes d’IA fonctionneront de manière transparente et équitable. Ce climat de confiance est vital pour encourager l’adoption des technologies d’IA, tant par le grand public que par les entreprises.

Troisièmement, la régulation de l’IA est également un levier pour stimuler l’innovation. En fournissant un cadre juridique clair, le RIA permet aux entreprises de naviguer plus facilement dans le paysage complexe de l’IA. Cela crée un environnement propice à l’innovation, où les entreprises peuvent développer de nouveaux produits et services tout en respectant les normes éthiques et juridiques. Par ailleurs, la régulation peut également encourager la recherche et le développement de solutions d’IA qui répondent à des défis sociétaux pressants, comme le changement climatique ou la santé publique.

En intégrant une perspective éthique dès la conception des technologies d’IA, les entreprises peuvent contribuer à un développement durable et inclusif de l’IA. Enfin, la régulation de l’IA a des implications internationales. Avec l’émergence de réglementations similaires dans d’autres régions du monde, comme la législation américaine sur l’IA ou les initiatives en Asie, l’UE peut se positionner en tant que leader mondial dans la régulation de l’IA. Cela pourrait également influencer la manière dont d’autres régions adoptent des réglementations, créant un cadre de référence pour une utilisation responsable de l’IA à l’échelle mondiale. En ce sens, le RIA pourrait non seulement protéger les droits des citoyens européens, mais aussi contribuer à l’établissement de normes éthiques à l’échelle mondiale.

II. Absence d’obligation de désignation d’un référent à l’intelligence artificielle

A. Comparaison avec le Règlement Général sur la Protection des Données (RGPD)

Les, acteurs visés par le RIA sont principalement les fournisseurs et déployeurs de systèmes d’IA (dans une moindre mesure les importateurs, distributeurs et mandataires). Alors que dans le RGPD, il est mentionné, les Responsables de traitements et sous-traitants.

L’absence d’obligation explicite de désignation d’un référent à l’intelligence artificielle dans le RIA soulève des questions cruciales quant à la gouvernance et à la conformité des systèmes d’IA. En comparaison, le Règlement Général sur la Protection des Données (RGPD) impose la désignation d’un Délégué à la Protection des Données (DPD) dans certaines situations. Selon l’article 37 du RGPD, les entités qui traitent des données à grande échelle ou des données sensibles doivent désigner un DPD pour assurer le respect des règles de protection des données. Cette obligation de désignation d’un DPD permet de garantir que les questions de protection des données sont prises en compte de manière systématique au sein des organisations.

Le DPD joue un rôle clé en matière de sensibilisation, de formation et de conseil, tout en agissant comme point de contact pour les autorités de protection des données et les individus concernés. En l’absence d’une telle obligation au sein du RIA, les entreprises peuvent se retrouver sans un cadre de gouvernance clair pour gérer les enjeux liés à l’IA, ce qui pourrait engendrer des incohérences et des lacunes dans la conformité. Il est essentiel de souligner que le RIA et le RGPD ne visent pas les mêmes problématiques.

Le RGPD se concentre principalement sur la protection des données personnelles, tandis que le RIA aborde des questions plus larges liées à l’utilisation de l’IA, y compris la responsabilité des algorithmes, la sécurité des systèmes et l’éthique. Cependant, les deux règlements partagent des objectifs communs, tels que la protection des droits fondamentaux et la promotion de l’éthique. Dans ce contexte, le manque d’une obligation de désignation d’un référent à l’IA pourrait entraver la mise en œuvre de ces principes de manière cohérente et intégrée.

B. Impacts de l’absence d’un référent sur la conformité et la gouvernance interne

L’absence d’un référent à l’intelligence artificielle peut avoir des répercussions significatives sur la conformité et la gouvernance interne des organisations. Tout d’abord, sans un référent désigné, il est probable que les entreprises rencontrent des difficultés à identifier et à évaluer les risques associés à l’utilisation des systèmes d’IA.

Cela peut entraîner des situations où des systèmes à haut risque ne sont pas correctement évalués, exposant ainsi les entreprises à des violations potentielles des droits des utilisateurs et à des exigences réglementaires. Par exemple, une entreprise qui utilise un algorithme de recrutement sans une évaluation adéquate des biais pourrait se retrouver à discriminer des candidats en raison de caractéristiques telles que le sexe ou l’origine ethnique.

De plus, le manque d’un référent peut nuire à la mise en place d’une culture de conformité au sein de l’organisation. Un référent aurait la responsabilité de sensibiliser les employés aux enjeux liés à l’IA, d’assurer un suivi des évolutions réglementaires et de coordonner les actions nécessaires pour répondre aux exigences du RIA. En l’absence de cette figure, les entreprises risquent de se retrouver en situation de non-conformité, ce qui peut avoir des conséquences juridiques, financières et réputationnelles. Cela peut également créer un climat d’incertitude, où les employés ne savent pas comment agir face à des situations éthiques ou juridiques liées à l’IA.

En outre, l’absence d’un référent peut également entraîner une fragmentation des efforts en matière de gouvernance de l’IA au sein de l’organisation. Les différentes équipes, telles que les équipes techniques, juridiques et de conformité, pourraient travailler de manière isolée, sans coordination ni communication, ce qui peut aboutir à des incohérences dans la mise en œuvre des pratiques de gouvernance.

Cela pourrait également empêcher une approche systématique et intégrée pour traiter les enjeux éthiques et juridiques liés à l’IA. Par exemple, sans une ligne de communication claire entre les équipes, des décisions pourraient être prises sans tenir compte des implications éthiques, entraînant ainsi des conséquences potentiellement graves. Enfin, l’absence d’un référent pourrait également affecter la capacité des entreprises à répondre aux attentes des parties prenantes.

Dans un contexte où les consommateurs, les investisseurs et la société civile sont de plus en plus attentifs aux questions d’éthique et de responsabilité, les entreprises doivent être en mesure de démontrer qu’elles prennent ces enjeux au sérieux. Sans un référent dédié, il peut être difficile pour les entreprises de communiquer efficacement sur leurs efforts en matière de gouvernance de l’IA et de rassurer les parties prenantes sur leur engagement à respecter les normes éthiques. Cela pourrait également nuire à la réputation de l’entreprise et à sa capacité à attirer et à retenir des clients et des talents.

III. Nécessité d’un référent à l’intelligence artificielle

A. Rôle et responsabilités potentielles du référent

La désignation d’un référent à l’intelligence artificielle pourrait jouer un rôle déterminant dans la mise en œuvre des exigences du RIA. Ce référent, que l’on pourrait désigner sous le terme de Responsable de l’Intelligence Artificielle (RIA), pourrait être chargé de plusieurs responsabilités clés, notamment :

  1. Évaluation des risques : Le référent pourrait être responsable de l’évaluation continue des risques associés aux systèmes d’IA utilisés par l’organisation. Cela comprend l’identification des risques potentiels, l’analyse de l’impact de ces risques sur les droits des utilisateurs et la mise en place de mesures appropriées pour atténuer ces risques. Par exemple, le référent pourrait développer des protocoles d’évaluation des risques pour les nouveaux projets d’IA, garantissant ainsi que toutes les parties prenantes sont conscientes des enjeux éthiques et juridiques. Cela pourrait également inclure la mise en place d’un cadre pour l’audit régulier des systèmes d’IA afin de garantir leur conformité continue aux normes établies.
  2. Sensibilisation et formation : Le référent pourrait organiser des sessions de formation pour sensibiliser les employés aux enjeux éthiques et juridiques liés à l’utilisation de l’IA. Cela favoriserait une culture de responsabilité et de transparence au sein de l’organisation. Par exemple, des ateliers sur les biais algorithmiques et les meilleures pratiques pour le développement de systèmes d’IA éthiques pourraient être mis en place pour garantir que tous les employés comprennent les enjeux liés à leurs travaux. De plus, le référent pourrait développer des ressources pédagogiques, telles que des guides ou des modules de formation en ligne, pour informer tous les niveaux de l’organisation sur les questions relatives à l’IA.
  3. Coordination de la conformité : En tant que point de contact principal, le référent pourrait assurer la liaison entre les différentes parties prenantes, y compris les équipes techniques, juridiques et de conformité. Cela faciliterait la mise en œuvre des exigences du RIA et des meilleures pratiques en matière d’IA. Le référent pourrait également être chargé de surveiller l’évolution des réglementations et de s’assurer que l’organisation s’adapte en conséquence. En cas de changement réglementaire, le référent devrait être capable d’évaluer rapidement l’impact sur les pratiques de l’organisation et de recommander des ajustements nécessaires.
  4. Reporting et communication : Le référent pourrait jouer un rôle clé dans la communication des efforts de l’organisation en matière de gouvernance de l’IA. En élaborant des rapports réguliers sur les initiatives prises, les risques identifiés et les mesures mises en œuvre pour les atténuer, le référent pourrait renforcer la transparence et la responsabilité de l’organisation. Cela pourrait également permettre à l’entreprise de démontrer son engagement envers une utilisation éthique de l’IA auprès des parties prenantes. Ces rapports pourraient être publiés de manière accessible, permettant aux parties prenantes d’évaluer les progrès de l’entreprise en matière de gouvernance de l’IA.
  5. Gestion des incidents : En cas de défaillance ou de problème lié à un système d’IA, le référent pourrait être chargé de la gestion des incidents. Cela comprend la mise en place de protocoles pour signaler et traiter les incidents, ainsi que la communication avec les autorités compétentes et les parties prenantes concernées. Une gestion efficace des incidents est cruciale pour maintenir la confiance des utilisateurs et des partenaires commerciaux, et pour garantir que l’organisation agit de manière responsable. Le référent devrait également être en mesure de recommander des actions correctives pour prévenir la récurrence des incidents
  6. Évaluation des fournisseurs : Dans le cadre de l’utilisation de l’IA, une entreprise peut faire appel à des fournisseurs externes pour le développement ou la mise en œuvre de solutions d’IA. Le référent devrait jouer un rôle dans l’évaluation des fournisseurs pour garantir qu’ils respectent également les normes éthiques et réglementaires. Cela pourrait inclure des critères d’évaluation spécifiques liés à la protection des données, à la transparence des algorithmes et à l’absence de biais.

B. Avantages pour les entreprises et la confiance des parties prenantes

La désignation d’un référent à l’intelligence artificielle présente plusieurs avantages significatifs pour les entreprises. En premier lieu, cela permettrait de renforcer la conformité aux exigences réglementaires. En ayant une personne dédiée à la gestion des questions liées à l’IA, les entreprises peuvent mieux anticiper et répondre aux évolutions réglementaires, évitant ainsi de potentielles sanctions. Par exemple, un référent pourrait s’assurer que tous les systèmes d’IA à haut risque sont évalués et certifiés conformément aux exigences du RIA, réduisant ainsi le risque de non-conformité.

De plus, la présence d’un référent contribuerait à instaurer un climat de confiance entre l’entreprise et ses parties prenantes. Dans un contexte où les préoccupations concernant la sécurité et l’éthique de l’IA sont de plus en plus présentes, la désignation d’un référent pourrait rassurer les clients, les investisseurs et le grand public sur l’engagement de l’entreprise à adopter des pratiques responsables et éthiques. Par exemple, une entreprise qui désigne un référent à l’IA pourrait mettre en avant cet effort dans sa communication externe, soulignant son engagement envers une utilisation éthique et responsable de l’IA.

En favorisant une meilleure gouvernance de l’IA, les entreprises pourraient également améliorer leur réputation et leur image de marque. Dans un monde où les consommateurs sont de plus en plus conscients des enjeux éthiques, une entreprise qui prend des mesures proactives pour garantir une utilisation responsable de l’IA sera perçue de manière plus favorable. Cela pourrait également ouvrir la voie à de nouvelles opportunités d’affaires, en permettant aux entreprises de se positionner comme des acteurs responsables et innovants sur le marché de l’IA.

Enfin, la désignation d’un référent à l’intelligence artificielle pourrait également aider les entreprises à anticiper et à répondre aux préoccupations sociétales. En intégrant une perspective éthique dans le développement et l’utilisation de l’IA, les entreprises peuvent contribuer à la création de solutions qui répondent aux besoins de la société tout en respectant les valeurs fondamentales. Cela pourrait également favoriser un dialogue constructif avec les parties prenantes, permettant aux entreprises de mieux comprendre les attentes de la société en matière d’IA et d’y répondre de manière appropriée.

VI. Perspectives d’évolution et recommandations

A. Évolution de la réglementation et des normes

À l’heure actuelle, la réglementation de l’IA est en constante évolution. Les discussions au sein des instances européennes et internationales continuent d’évoluer, et il est probable que de nouvelles directives ou ajustements au RIA apparaîtront dans les années à venir. Les entreprises doivent donc rester vigilantes et proactives, en surveillant les évolutions réglementaires pour s’assurer qu’elles sont en conformité avec les exigences en constante évolution.

Cela implique également d’adapter les systèmes de gouvernance internes pour intégrer les changements possibles dans le paysage réglementaire. L’Union Européenne, en tant que leader dans la régulation de l’IA, pourrait également jouer un rôle de catalyseur pour l’harmonisation des réglementations au niveau mondial.

Les discussions autour de la réglementation de l’IA sont en cours dans d’autres régions, notamment aux États-Unis et en Asie. L’UE peut influencer ces débats en partageant ses expériences et en proposant des normes qui pourraient être adoptées à l’échelle internationale. Cela pourrait contribuer à créer un cadre réglementaire mondial qui promeut une utilisation responsable de l’IA, tout en respectant les droits des individus.

B. Recommandations pour les entreprises

Il est recommandé aux entreprises de prendre des mesures concrètes pour renforcer leur gouvernance en matière d’IA. Parmi ces recommandations, on peut inclure :

  1. Désignation d’un référent à l’IA : Comme mentionné, la désignation d’un référent à l’intelligence artificielle est cruciale pour assurer une gouvernance efficace. Ce référent doit être en mesure de travailler en étroite collaboration avec les autres départements de l’entreprise pour garantir une approche intégrée.
  2. Formation continue : Les entreprises doivent investir dans la formation continue de leurs employés sur les enjeux éthiques et juridiques liés à l’utilisation de l’IA. Cela comprend des sessions de sensibilisation, des ateliers pratiques et des formations sur les meilleures pratiques pour le développement d’IA éthique. Par exemple, des programmes de formation pourraient être mis en place pour les équipes de développement, afin de les sensibiliser aux biais algorithmiques et à l’importance de la diversité dans les ensembles de données.
  3. Mise en place de politiques internes : Les entreprises devraient développer des politiques internes claires sur l’utilisation de l’IA, en définissant des protocoles pour l’évaluation des risques, la gestion des incidents et la communication avec les parties prenantes. Ces politiques doivent être régulièrement mises à jour pour refléter les changements réglementaires et technologiques. Par exemple, l’entreprise pourrait établir un comité de gouvernance de l’IA, composé de membres de différents départements, pour superviser la mise en œuvre des politiques et des normes.
  4. Engagement auprès des parties prenantes : Les entreprises devraient établir un dialogue continu avec leurs parties prenantes, y compris les clients, les employés, les investisseurs et la société civile. En écoutant les préoccupations et les attentes des parties prenantes, les entreprises peuvent mieux adapter leurs pratiques et renforcer leur responsabilité sociale. Cela pourrait inclure la création de forums de discussion ou de consultations publiques pour recueillir des avis sur les projets d’IA.
  5. Adoption de technologies éthiques : Les entreprises doivent s’efforcer d’adopter des technologies qui respectent les principes éthiques. Cela inclut l’utilisation d’algorithmes transparents, la minimisation des biais et la protection des données personnelles. En intégrant des valeurs éthiques dans le développement de l’IA, les entreprises peuvent non seulement se conformer aux réglementations, mais aussi contribuer à un avenir numérique responsable.
  6. Collaboration inter-entreprises et avec le secteur public : Les entreprises devraient également envisager de collaborer avec d’autres acteurs de l’industrie, ainsi qu’avec des organismes publics, pour partager des meilleures pratiques en matière de gouvernance de l’IA. Des initiatives de collaboration pourraient conduire à l’élaboration de normes sectorielles et à l’établissement de lignes directrices sur l’utilisation éthique de l’IA.

Pour lire une version plus complète de cet article sur l’IA, cliquez

Sources :

INTELLIGENCE ARTIFICIELLE ET DROIT D’AUTEUR

L’intelligence artificielle fait partie de notre quotidien, qu’il s’agisse de la reconnaissance vocale sur nos téléphones portables, des suggestions personnalisées de films sur des plates-formes de streaming (certes, plus ou moins convaincantes…) ou des systèmes de reconnaissance d’images permettant de « taguer » des visages ou de filtrer des contenus violents ou pornographiques publiés sur les réseaux sociaux.

NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire !

Le statut des créations issues de l’intelligence artificielle est nettement plus délicat. Le Petit Robert définit l’intelligence artificielle comme « la partie de l’informatique qui a pour but la simulation des facultés cognitives afin de suppléer l’être humain pour assurer des fonctions dont on convient, dans un contexte donné, qu’elles requièrent de l’intelligence ». Nous basculons de la création assistée par ordinateur vers la création générée par ordinateur. Or les créations de ces machines intelligentes (que d’aucuns aiment à qualifier de robots sont très nombreuses dans la littérature, spécialement de science-fiction.

L’on se souvient, par exemple, des belles sculptures de lumière réalisées par le majordome robot de Madame Lardner (Max) dans la nouvelle de Asimov, Light Verse, œuvres que le propriétaire du robot s’approprie indûment. Ces créations, accidentelles, cesseront lorsque John Semper Trevis réparera malencontreusement le robot créateur.


Besoin de l’aide d’un avocat pour un problème de contrefaçon ?

Téléphonez-nous au : 01 43 37 75 63

ou contactez-nous en cliquant sur le lien


Les créations de ces machines intelligentes ne sont plus aujourd’hui accidentelles et la Commission juridique du Parlement européen a invité le 12 janvier 2017 la Commission européenne à soumettre une directive envisageant « la création d’une personnalité juridique spécifique aux robots, pour qu’au moins les robots autonomes les plus sophistiqués puissent être considérés comme des personnes électroniques dotées de droits et de devoirs bien précis » et définissant « des critères de création intellectuelle propres applicables aux œuvres protégeables par droit d’auteur créés par des ordinateurs ou des robots » – ce qui est riche d’un implicite sur lequel nous reviendrons.

Les défenseurs de cette position soulignent qu’une telle protection stimulerait ainsi la création dans ces domaines et conférerait à l’Europe un avantage concurrentiel.

I – la protection du droit d’auteur appliquée aux œuvres générées à partir d’une l’intelligence artificielle

A – les limites invoquées à l’application du droit d’auteur

  1. L’auteur, personne physique

Traditionnellement, le droit d’auteur français protège l’auteur d’une « œuvre de l’esprit ». Les dispositions de l’article L. 112-1 du CPI prévoient en ce sens que : « Les dispositions du présent Code protègent les droits des auteurs sur toutes les œuvres de l’esprit, quels qu’en soient le genre, la forme d’expression, le mérite ou la destination. »

Dès lors, comment concevoir qu’une œuvre générée par une IA, c’est-à-dire à partir d’un ou plusieurs algorithmes, soit considérée comme une « œuvre de l’esprit » et protégée en tant que telle par le droit d’auteur ?

En effet, la jurisprudence admet que l’auteur d’une œuvre de l’esprit ne peut être qu’une personne physique, et la Cour de cassation juge à cet égard qu’une personne morale ne peut avoir la qualité d’auteur.

Dès lors, si le collectif Obvious à l’origine du Port rait de Belamy signe le tableau avec la formule de l’algorithme, il ne s’agit là bien entendu que d’un clin d’œil dans la mesure où, à ce jour, aucune personnalité juridique n’est reconnue à une IA qui ne peut dès lors se voir reconnaître la titularité des droits d’auteur.

L’idée d’une personnalité juridique propre aux robots a bien été promue, notamment et de façon étonnante par le Parlement européen dans une résolution du 16 février 2017, ce qui a donné lieu à de nombreuses critiques, en partie reprises par les auteurs du récent rapport pour qui cette option serait « largement impraticable » (cf. rapport p. 36).

  1. La condition de l’originalité

Par construction jurisprudentielle, la protection par le droit d’auteur suppose que la création soit originale. Cette condition ne ressort pas des dispositions du Code de la propriété intellectuelle, qui ne s’y réfère pas, sauf pour protéger le titre des œuvres (cf. article L. 112-4). L’originalité est ainsi appréciée par les juges, au cas par cas, comme l’expression, l’empreinte ou le reflet de la personnalité de l’auteur.

Cette conception impliquant de nouveau une intervention humaine, il apparaît difficile de qualifier d’originale une œuvre générée par une IA : comment celle-ci pourrait-elle, en effet, matérialiser le reflet de la personnalité de son auteur s’il s’agit d’une machine ? Du moins tant que les machines ne seront pas douées de conscience ou d’esprit et qu’une personnalité juridique ne leur sera pas reconnue…

Ces difficultés résultent d’une conception traditionnelle et classique du droit d’auteur français qui ne conçoit la création que comme l’apanage de l’humain et qui place toujours l’auteur, personne physique, au centre de la protection.

Toutefois, comme le relève un récent rapport déposé auprès du CSPLA le 27 janvier 2020, les difficultés ainsi soulevées ne devraient pas être « insurmontables ». Ainsi, sans remettre en cause le lien entre l’auteur et son œuvre qui fonde notre droit d’auteur, ce droit « semble suffisamment souple pour recevoir ces créations » et « l’attribution des droits au concepteur de l’IA semble de nature à apporter des solutions pertinentes ».

B – les solutions offertes par l’application du droit d’auteur

  1. Le rapport « Intelligence artificielle et culture »

Le 25 avril 2018, la Commission européenne, dans sa communication « Une intelligence artificielle pour l’Europe », a invité les États membres à réfléchir aux conséquences de l’intelligence artificielle sur la propriété intellectuelle. Dans ce contexte, le Conseil supérieur de la propriété littéraire et artistique (CSPLA) a confié aux professeures Alexandra Bensamoun et Joelle Farchy une mission sur les enjeux juridiques et économiques de l’intelligence artificielle dans les secteurs de la création culturelle, qui a donné lieu au dépôt, le 27 janvier 2020, d’un rapport intitulé « Intelligence artificielle et culture ».

Selon les auteures de ce rapport, il importe de rappeler en premier lieu que le droit d’auteur et sa mise en œuvre ne peuvent se passer de la présence humaine. Toutefois « une analyse renouvelée des conditions d’accès à la protection (création, originalité, auteur) pourrait permettre de recevoir ces réalisations culturelles au sein du droit d’auteur ».

  1. Quelle solution ?

Ledit rapport écarte ainsi dans ses conclusions toute intervention législative, en retenant qu’il importe d’abord « d’éprouver le droit positif et d’être prêt à intervenir si un éventuel besoin de régulation se révélait à l’avenir » alors que « le droit positif devrait pour l’heure pouvoir être appliqué, dans une lecture renouvelée des critères d’accès à la protection ».

Avec prudence, il est toutefois rappelé qu’il ne peut être exclu, compte tenu de la technique en constant développement, que « l’outil [de l’intelligence artificielle] gagne en autonomie, en réduisant le rôle de l’humain ».

Il ne faut donc pas complètement exclure qu’à l’avenir, une intervention du législateur soit rendue nécessaire et « une voie intéressante pourrait alors être, au vu des différentes positions et analyses, celle de la création d’un droit spécial du droit d’auteur ».

C’est alors le régime appliqué au logiciel ou celui appliqué à l’œuvre collective qui pourrait, selon les auteures du rapport « Intelligence artificielle et culture » déposé au CSPLA, servir de modèle à la création d’un droit spécial, notamment en adaptant les articles L. 113-2 et L. 113-5 du CPI pour y intégrer les créations générées par une IA.

En effet, selon le Code de la propriété intellectuelle, « la qualité d’auteur appartient, sauf preuve contraire, à celui ou à ceux sous le nom de qui l’œuvre est divulguée » (article L. 113-1 du CPI).

Ainsi, dans le cas de l’œuvre collective créée à l’initiative d’une personne physique ou morale qui la divulgue et dans laquelle la contribution de chaque auteur y ayant participé se fond dans un ensemble sans qu’il soit possible d’identifier la contribution de chacun (cf. article L. 113-2 du CPI), il est prévu par l’article L. 113-5 du CPI que cette œuvre « est, sauf preuve contraire, la propriété de la personne physique ou morale sous le nom de laquelle elle est divulguée. Cette personne est investie des droits de l’auteur ».

Il est donc admis qu’une personne morale, si elle ne peut pas être l’auteur d’une œuvre de l’esprit, peut en revanche être titulaire des droits d’auteur existant sur cette œuvre.

L’arsenal juridique de l’œuvre collective et du logiciel semble donc offrir des pistes de solutions intéressantes.

La matière étant, à l’évidence, en constante évolution, la prudence semble de mise, étant rappelé que toute issue législative devra naturellement « s’opérer dans un cadre international, a minima européen ».

 

II- Une protection alternative adaptée aux créations de l’intelligence artificielle

A – L’adaptation du droit d’auteur à l’intelligence artificielle

Si l’œuvre est considérée comme protégée par le droit d’auteur, la question de la paternité de l’œuvre est centrale. Certaines législations étrangères comme Hong Kong, l’Inde, l’Irlande, la Nouvelle-Zélande ou le Royaume-Uni, ont choisi d’attribuer cette paternité au concepteur du programme.

En France, le Conseil supérieur de la propriété littéraire et artistique (CSPLA) recommande, dans son rapport intitulé « Mission Intelligence artificielle et Culture » du 27 janvier 2020, de s’inspirer des mécanismes existants en droit d’auteur. Une première piste résiderait dans l’aménagement de la notion d’originalité afin de qualifier la création de l’intelligence artificielle en œuvre de l’esprit, comme ce fut le cas pour le logiciel, où l’empreinte de la personnalité de l’auteur a été remplacée par l’apport intellectuel de son créateur. S’agissant de la titularité, « la désignation du concepteur de l’intelligence artificielle apparaît comme la solution la plus respectueuse du droit d’auteur » selon le rapport du CSPLA. Une autre possibilité serait d’appliquer les règles de l’accession par production de l’article 546 du Code civil pour permettre au propriétaire de l’intelligence artificielle d’acquérir les accessoires que produit sa chose (les œuvres étant les fruits de l’intelligence artificielle).

Cependant, cela ne signifie nullement que la titularité des droits revienne toujours à la personne physique. En effet, l’instigateur de la technologie pourrait être récompensé sur le modèle de l’œuvre collective qui, selon l’article L. 113-2, alinéa 3, du CPI, est « une œuvre crée sur l’initiative d’une personne physique ou morale qui l’édite, la publie et la divulgue sous sa direction et en son nom ».

Par ailleurs, un droit spécifique, sorte de droit voisin, pourrait être créé pour attribuer des prérogatives patrimoniales à celui qui communique l’œuvre au public. La disposition serait alors intégrée à l’article L. 123-4 du CPI, in fine, en ces termes : « Celui qui prend les dispositions nécessaires en termes d’investissement pour communiquer au public une création de forme générée par une intelligence artificielle et assimilable à une œuvre de l’esprit jouit d’un droit d’exploitation d’une durée de X années à compter de la communication ». Pour permettre plus de souplesse, le CSPLA suggère de privilégier les solutions contractuelles en ajoutant en début de disposition « sauf stipulations contraires ».

Derrière l’identification du titulaire, des créations se pose également la question cruciale de la responsabilité en cas de dommages provoqués par l’intelligence artificielle. En effet, la proposition de règlement de la Commission européenne du 21 avril 2021 place le fournisseur d’un système d’intelligence artificielle comme acteur central. Il est défini comme la personne physique ou morale, l’agence ou tout autre organisme qui développe ou possède un système d’intelligence artificielle, sous son propre nom ou sa propre marque, à titre onéreux ou gratuit. Cette désignation simplifiée du responsable n’est d’ailleurs pas sans rappeler la responsabilité du producteur du fait d’un produit défectueux puisqu’est également désignée comme producteur la « personne qui se présente comme producteur en apposant sur le produit son nom, sa marque ou un autre signe distinctif ».

B – Les modes alternatifs de protection des créations de l’intelligence artificielle

Au-delà du droit d’auteur , le Parlement européen recommande de privilégier une évaluation sectorielle et par type des implications des technologies de l’intelligence artificielle en prenant notamment en compte « le degré d’intervention humaine, l’autonomie de l’IA , l’importance du rôle et de la source des données et des contenus protégés par le droit d’auteur utilisés, ainsi que l’éventuelle intervention d’autres facteurs ; rappelle que toute démarche doit trouver le juste équilibre entre la nécessité de protéger les investissements en ressources et en efforts et celle d’encourager la création et le partage ».

Pour sa part, le CSPLA suggère de s’inspirer du droit accordé au producteur de bases de données en introduisant un droit sui generis visant à protéger les efforts financiers, humains ou matériels des intervenants au processus créatif développé par l’intelligence artificielle.

Appliqué à l’intelligence artificielle, ce droit sui generis permettrait un retour sur investissement, déjouant ainsi les tentatives d’appropriation de valeur et encourageant du même coup l’investissement dans le domaine de l’intelligence artificielle. La proposition pourrait être intégrée dans la première partie du code de la propriété intellectuelle, à la suite du droit des bases de données : « Le producteur d’une intelligence artificielle permettant la génération de créations assimilables à des œuvres de l’esprit bénéficie d’une protection sur ces créations lorsque celles-ci résultent d’un investissement financier, matériel ou humain substantiel ».

En tout état de cause, d’autres modes de protection existent. Ainsi, le programmateur de la technologie peut se faire rémunérer en concédant une licence d’utilisation de son logiciel. De plus, la directive n° 2016/943 du 8 juin 2016 sur le secret des affaires, transposée à l’article L. 151-1 du CPI, permet au concepteur de s’opposer à la divulgation illicite du savoir-faire technologique et l’appropriation de son investissement. Enfin, une action sera toujours possible sur le fondement du droit commun de la responsabilité civile extracontractuelle contre les actes de concurrence déloyale ou les agissements parasitaires.

Pour lire un article plus complet sur l’intelligence artificielle et la protection des contenus, cliquez

Sources :
Cour de cassation, civile, Chambre civile 1, 15 janvier 2015, 13-23.566, Publié au bulletin – Légifrance (legifrance.gouv.fr)
Cour de cassation, Assemblée Plénière, du 7 mars 1986, 83-10.477, Publié au bulletin – Légifrance (legifrance.gouv.fr)