Algorithmes et prix : la collusion cachée qui menace la concurrence

L’essor des algorithmes dans la vie économique a profondément renouvelé les modalités de fixation des prix, de surveillance des marchés et d’adaptation des stratégies commerciales. Dans des secteurs aussi variés que le commerce en ligne, l’hôtellerie, le transport ou les plateformes numériques, la décision tarifaire n’est plus uniquement le résultat d’un raisonnement humain : elle procède désormais, de plus en plus souvent, de systèmes automatisés capables de traiter en temps réel une masse considérable de données.

NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire et un avocat enverra une lettre de mise en demeure !

Cette évolution, qui semble d’abord répondre à une logique d’efficacité et d’optimisation, n’est pourtant pas neutre au regard du droit de la concurrence. Comme l’ont souligné l’OCDE, l’Autorité de la concurrence et le Bundeskartellamt, les algorithmes peuvent, dans certaines configurations, faciliter la surveillance des comportements concurrentiels et stabiliser des formes de coordination entre entreprises, y compris en l’absence d’accord explicite.

Ce constat invite à s’interroger sur la manière dont le droit appréhende ce nouveau paysage concurrentiel. Traditionnellement, les ententes reposent sur l’idée d’une concertation humaine, consciente et volontaire, destinée à fausser le jeu du marché. Or, lorsque les prix sont fixés par des programmes capables d’analyser instantanément les réactions des concurrents, de détecter les écarts et de réagir automatiquement, la frontière entre comportement licite et pratique anticoncurrentielle devient beaucoup plus incertaine.


Besoin de l’aide d’un avocat pour un problème de concurrence déloyale ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien


Le phénomène de collusion algorithmique désigne précisément cette possibilité pour des outils de tarification automatisée de produire des effets proches de ceux d’une entente classique, sans qu’un échange direct entre concurrents soit nécessaire.

L’enjeu est alors considérable, car l’article 101 TFUE vise les accords, décisions d’associations d’entreprises et pratiques concertées ayant pour objet ou pour effet de restreindre la concurrence. Cette architecture normative, pensée à partir de comportements humains identifiables, se trouve aujourd’hui confrontée à des systèmes dont le fonctionnement échappe parfois à la compréhension même des entreprises qui les utilisent. La jurisprudence a déjà montré, avec l’arrêt Eturas, que le droit de la concurrence pouvait appréhender certains mécanismes informatisés de coordination, mais cette solution ne résout pas toutes les difficultés posées par les algorithmes auto-apprenants.

Dès lors, la question centrale n’est plus seulement de savoir si un algorithme peut servir d’instrument à une entente classique. Il faut aussi se demander s’il peut, par sa seule autonomie fonctionnelle, favoriser l’émergence d’un équilibre collusif sans intention humaine directe. Cette interrogation remet en cause les catégories traditionnelles du droit des ententes, notamment celles d’accord, de pratique concertée et d’imputabilité, et conduit à repenser les modalités de preuve, de qualification et de sanction.

Le droit de la concurrence se trouve ainsi placé devant une difficulté majeure : conserver sa cohérence conceptuelle tout en restant capable de saisir des comportements dont la matérialité et la volonté sont désormais médiatisées par la règle algorithmique.

Dans cette perspective, il convient d’étudier, d’une part, la manière dont les algorithmes peuvent favoriser ou intensifier les pratiques anticoncurrentielles et, d’autre part, les limites que ces nouveaux comportements imposent aux catégories classiques du droit de la concurrence. Il s’agira alors de montrer que les ententes algorithmiques ne constituent pas une simple variation technique des ententes traditionnelles, mais bien un défi structurel pour l’ensemble du contentieux anticoncurrentiel.

I – Les algorithmes comme vecteurs de renforcement des pratiques anticoncurrentielles

A – La facilitation technique des ententes classiques par l’automatisation

L’introduction des algorithmes dans les stratégies commerciales des entreprises ne constitue pas en soi une innovation juridique radicale, mais elle transforme profondément les conditions matérielles dans lesquelles les ententes peuvent être mises en œuvre. En effet, les pratiques anticoncurrentielles traditionnelles reposaient historiquement sur des interactions humaines, nécessitant des contacts, des échanges d’informations ou des accords explicites. Or, les algorithmes permettent désormais d’automatiser ces mécanismes, réduisant considérablement les coûts et les risques associés à la collusion.

En premier lieu, les algorithmes permettent une surveillance continue et extrêmement précise du marché. Là où, auparavant, une entreprise devait mobiliser des ressources importantes pour collecter des informations sur ses concurrents (enquêtes, panels, études de marché), elle peut aujourd’hui accéder en temps réel à une multitude de données. Les algorithmes de pricing dynamique, utilisés notamment dans le commerce en ligne, analysent en permanence les prix pratiqués par les concurrents et ajustent automatiquement les tarifs. Cette transparence accrue du marché, souvent présentée comme favorable à la concurrence, peut paradoxalement en réduire l’intensité.

En effet, la théorie économique montre que la collusion est d’autant plus facile que les entreprises disposent d’informations précises sur les comportements de leurs concurrents.

Les algorithmes réduisent donc une incertitude essentielle au fonctionnement concurrentiel. Ils permettent notamment de détecter immédiatement toute déviation par rapport à un prix « coordonné » et d’y répondre rapidement, ce qui stabilise les ententes.

En deuxième lieu, les algorithmes peuvent être explicitement programmés pour mettre en œuvre une stratégie collusive. Dans ce cas, ils ne font que traduire une volonté humaine préexistante. L’algorithme devient alors un simple instrument d’exécution d’une entente illicite. Cette situation a été illustrée dans certaines affaires, notamment aux États-Unis, où des vendeurs sur des plateformes en ligne utilisaient des logiciels de fixation de prix coordonnés afin d’éviter toute concurrence par les prix.

Dans cette hypothèse, le raisonnement juridique reste relativement classique : l’existence d’une entente peut être établie à partir de la preuve d’une coordination volontaire entre les entreprises, même si celle-ci est mise en œuvre par un outil technologique. L’algorithme ne fait que renforcer l’efficacité de l’entente en automatisant son application.

En troisième lieu, les algorithmes peuvent jouer un rôle d’intermédiaire dans des schémas de collusion indirecte, notamment dans des configurations dites de « hub-and-spoke ». Dans ce type de structure, un acteur central (par exemple, un fournisseur de logiciel) facilite la coordination entre plusieurs entreprises concurrentes. L’algorithme devient alors un vecteur de diffusion d’informations sensibles entre les acteurs du marché.

Ce phénomène est particulièrement préoccupant dans les marchés numériques dominés par des plateformes. Ces dernières peuvent centraliser des données stratégiques et, dans certains cas, influencer les comportements des entreprises qui les utilisent. Elles deviennent ainsi des acteurs clés dans la structuration de la concurrence.

Enfin, il convient de souligner que les algorithmes permettent une standardisation des comportements. En adoptant des outils similaires, voire identiques, les entreprises peuvent converger vers des stratégies homogènes, réduisant la diversité concurrentielle. Cette homogénéisation peut être involontaire, mais elle contribue néanmoins à affaiblir la dynamique concurrentielle.

Ainsi, loin de créer une rupture totale, les algorithmes apparaissent d’abord comme des amplificateurs des pratiques anticoncurrentielles classiques, en en facilitant la mise en œuvre, en réduisant les coûts de coordination et en renforçant leur stabilité.

B – L’émergence de formes autonomes de coordination collusoire

Si les algorithmes renforcent les ententes classiques, ils introduisent également des formes inédites de collusion, plus difficiles à appréhender juridiquement. Ces formes reposent non plus sur une coordination explicite, mais sur des interactions automatisées entre systèmes algorithmiques.

La collusion tacite n’est pas un phénomène nouveau en droit de la concurrence. Elle désigne des situations dans lesquelles des entreprises adoptent des comportements parallèles sans qu’un accord formel puisse être démontré. Toutefois, les algorithmes modifient profondément les conditions de cette collusion.

D’une part, ils permettent une réactivité immédiate aux comportements des concurrents. Sur un marché traditionnel, l’ajustement des prix peut prendre du temps, ce qui laisse place à des stratégies concurrentielles agressives. En revanche, dans un environnement algorithmique, les ajustements sont quasi instantanés. Cette rapidité favorise l’émergence d’équilibres collusifs stables.

D’autre part, les algorithmes peuvent être dotés de capacités d’apprentissage automatique. Grâce au machine learning, ils sont capables d’identifier les stratégies les plus profitables en fonction des données observées. Or, plusieurs études ont montré que, dans certains environnements, ces systèmes peuvent apprendre à adopter des comportements collusifs sans avoir été explicitement programmés pour cela.

Autrement dit, la collusion peut émerger de manière endogène, comme un résultat du processus d’apprentissage. Les algorithmes peuvent ainsi « comprendre » qu’il est plus rentable de maintenir des prix élevés plutôt que de s’engager dans une guerre des prix. Cette situation soulève des questions fondamentales, car elle remet en cause l’idée selon laquelle une entente suppose nécessairement une volonté humaine.

En outre, les algorithmes facilitent ce que l’on peut qualifier de collusion silencieuse. Les entreprises n’ont plus besoin de communiquer entre elles : leurs algorithmes interagissent directement sur le marché. Cette absence de communication rend la détection des pratiques anticoncurrentielles particulièrement difficile.

Par ailleurs, la complexité des systèmes algorithmiques peut entraîner une opacité décisionnelle. Les entreprises elles-mêmes peuvent ne pas comprendre précisément les comportements adoptés par leurs algorithmes. Cette opacité complique encore davantage l’analyse juridique, notamment en ce qui concerne l’intention anticoncurrentielle.

Enfin, il convient de souligner que ces phénomènes sont renforcés dans les marchés caractérisés par une forte concentration, une transparence élevée et des interactions répétées — autant de conditions réunies dans de nombreux secteurs numériques.

Ainsi, les algorithmes ne se contentent pas de faciliter la collusion : ils en transforment profondément la nature, en donnant naissance à des formes autonomes, diffuses et difficilement détectables.

II – La remise en cause des catégories classiques du droit des ententes

A – La fragilisation des notions d’accord et de pratique concertée

L’essor des ententes algorithmiques ne se limite pas à une difficulté d’application technique du droit existant : il révèle en réalité une transformation bien plus profonde, affectant directement les catégories juridiques traditionnelles sur lesquelles repose le droit de la concurrence. En particulier, les notions d’accord, de pratique concertée et de responsabilité apparaissent fragilisées par l’irruption de systèmes automatisés capables de produire des comportements coordonnés sans intervention humaine directe.

En premier lieu, la notion même d’accord, pourtant centrale en droit des ententes, se trouve profondément déstabilisée. Traditionnellement, un accord suppose une rencontre de volontés entre plusieurs entreprises, impliquant une forme d’intention consciente de coordonner leurs comportements sur le marché. Or, dans le cadre des algorithmes, cette volonté peut devenir difficile à identifier. Lorsque les entreprises programment explicitement leurs outils pour adopter des stratégies collusives, la qualification d’accord ne pose pas de difficulté particulière : l’algorithme n’est alors qu’un instrument d’exécution.

En revanche, dans les situations impliquant des algorithmes auto-apprenants, la coordination peut émerger sans qu’aucune instruction explicite n’ait été donnée en ce sens. L’accord tend ainsi à se « dissoudre » dans le fonctionnement technique du système, ce qui conduit à une forme de dématérialisation de la volonté juridique.

Cette évolution interroge directement les fondements subjectifs du droit de la concurrence. Peut-on encore exiger la preuve d’une intention lorsqu’un comportement anticoncurrentiel résulte d’un processus algorithmique autonome ? Une partie de la doctrine plaide pour une évolution vers une approche plus objective, centrée sur les effets des pratiques plutôt que sur l’existence d’une volonté. Toutefois, une telle évolution ne serait pas sans risque pour la sécurité juridique des entreprises, qui pourraient se voir sanctionnées pour des comportements qu’elles n’ont ni anticipés ni maîtrisés.

En second lieu, la notion de pratique concertée se trouve également fragilisée. Cette catégorie, conçue pour appréhender des formes de coordination moins explicites que l’accord, repose sur l’idée d’une coopération consciente entre entreprises, substituant une coordination pratique aux risques de la concurrence. Or, dans un environnement algorithmique, cette conscience peut faire défaut.

Les entreprises peuvent se contenter d’utiliser des outils standardisés, sans avoir pleinement connaissance de leurs effets sur le marché. La coordination peut alors résulter d’une simple interaction entre systèmes automatisés, sans qu’il soit possible d’identifier une véritable concertation au sens juridique du terme.

Cette situation crée une incertitude majeure : dans quelle mesure une entreprise peut-elle être tenue responsable du comportement de son algorithme ? La question est d’autant plus complexe que les systèmes d’intelligence artificielle peuvent évoluer de manière imprévisible. L’entreprise conserve certes la maîtrise initiale de l’outil, mais elle peut en perdre le contrôle fonctionnel à mesure que celui-ci apprend et s’adapte. Cette dissociation entre contrôle initial et comportement effectif remet en cause l’un des principes fondamentaux du droit de la concurrence, à savoir l’imputabilité des pratiques à une volonté économique identifiable.

Par ailleurs, les ententes algorithmiques posent un défi probatoire considérable. Le droit de la concurrence repose largement sur la mise en évidence d’éléments matériels tels que des échanges d’informations, des réunions ou des communications entre entreprises. Or, les algorithmes permettent précisément de se passer de ces interactions directes. La coordination devient silencieuse, invisible, et donc particulièrement difficile à détecter.

Les autorités de concurrence doivent alors s’appuyer sur des indices indirects, tels que des parallélismes de comportement ou des structures de marché favorables à la collusion. Toutefois, ces éléments peuvent également s’expliquer par un fonctionnement concurrentiel normal, ce qui rend la distinction entre licite et illicite particulièrement délicate.

En outre, la multiplication des acteurs impliqués dans la conception et l’utilisation des algorithmes conduit à une dilution de la responsabilité juridique. Entre l’entreprise utilisatrice, le développeur du logiciel, le fournisseur de données et éventuellement la plateforme d’hébergement, il devient difficile d’identifier un responsable unique.

Cette fragmentation de la chaîne de décision complique l’application des règles classiques de responsabilité, qui reposent sur l’idée d’un contrôle effectif du comportement incriminé. Elle soulève également la question de savoir s’il convient d’adopter une approche fondée sur la faute, ou de privilégier une logique de responsabilité objective liée au risque technologique.

Enfin, ces évolutions mettent en évidence une tension croissante entre l’exigence de sécurité juridique et la nécessité de garantir une concurrence effective. D’un côté, les entreprises doivent pouvoir anticiper les conséquences juridiques de leurs actions. De l’autre, le droit ne peut rester inactif face à des pratiques susceptibles de porter atteinte au fonctionnement du marché. Les ententes algorithmiques placent ainsi le droit de la concurrence face à un dilemme fondamental : adapter ses concepts pour appréhender les nouvelles réalités économiques, sans pour autant compromettre sa cohérence et sa prévisibilité.

B – L’adaptation nécessaire des règles de preuve et d’imputabilité

Face aux défis posés par les ententes algorithmiques, une simple adaptation marginale du droit existant apparaît insuffisante. C’est une transformation plus profonde des outils juridiques et des modes de régulation qui semble nécessaire, impliquant à la fois une évolution des méthodes d’analyse, des instruments d’intervention et des objectifs poursuivis par les autorités de concurrence.

En premier lieu, les autorités doivent renforcer leurs capacités techniques afin de pouvoir appréhender des phénomènes de plus en plus complexes. L’analyse des algorithmes requiert des compétences spécifiques en matière de programmation, de traitement des données et d’intelligence artificielle.

Il ne s’agit plus seulement d’examiner des documents ou des échanges entre entreprises, mais de comprendre le fonctionnement interne de systèmes techniques sophistiqués. Cette évolution conduit les autorités de concurrence à se doter de profils hybrides, à la croisée du droit et de la technologie, et à développer leurs propres outils d’analyse algorithmique. Elle marque ainsi une transformation profonde de leur rôle, qui tend à se rapprocher de celui de véritables régulateurs technologiques.

En second lieu, l’introduction d’obligations de transparence apparaît comme une piste prometteuse, bien que complexe à mettre en œuvre. L’idée serait d’imposer aux entreprises de documenter le fonctionnement de leurs algorithmes, notamment en ce qui concerne les paramètres utilisés, les objectifs poursuivis et les mécanismes d’apprentissage. Une telle transparence permettrait de faciliter le contrôle des pratiques et de détecter d’éventuels risques anticoncurrentiels. Toutefois, elle se heurte à plusieurs obstacles majeurs, tels que la protection du secret des affaires, la complexité des systèmes d’intelligence artificielle et la difficulté d’interprétation des modèles.

En pratique, une transparence absolue apparaît illusoire, ce qui conduit à privilégier des approches plus ciblées et proportionnées.

Dans cette perspective, le développement de mécanismes d’audit des algorithmes constitue une voie particulièrement intéressante. Ces audits pourraient être réalisés soit par des autorités publiques, soit par des organismes indépendants, et viseraient à vérifier la conformité des systèmes aux règles du droit de la concurrence. Ils permettraient notamment d’identifier des comportements potentiellement collusifs et d’imposer des ajustements avant même que des effets anticoncurrentiels ne se produisent. Cette logique de contrôle ex ante marque une évolution significative par rapport à l’approche traditionnelle du droit de la concurrence, essentiellement fondée sur la sanction ex post.

Par ailleurs, certains auteurs plaident pour une évolution des critères de qualification des ententes, en privilégiant une approche fondée sur les effets économiques plutôt que sur l’intention des entreprises. Dans cette perspective, une pratique pourrait être sanctionnée dès lors qu’elle a pour effet de restreindre la concurrence, indépendamment de la preuve d’un accord ou d’une concertation. Une telle approche permettrait de mieux appréhender les ententes algorithmiques, mais elle soulève également des inquiétudes en termes de sécurité juridique.

En effet, elle pourrait conduire à sanctionner des comportements rationnels dans des marchés transparents, ce qui risquerait de dissuader l’innovation et l’utilisation de technologies pourtant bénéfiques.

En outre, les ententes algorithmiques s’inscrivent dans un contexte plus large de transformation des marchés numériques, caractérisés par une forte concentration, des effets de réseau et une importance croissante des données. Dans ce cadre, le droit de la concurrence tend à évoluer vers une logique de régulation ex ante, visant à prévenir les dysfonctionnements structurels des marchés. Cette évolution se traduit notamment par l’adoption de règles spécifiques applicables aux grandes plateformes, qui jouent un rôle central dans l’organisation des échanges économiques. L’objectif n’est plus seulement de sanctionner des comportements anticoncurrentiels, mais de garantir un fonctionnement équitable et contestable des marchés.

Enfin, la dimension internationale des ententes algorithmiques rend indispensable une coopération renforcée entre autorités de concurrence. Les entreprises opérant à l’échelle mondiale peuvent exploiter les différences entre les systèmes juridiques pour contourner les règles. Dès lors, seule une coordination étroite entre autorités nationales et supranationales permet d’assurer l’efficacité du droit de la concurrence. Cette coopération peut prendre la forme d’échanges d’informations, de procédures conjointes ou encore d’une harmonisation progressive des règles applicables.

Ainsi, face aux ententes algorithmiques, le droit de la concurrence est conduit à évoluer vers un modèle plus technologique, plus préventif et plus globalisé. Cette transformation ne constitue pas une rupture totale, mais plutôt une adaptation progressive à un environnement économique profondément renouvelé, dans lequel la frontière entre comportement humain et décision automatisée devient de plus en plus floue.

Pour lire une version plus complète de cet article sur la concurrence déloyale et l’IA, cliquez

Sources

[1] [PDF] Algorithms and Collusion: Competition Policy in the Digital Age https://www.oecd.org/content/dam/oecd/en/publications/reports/2017/05/algorithms-and-collusion-competition-policy-in-the-digital-age_02371a73/258dcb14-en.pdf

[2] Ententes algorithmiques : le nouveau défi du droit des pratiques … https://www.village-justice.com/articles/ententes-algorithmiques-nouveau-defi-droit-des-pratiques-anticoncurrentielles,56611.html

[3] CJUE, n° C-74/14, Arrêt de la Cour, « Eturas » UAB e.a. … https://www.doctrine.fr/d/CJUE/2016/CJUE62014CJ0074

[4] [PDF] Droit de la concurrence et ententes algorithmiques – MatheO https://matheo.uliege.be/bitstream/2268.2/8119/4/Concurrence%20et%20ententes%20algorithmiques..pdf

[5] The French Autorité de la concurrence and the German Bundeskartellamt present their joint study on algorithms and competition

https://www.bundeskartellamt.de/SharedDocs/Meldung/EN/Pressemitteilungen/2019/06_11_2019_Algorithms_and_Competition.html

[6] Algorithmic Collusion: Corporate Accountability and the Application … https://www.europeanpapers.eu/europeanforum/algorithmic-collusion-corporate-accountability-application-art-101-tfeu

[7] Algorithmic pricing and competition in G7 jurisdictions – OECD https://www.oecd.org/en/publications/algorithmic-pricing-and-competition-in-g7-jurisdictions_f36dacf8-en.html