Régulation / Concurrence / intelligence artificielle générative / Autorité de la concurrence
Régulation / Concurrence
intelligence artificielle générative / Autorité de la concurrence
L’Autorité de la concurrence pointe les risques présents sur le marché de l’IA générative / Un exposé détaillé des avantages pris par les géants du numérique
L’intelligence artificielle (IA) générative n’a beau avoir réellement pris sa place dans le débat public qu’en novembre 2022 avec le lancement de ChatGPT, les risques concurrentiels sont pourtant déjà bien omniprésents dans le secteur. C’est en tout cas le constat qui ressort d’un avis rendu par l’Autorité de la concurrence française en fin de semaine dernière, après que l’organisme s’est autosaisi en février dernier pour mener une vaste consultation auprès d’entreprises et de fédérations. Résultat : il alerte quant à l’avantage "immense sur leurs concurrents" pris par les grandes entreprises du numérique, au regard de leur accès aux intrants clés du développement de l’IA générative. Il faut dire que les barrières à l’entrée de ce marché sont nombreuses : nécessité de recourir à des processeurs spécialisés, importance des services cloud, besoin de disposer d’un large volume de données, compétences rares et recherchées, besoin de financement important… Autant de facteurs qui ne devraient pas déranger les grands acteurs de la Tech.
Car de fait, par le terme d’intrants, l’Autorité de la concurrence vise plus particulièrement trois champs. Soit l’accès facilité à la puissance de calcul, à un large volume de données et à un grand nombre de talents. S’agissant du premier point, en tant que partenaires et concurrents des fournisseurs de puces pour l’IA, les grandes entreprises du numérique ont tout d’abord la capacité d’acheter en quantités significatives des processeurs graphiques et de négocier des accords préférentiels avec leurs fournisseurs, comme Nvidia. D’autre part, elles développent (pour la plupart d’entre elles) également en interne des accélérateurs d’IA, particulièrement adaptés à leurs propres écosystèmes, à l’instar des TPU de Google ou du Trainum de la branche cloud d’Amazon, AWS.
Il y a ensuite le problème des données. Alphabet, au travers de Google et donc de Youtube, peut par exemple se servir d’une source prolifique pour entraîner ses modèles d’IA. Ces géants profitent aussi de leur puissance financière pour nouer des accords avec des propriétaires de données tiers. En témoigne, rappelle l’Autorité de la concurrence, le partenariat passé entre Google et le forum de discussions Reddit, afin que le premier puisse accéder aux données du second. Le tout pour la somme d’environ 55 millions d’euros par an. Une puissance financière qui permet enfin à ces géants d’attirer la crème des talents, à renfort de salaires attractifs et de conditions de travail avantageuses. En clair, cela forme un cocktail de facteurs permettant aux géants numériques d’avoir une longueur d’avance certaine en matière d’entraînement et de développement des modèles de fondation, qui n’est pas aisé à reproduire pour les autres développeurs de modèles de fondation concurrents.
Un échantillon de risques
D’autant plus qu’au-delà de cet accès avantageux aux intrants, les grands géants de la Tech profitent des bénéfices liés à leur intégration verticale et conglomérale : économies d’échelle, de gamme, effets de réseaux de nature cumulative (dans le sens où les données de retour des utilisateurs permettent d’affiner les futurs modèles et de proposer de nouveaux services)… Il y a aussi le fait que ces dites entreprises, Microsoft avec OpenAI en première ligne, ont déjà bien intégré des outils d’IA générative à leurs écosystèmes de produits et de services.
Des avantages qui semblent donc générer un échantillon de risques concurrentiels potentiels. Tout d’abord au niveau des composants informatiques, tels que la fixation des prix, des restrictions de production, de conditions contractuelles déloyales ou encore de comportements discriminatoires. Il y a également le risque de pratiques de verrouillage financier et technique relatif au cloud, dont l’Autorité de la concurrence avait déjà identifié plusieurs pratiques qui ne semblent que "perdurer et même s’intensifier afin d’attirer le plus grand nombre de start-ups actives dans le secteur de l’IA générative. Outre, les offres de crédits cloud, particulièrement élevés, proposées aux entreprises innovantes du secteur, l’Autorité a identifié plusieurs pratiques de verrouillage technique (comme des obstacles à la migration). L’Autorité rappelle à cet égard que ces pratiques pourraient être appréhendées notamment sur le fondement de l’abus de position dominante", pointe l’organisme.
Alertant quant aux risques de l’accès à la donnée, des modèles en accès libre dont les conditions d’accès ou de réutilisation des modèles pourraient parfois conduire au verrouillage des utilisateurs ou encore quant aux dangers de la présence de ces entreprises sur plusieurs marchés distincts qui pourraient donner lieu à plusieurs pratiques abusives, l’Autorité de la concurrence pointe également les prises de participations minoritaires et les partenariats stratégiques.
Gagnant-gagnant
Le partenariat exclusif entre Microsoft et OpenAI, sous forme d’un investissement pluriannuel, l’a bien prouvé : ce genre de collaboration est largement bénéfique pour les deux parties. "Ils présentent néanmoins des risques concurrentiels non négligeables qui appellent à la vigilance particulière des autorités de concurrence. Ils peuvent en effet affaiblir l’intensité concurrentielle entre les deux entités, entraîner des effets verticaux" ou encore produire un verrouillage de certains acteurs, fait toutefois valoir l’Autorité de la concurrence. Et ceci alors que ces accords ne sont pas nécessairement transparents.
Alors, que faire ? Partant de ces conclusions, l’Autorité de la concurrence a émis plusieurs recommandations. Elle appelle entre autres notamment la Commission européenne à porter une attention particulière au développement des services permettant l’accès aux modèles d’IA générative, dans le cadre du Digital Markets Act (DMA). Ou encore à poursuivre les investissements dans le développement de supercalculateurs au niveau européen. Les gouvernements et les sociétés qui en assurent la gestion pourraient également engager une réflexion, afin de proposer un cadre ouvert et non-discriminatoire qui permettrait à des acteurs privés d’utiliser les supercalculateurs publics contre rémunération. Et cela tout en conservant la priorité aux recherches académiques. Enfin, l’organisme recommande aussi d’assurer une meilleure transparence des participations minoritaires dans le secteur, dans le cadre de l’obligation d’information des concentrations prévue à l’article 14 du DMA.
À ce sujet, Bruxelles avait bien commencé à s’intéresser aux liens entre Microsoft et OpenAI en début d’année 2024. "Dans le cadre du règlement européen sur les concentrations, la question clé était de savoir si Microsoft avait acquis le contrôle durable d’OpenAI. Après un examen approfondi, nous avons conclu que tel n’était pas le cas. Nous fermons donc ce chapitre, mais l’histoire n’est pas terminée. Nous continuerons de surveiller les relations entre tous les acteurs clés de ce secteur en pleine évolution, notamment Microsoft et OpenAI", expliquait néanmoins vendredi de son côté Margrethe Vestager, la commissaire européenne à la concurrence. Mais d’ajouter, en revanche, qu’en vertu des règles antitrust européennes, des demandes d’informations officielles avaient été envoyées à certains grands acteurs technologiques, dont Microsoft, Google, Facebook ou TikTok. "Nous avons examiné les réponses et envoyons maintenant une demande de suivi d’informations sur l’accord entre Microsoft et OpenAI", a assuré Margrethe Vestager.
Reproduction et diffusion interdites sans autorisation écrite

