WAN
menu
 
!
L'info stratégique
en temps réel
menu
recherche
recherche
Abonnez-vous
Abonnez-vous à notre newsletter quotidienne

Régulation / Concurrence / IA Act / Thierry Breton / Union européenne / Intelligence artificielle / réglementation

Régulation / Concurrence
IA Act / Thierry Breton / Union européenne / Intelligence artificielle / réglementation

Un exercice d’équilibriste en matière d’IA pour l’Europe / Réguler en temps et en heure tout en soutenant l'innovation

Le Parlement européen a adopté la semaine dernière sa version de l’Artificial Intelligence Act. Un texte novateur, classifiant les systèmes d’intelligence artificielle par niveau de risque mais dont les négociations seront bien sûrement teintées de subtilités. Car entre la régulation, le soutien de l’innovation et la mise en place rapide de la réglementation d’un secteur qui évolue à vitesse éclair, l’Europe semble être soumise à de nombreux vents contraires.
Union européenne (Photo by Martin Bertrand / Hans Lucas / Hans Lucas via AFP)
Union européenne (Photo by Martin Bertrand / Hans Lucas / Hans Lucas via AFP)

Le texte était dans les tuyaux depuis deux années. Le Parlement européen en a finalement adopté sa version le mercredi 14 juin, à la faveur d’une très large majorité.

L’Artificial Intelligence Act (IA Act), proposé par la Commission européenne en 2021 et porté par les commissaires Thierry Breton et Margrethe Vestager a une ambition claire : réguler ces nouveaux outils qui promettent de transformer en profondeur tout l’écosystème économique, social ou encore juridique. Mais tout en tentant de ne pas freiner l’innovation dans un secteur voué, également, à devenir l’avenir de la technologie.

En son sein, trois grands leviers d’action, en fonction du niveau de risque évalué d’un système d’IA : l’encadrement, l’évaluation et l’information. L’encadrement, tout d’abord, notamment au travers de la proscription des systèmes d’IA qui génèrent, pour les eurodéputés, un risque inacceptable quant à l’intrusion ou la discrimination des citoyens européens. Cela sous-entend par exemple et entre autres, les systèmes d’identification biométriques à distance et en temps réel dans les espaces publics, utilisant des caractéristiques dites sensibles (à l’instar du genre, de la religion, de l’origine ethnique ou l’orientation politique) ou encore les systèmes de police prédictive, basés sur le profilage, la localisation ou le comportement criminel passé.

 

Superviser pour la santé ou l’éducation

 

Puis l’évaluation, pour la seconde catégorie d’IA jugée à haut risque. Celle-ci concerne les systèmes qui seront utilisés dans des domaines sensibles, comme la santé ou l’éducation. Le texte envisage ainsi la prévision d’une supervision humaine sur les machines lors de moments critiques comme l’instauration d’un document technique ou l’institution de systèmes de gestion du risque.

Le dernier grand axe concerne quant à lui l’information et touchera plus spécifiquement les systèmes d’IA générative comme ChatGPT. L’idée, pour contrer la désinformation, sera d’obliger ces outils d’IA qui interagissent avec des humains à prévenir l’utilisateur lorsqu’il sera en communication avec une machine. Également, il sera prévu d’astreindre les machines qui génèrent des images - par exemple Midjourney - à notifier que ces images ont été créées de toutes pièces. Aussi, ces technologies se verront dans l’obligation d’indiquer les contenus protégés par des droits d’auteur et leur ayant permis de s’entraîner à produire du texte ou des images.

Le jour même de l’adoption du texte par le Parlement européen, Emmanuel Macron, à l’occasion de l’inauguration de l’édition 2023 du salon VivaTech s’est quant à lui montré quelque peu moins enthousiaste par rapport à ce texte européen. Sans le mentionner clairement, le président de la République a déclaré que "le pire scénario serait une Europe qui investit beaucoup moins que les Américains et les Chinois et qui commencerait par créer de la régulation. Ce scénario est possible, ce ne serait pas celui que je soutiendrai".

 

Récolter des investissements

 

Une prise de position affichée, qui s’est également assortie de l’annonce d’un plan d’investissement pour soutenir l’IA française. Une IA tricolore qui peine, en effet, pour l’instant à émerger face à ses concurrents : les start-ups chinoises et américaines captaient, à elles deux, environ 80 % des investissements mondiaux de capital-risque dans le secteur, rapportait en 2021 une étude menée par l’OCDE.

Et alors que couraient encore les discussions autour du projet de réglementation, à la fin du mois de mai, Sam Altman (le président-directeur général d’OpenAI, la société à l’origine de ChatGPT) avait laissé sous-entendre dans le Financial Times que sa société pourrait quitter l’Europe en cas d’une régulation trop astreignante. Des propos qui n’avaient pas manqué de faire réagir l’exécutif européen et sur lesquels Sam Altman était par la suite revenu.

Dans la foulée, le premier actionnaire d’OpenAI Microsoft avait quant à lui appelé à un meilleur encadrement de cette technologie, tout en y allant de sa proposition. La nécessité d’établir des règles pour surveiller le déploiement de l’IA, afin de garantir que "l’humanité reste aux commandes de cette technologie", avait ainsi été soutenue par le président du géant américain Brad Smith. Il avait par exemple suggéré (tout comme Sam Altman) que les entreprises souhaitant déployer des modèles d’IA générative soient soumises à la mise en place de licences.

 

Apporter sa pierre à l’édifice

 

Un signe, donc, de la part des acteurs de l’IA de vouloir jouer un rôle dans la définition des règles qui encadreront leur activité. Une activité qui se développe par ailleurs à toute vitesse et qui impose un rythme auquel la réglementation européenne devra s’adapter. ChatGPT n’avait pas exemple pas encore émergé lorsque la Commission européenne a débuté les consultations concernant le sujet en 2019, ni lors de la présentation de son projet en avril 2021. Après son lancement en novembre 2022, les systèmes d’IA générative, jugés moins risqués, auront finalement eux aussi été visés par le texte.

"Un autre scénario serait de dire, 'on ne régule pas'. Il serait aussi mauvais", a indiqué Emmanuel Macron à VivaTech. Pour autant, le chef de l’Etat a aussi soutenu : "Le rythme de régulation en Europe n’est pas adapté. On est trop en retard en termes d’innovation et on régule trop lentement pour avoir quelque chose de pertinent. Au moment où on va le sortir, on aura régulé sur des présupposés et des connaissances qui sont quasi déjà obsolètes".

Il reste, en effet, que si l’IA Act a été adopté par les eurodéputés, c’est désormais la phase de négociation en trilogue entre le Parlement, la Commission et le Conseil de l’Union européenne afin de s’accorder sur une version finale de la loi qui a débutée. Les différents acteurs espèrent ainsi parvenir à un accord d’ici à la fin de l’année 2023 pour une entrée en application à horizon 2026.

Vous souhaitez réagir à cet article ou apporter une précision ?
Commentez cet article