Le blog de la Wild Code School - Wild Code School

AI Act européen : une avancée majeure dans la régulation de l'Intelligence Artificielle

Rédigé par Amandine Durand | 14/12/2023

L'AI Act européen, fruit de négociations intensives, est une réponse proactive des pays européens aux défis posés par l'intelligence artificielle. Le texte, qui entrera en vigueur en 2026, ambitionne de protéger les droits fondamentaux des Européens, mais également la démocratie, l'État de droit et l'environnement face au développement fulgurant de l’intelligence artificielle. Dans le même temps, il vise à encourager l'innovation technologique et à positionner l'Europe comme un leader dans ce domaine. Ce cadre législatif s’est imposé face à l'émergence de technologies telles que ChatGPT, révélant le potentiel immense et les risques associés à l'IA. Son contenu plus contraignant que l’accord signé à l’échelle internationale implique l’interdiction de certaines pratiques.

 

AI Act européen : des régulations spécifiques basées sur les risques

L'AI Act se distingue par plusieurs mesures phares, notamment en matière d'IA générative et de systèmes à haut risque. Il impose la transparence sur la qualité des données, le respect des droits d'auteur et l'identification claire des contenus créés par l'IA. Par ailleurs, l'AI Act adopte une approche basée sur les risques, imposant des contraintes et des sanctions variables selon le type d'applications de l’intelligence artificielle. 

Ainsi, les systèmes jugés dangereux pour les droits civiques et la démocratie seront interdits dès 2025, avec des exceptions limitées pour des cas spécifiques liés aux forces de l'ordre.

Parmi ces points à haut risque, on retrouve ainsi : 

  • l’interdiction de la surveillance de masse et de l'identification faciale sur les lieux publics ;
  • l’interdiction du social scoring en fonction des comportements et des caractéristiques personnelles ;
  • l’interdiction de la reconnaissance des émotions notamment en raison de la précision de ces analyses et du potentiel de manipulation ;
  • la lutte contre la manipulation d'opinion et l’ingénierie sociale notamment au travers de la diffusion de fausses informations ;
  • et des restrictions sévères pour l'application de la loi par les forces de l'ordre (et notamment l’utilisation de la reconnaissance faciale.)

Les systèmes d'IA à risques limités, eux, doivent respecter des exigences de transparence minimales qui permettraient : “aux utilisateurs de prendre des décisions éclairées”. Ainsi, les utilisateurs devront être informés lorsqu'ils interagissent avec une IA et consentir à son utilisation.

 

Trouver le juste équilibre entre protection et innovation

L'adoption de l'AI Act européen n'a pas été exempte de défis et de controverses. Le processus a révélé des tensions entre la réglementation et la préservation de l'innovation, avec des pressions exercées par les milieux économiques et certains États membres. De leur côté, des organisations de défense des droits civils et des consommateurs ont exprimé des inquiétudes quant à l'efficacité du texte, pointant des lacunes et des exceptions préoccupantes.

Des réactions mitigées ont émergé, notamment concernant les exceptions à l'interdiction de la reconnaissance faciale et de la surveillance de masse, qui sont permises dans certains cas liés à la sécurité. Amnesty International a notamment critiqué l'absence d'une interdiction totale de certaines pratiques de reconnaissance faciale. De son côté, le secteur technologique, représenté par des figures comme Daniel Friedlaender, a exprimé des préoccupations quant à la précipitation de l'élaboration de l'AI Act, craignant un impact négatif sur la compétitivité des entreprises technologiques européennes.

 

AI Act international : des décisions non contraignantes visant à protéger les modèles

Dans un autre temps, le 26 novembre 2023, 18 pays, y compris la France, ont signé un accord sur la sécurité de l'intelligence artificielle, à la suite du premier sommet international sur l’IA. Cet accord non contraignant, signé par des agences de cybersécurité de pays comme les États-Unis, le Royaume-Uni, l'Allemagne et le Japon établit 17 lignes directrices pour le développement sécurisé des systèmes d'IA. 

Ces directives, saluées par Alejandro Mayorkas, secrétaire à la Sécurité intérieure des États-Unis, encouragent les développeurs à créer des modèles d'IA "secure by design" et à investir dans la protection des clients. Elles couvrent des aspects tels que la protection des modèles d'IA, la transparence et les tests préalables à la mise en ligne, Cet accord reflète la volonté de collaboration internationale néanmoins l’ensemble de ces recommandations sont non-contraignantes, elles ne prennent pas en compte les particularités de l’IA générative et enfin, la Chine figure parmi les grands absents des signataires de ce texte.

Plusieurs appels et pétitions appelant à réglementer l’utilisation de l’intelligence artificielle se sont fait entendre au cours de l’année 2023. Face à son développement fulgurant et à son déploiement extrêmement rapide (ChatGPT est à ce jour, le produit qui a réuni les plus d’utilisateurs à en un temps record) les enjeux autour de la régulation iront croissants dans les prochaines années.

 

L'intelligence artificielle est un domaine qui vous passionne ? Découvrez nos possibilités de formations en Data et I.A en format bootcamp (Data Analyst) ou en alternance (Data Scientist ou Data Engineer) ou notre skill course en Intelligence Artificielle (disponible prochainement).