Skip to content

Téléphonez-nous au :

09 78 45 04 38

Ou envoyez-nous un message :

Revenir au blog

IA Act : tout savoir sur le projet européen de régulation de l’IA

La Commission Européenne a décidé de réguler l’usage des intelligences artificielles sur son territoire. Alors, que contient cette nouvelle proposition de loi sur l’IA ? Décryptage.

IA Act : tout savoir sur le projet européen de régulation de l’IA

Le volume de données produit dans le monde devrait passer de 33 zettaoctets en 2018 à 175 en 2025 (1 zettaoctet représente un billion de gigaoctets), selon le Parlement Européen. Au cœur de cette explosion de données se trouvent les algorithmes d’intelligence artificielle. Et leur utilisation impacte tous les secteurs d’activité. Toujours selon le Parlement Européen, l’augmentation de la productivité du travail liée à l’IA devrait passer de 11% à 37% d'ici à 2035. Pour anticiper les bouleversements sociétaux à venir, la Commission Européenne planche sur un projet de loi visant à réguler l’usage et les applications de l’IA.

 

De quoi l’IA Act est-il le nom ?

L'objectif principal de l'IA Act est de promouvoir l'innovation tout en garantissant la sécurité et les droits des utilisateurs. Il vise à créer un cadre juridique clair pour l'utilisation de l'intelligence artificielle dans l'UE. Et justement, l’UE travaille sur ce projet depuis plus de deux ans, avec un premier texte déposé en avril 2021. Depuis, les eurodéputés se sont réunis pour voter sur le projet de régulation de l'IA en commission et ont largement approuvé un projet encore plus strict.

Le projet de régulation de l'IA Act aborde la surveillance des systèmes d'IA à haut risque, la transparence des systèmes, la responsabilité des fournisseurs, la protection des données et la supervision par les autorités compétentes. Si le projet devient une loi, il aura des implications importantes pour les entreprises et les développeurs d'IA en Europe. Ils devront en effet se conformer aux nouvelles règles et aux exigences en matière de sécurité et de transparence.

 

L’échelle des risques

La Commission Européenne a classé trois catégories de risques. Celles-ci donnent lieu à des droits et des devoirs différents pour toutes les parties prenantes autour de l’IA.

  • Les risques inacceptables

Les risques inacceptables sont considérés comme une menace sérieuse pour la sécurité et les droits des individus, et seront tout bonnement interdits sur le continent. Ils comprennent les systèmes d'IA conçus pour manipuler le comportement ou les pensées de personnes, tels que les jouets activés par la voix qui pourraient encourager des comportements dangereux chez les enfants.

Le système de score social mis en place en Chine est également pointé du doigt, puisque cette pratique est jugée discriminatoire et intrusive par la Commission. Dans la même lignée, les systèmes d'identification biométrique en temps réel et à distance, comme la reconnaissance faciale par exemple, seront interdits. L’objectif est de protéger la vie privée des européens en luttant contre la surveillance de masse.

  • Les risques élevés

Toutes les IA ayant des risques élevés pour les individus devront être enregistrées dans une base de données de l’UE. Cela comprend, par exemple, la gestion et l’exploitation des infrastructures critiques, l’éducation et la formation professionnelle, l’emploi et la gestion des ressources humaines, les forces de l’ordre, l’accès aux biens publics, la gestion de la migration et l’interprétation juridique de la loi.

  • Les risques limités

Les fournisseurs d’IA à risques limités doivent, quant à eux, faire preuve de transparence vis-à-vis des utilisateurs, pour leur permettre de prendre des décisions éclairées sur l’utilisation de ces ressources. C’est le cas notamment des IA génératives servant à créer ou manipuler du contenu déjà existant.

 

Quelles conséquences pour les IA génératives ?

ChatGPT, Midjourney, ou DALL-E devront divulguer leurs sources et permettre de distinguer les contenus générés par l’IA. Une mesure particulièrement attendue pour renforcer la protection de la propriété intellectuelle des œuvres numériques. Cette mesure vise également à garantir que ces algorithmes ne sont pas utilisés de manière abusive pour reproduire des contenus protégés sans autorisation.

Mais les IA génératives devront aussi être soumises à des tests par des experts indépendants pour évaluer les risques potentiels liés à la sécurité et à la santé des individus. Ces évaluations contribueront à identifier les utilisations malveillantes possibles et à mettre en place des mesures de prévention.

Pour répertorier ces usages malveillants, une documentation transparente devra être fournie aux utilisateurs et aux régulateurs afin de comprendre les risques associés à ces technologies. Et, enfin, le respect du RGPD sera incontournable pour le développement de ces algorithmes, ce qui signifie une meilleure protection des données personnelles.

 

En juin 2023, les députés européens se sont mis d’accord sur le contenu de l’IA Act. Les négociations autour de la forme finale de la loi vont maintenant commencer avec les pays de l'UE. L'objectif est de parvenir à un accord d'ici la fin de l'année.

 

Le développement de l’intelligence artificielle n’a pas fini d’évoluer et les compétences techniques à acquérir aussi. Alors, si vous souhaitez développer les solutions innovantes de demain, venez vous former aux métiers de la Data et de l'IA !

 

Entreprises, confiez-nous vos besoins en recrutement

En savoir plus