La réglementation européenne sur l’intelligence artificielle est devenue contraignante à partir du jeudi 1er août 2024. Le but de cette loi est de minimiser les risques liés à l’IA tout en positionnant l’Europe en leader sur la scène mondiale.
Table des matières
ToggleUne avancée juridique révolutionnaire
Les responsables de la réglementation ont célébré cet événement marquant l’établissement du tout premier cadre légal pour l’IA. L’objectif principal de l’Union européenne est de garantir que l’IA développée et utilisée dans la région soit fiable et respecte les droits fondamentaux des citoyens. Cette réglementation définit quatre niveaux de risque pour les systèmes d’IA, chacun ayant des conséquences spécifiques.
Interdiction des systèmes d’IA à risques
Pour ceux qui ne sont pas au courant des évolutions de la réglementation européenne sur l’intelligence artificielle, également connue sous le nom de AI Act, celle-ci adopte une approche basée sur les niveaux de risque. Les systèmes d’IA présentant des risques jugés inacceptables seront automatiquement bannis de l’Union européenne. Cela inclut tout système posant une menace pour la sécurité, les droits des individus ou les moyens de subsistance.
Gestion des risques élevés
Les systèmes d’IA classés à risque élevé ne seront pas interdits mais seront soumis à des obligations strictes avant leur mise sur le marché. Cela concerne notamment les IA utilisées dans l’éducation, l’emploi, les infrastructures critiques telles que les transports, la sécurité des produits, le contrôle aux frontières et la justice. Les systèmes d’identification biométrique à distance seront surveillés de près par les autorités européennes et nationales.
Transparence pour les IA à risque limité
Les deux autres catégories d’IA sont sujettes à moins de restrictions. Les systèmes à risque limité, comme les chatbots tels que ChatGPT ou Claude, devront respecter des obligations de transparence. Les utilisateurs devront être informés de leur interaction avec l’intelligence artificielle. De plus, les fournisseurs de contenu, particulièrement les médias, devront étiqueter clairement tout contenu généré par l’IA. Les systèmes d’IA présentant un risque minime ou nul pourront être utilisés librement. Cela concerne des applications courantes telles que les filtres anti-spam et les jeux vidéo. La plupart des IA actuellement utilisées dans l’Union européenne relèvent de cette catégorie.
La mise en application de l’AI Act suit un calendrier bien défini. À partir du 1er février de l’année prochaine, l’Union Européenne s’assurera du retrait de tous les systèmes d’IA interdits. Le 1er mai 2025, les fournisseurs de modèles d’IA à usage général devront avoir adopté des codes de bonne conduite. D’ici un an, chaque État devra avoir établi ou désigné une autorité de contrôle. Enfin, d’ici le 1er août 2026, les États membres devront avoir mis en place un bac à sable réglementaire pour l’IA via leur autorité compétente.
Il n’y a pas d’entrée similaire.