Le premier projet de loi sur l'intelligence artificielle au monde, l'EU AI Act, entre en vigueur

La loi de l'UE sur l'IA exige que tous les États membres introduisent uniformément un cadre et des réglementations sur les risques liés à l'IA pour les développeurs et les déployeurs d'applications d'IA. La loi sur l'IA, la première loi mondiale sur l'intelligence artificielle (IA) établie par l'UE, sera progressivement mise en œuvre d'ici 2. Il est officiellement entré en vigueur le 1er août. Il a introduit un cadre unifié des risques liés à l’IA pour tous les pays de l’UE et a établi des responsabilités et des obligations claires pour les développeurs et les déployeurs d’IA. Ce projet de loi sera promu et mis en œuvre par l'AI Office (AI Office) relevant de la Commission européenne (CE). La loi sur l'IA définit quatre types de risques et de codes de conduite en matière d'IA. La plupart des systèmes d'IA présentent des risques minimes, tels que les programmes de filtrage du spam ou les jeux d'IA. Ces systèmes n'ont pas d'obligations, mais peuvent adopter volontairement des codes de conduite supplémentaires. Deuxièmement, il existe des risques spécifiques en matière de transparence, exigeant que des systèmes tels que les chatbots indiquent clairement aux utilisateurs qu'ils interagissent avec un bot et que certains contenus générés par l'IA doivent également être étiquetés. Les systèmes d'IA classés comme à haut risque doivent répondre à des exigences plus strictes. Par exemple, les logiciels médicaux basés sur l'IA ou les systèmes d'IA utilisés pour recruter des talents doivent être équipés de systèmes d'atténuation des risques, utiliser des ensembles de données de haute qualité et disposer d'informations claires sur les utilisateurs et le sujet. à la surveillance humaine. Dans des séries télévisées telles que "Black Mirror", les systèmes d'IA dans lesquels l'ensemble de la société humaine s'évalue sont considérés comme des risques inacceptables. Les systèmes d’IA de « notation sociale », qu’ils soient dirigés par des gouvernements ou des entreprises, sont considérés comme une menace aux droits humains fondamentaux et sont directement interdits. La Commission européenne a déclaré que l'UE est déterminée à devenir un leader mondial en matière d'IA sûre. En formulant un cadre réglementaire solide fondé sur les droits de l'homme et les valeurs fondamentales, elle sera en mesure de développer un écosystème d'IA qui profite à tous. Afin d'aider les entreprises à se conformer à la loi sur l'IA, la CE travaille à l'élaboration d'un code de conduite pour les fournisseurs de modèles généraux d'IA (GPAI). Le code formel devrait être publié avant avril de l'année prochaine. Bien que la loi sur l'IA soit entrée en vigueur, le délai de mise en œuvre des différentes règles est différent. Par exemple, l'interdiction des systèmes d'IA présentant des risques inacceptables sera mise en œuvre après 6 mois. Les États membres de l'UE doivent désigner les autorités compétentes avant le 2 août de l'année prochaine ; être responsable de la supervision de l'IA. Le déploiement des règles du système ; les règles pour les modèles généraux d'IA seront mises en œuvre dans 12 mois et la grande majorité des règles de la loi sur l'IA ne seront pas mises en ligne avant le 2 août 2026.