La Ley de IA de la UE exige que todos los estados miembros introduzcan de manera uniforme un marco de riesgo de IA y regulaciones para los desarrolladores e implementadores de aplicaciones de IA. La Ley de IA, la primera Ley de Inteligencia Artificial (IA) del mundo establecida por la UE, se implementará gradualmente en 2. años Entró oficialmente en vigor el 1 de agosto. Introdujo un marco unificado de riesgos de IA para todos los países de la UE y estableció responsabilidades y obligaciones claras para los desarrolladores y implementadores de IA. Este proyecto de ley será impulsado e implementado por la Oficina de IA (AI Office) dependiente de la Comisión Europea (CE). La Ley de IA define cuatro tipos de riesgos y códigos de conducta de la IA. La mayoría de los sistemas de IA son riesgos mínimos, como los programas de filtrado de spam o los juegos de IA. Estos sistemas no tienen que asumir obligaciones, pero pueden adoptar voluntariamente códigos de conducta adicionales. En segundo lugar, existen riesgos específicos de transparencia, que requieren que sistemas como los chatbots permitan a los usuarios saber claramente que están interactuando con un bot y que cierto contenido generado por IA también debe etiquetarse. Los sistemas de IA clasificados como de alto riesgo deben cumplir requisitos más estrictos. Por ejemplo, el software médico basado en IA o los sistemas de IA utilizados para reclutar talentos deben estar equipados con sistemas de mitigación de riesgos, utilizar conjuntos de datos de alta calidad y tener información clara sobre el usuario y el tema. a la supervisión humana. En series de televisión como "Black Mirror", los sistemas de inteligencia artificial en los que toda la sociedad humana se califica entre sí se consideran riesgos inaceptables. Se considera que los sistemas de IA de "puntuación social", ya sean dirigidos por gobiernos o empresas, amenazan los derechos humanos básicos y están directamente prohibidos. La Comisión Europea afirmó que la UE está decidida a convertirse en un líder mundial en IA segura. Al formular un marco regulatorio sólido basado en los derechos humanos y los valores fundamentales, podrá desarrollar un ecosistema de IA que beneficie a todos. Para ayudar a las empresas a cumplir con la Ley de IA, la CE está trabajando en la formulación de un código de conducta para proveedores de modelos de IA general (GPAI). Se espera que el código formal se publique antes de abril del próximo año. Aunque la Ley de IA ha entrado en vigor, el tiempo de implementación de diferentes reglas es diferente. Por ejemplo, la prohibición de sistemas de IA con riesgos inaceptables se implementará después de 6 meses. Los estados miembros de la UE deberán designar autoridades competentes antes del 2 de agosto del próximo año; será responsable de supervisar la implementación de las reglas del sistema; las reglas para los modelos generales de IA se implementarán en 12 meses y la gran mayoría de las reglas de la Ley de IA no estarán en línea hasta el 2 de agosto de 2026.