Entra en Vigor una Ley Histórica para Regular la Inteligencia Artificial en Europa

Acountax> Actualidad Jurídica> Ley Inteligencia Artificial

Madrid 1 de agosto de 2024

La Unión Europea (UE) ya tiene la primera ley del mundo que permitirá regular y establecer un estándar global sobre el uso de la inteligencia artificial (IA). Tras la aprobación de la directiva en marzo pasado por el pleno del Parlamento Europeo, en mayo fue el Consejo -que reúne a los representantes de los 27 gobiernos- quien dió, sin debate y por unanimidad, el aprobado definitivo a una legislación calificada de “histórica”. La normativa se aplicará de forma gradual hasta su plena entrada en vigor en 2026.

La Ley de IA europea ya está en vigor. Tal y como se publicó el pasado mes de junio en el Diario Oficial de la Unión Europea, hoy 1 de agosto de 2024 entra en acción la primera regulación a nivel mundial sobre inteligencia artificial.

El Parlamento Europeo aprobó en marzo de este año la Ley de Inteligencia Artificial, que garantiza la seguridad y el respeto de los derechos fundamentales al tiempo que impulsa la innovación.

El Reglamento, acordado en las negociaciones con los Estados miembros en diciembre de 2023, fue respaldado por la Eurocámara con 523 votos a favor, 46 en contra y 49 abstenciones.

Su objetivo es proteger los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental frente a la IA que entraña un alto riesgo, impulsando al mismo tiempo la innovación y erigiendo a Europa en líder del sector. El Reglamento fija una serie de obligaciones para la IA en función de sus riesgos potenciales y su nivel de impacto.

Aplicaciones prohibidas

Las nuevas normas prohíben ciertas aplicaciones de inteligencia artificial que atentan contra los derechos de la ciudadanía, como los sistemas de categorización biométrica basados en características sensibles y la captura indiscriminada de imágenes faciales de internet o grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial. También se prohibirán el reconocimiento de emociones en el lugar de trabajo y en las escuelas, los sistemas de puntuación ciudadana, la actuación policial predictiva (cuando se base únicamente en el perfil de una persona o en la evaluación de sus características) y la IA que manipule el comportamiento humano o explote las vulnerabilidades de las personas.

Exenciones de las fuerzas de seguridad

El uso de sistemas de identificación biométrica por parte de las fuerzas de seguridad queda prohibido a priori, salvo en situaciones muy concretas y bien definidas. Los sistemas de identificación biométrica «en tiempo real» solo se podrán emplear si se cumplen una serie de salvaguardias estrictas; por ejemplo, su uso se limita a un período y lugar específicos y cuenta con una autorización judicial o administrativa previa. Entre estos casos pueden figurar la búsqueda selectiva de una persona desaparecida o la prevención de un atentado terrorista. Recurrir a estos sistemas a posteriori se considera un uso de alto riesgo, que requiere autorización judicial al estar vinculado a un delito penal.

Obligaciones para los sistemas de alto riesgo

También se prevén obligaciones claras para otros sistemas de IA de alto riesgo (debido a que pueden ser muy perjudiciales para la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de derecho). Algunos ejemplos de usos de alto riesgo de la IA son las infraestructuras críticas, la educación y la formación profesional, el empleo, los servicios públicos y privados esenciales (por ejemplo, la sanidad o la banca), determinados sistemas de las fuerzas de seguridad, la migración y la gestión aduanera, la justicia y los procesos democráticos (como influir en las elecciones). Estos sistemas deben evaluar y reducir los riesgos, mantener registros de uso, ser transparentes y precisos y contar con supervisión humana. Los ciudadanos y ciudadanas tendrán derecho a presentar reclamaciones sobre los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en ellos que afecten a sus derechos.

Requisitos de transparencia

Los sistemas de IA de uso general y los modelos en los que se basan deben cumplir ciertos requisitos de transparencia, respetar la legislación de la UE sobre derechos de autor y publicar resúmenes detallados del contenido usado para entrenar sus modelos. Los modelos más potentes que podrían plantear riesgos sistémicos deberán cumplir requisitos adicionales, como realizar evaluaciones de los modelos, analizar y mitigar los riesgos sistémicos e informar sobre los incidentes.

Además, las imágenes, contenidos de audio o de vídeo artificiales o manipulados («ultrafalsificaciones») deberán etiquetarse claramente como tales. [blockquote author=»» link=»» target=»_blank»]La normativa también establece que los modelos de inteligencia artificial generativa, como ChatGPT, tendrán que dejar claro si un texto, una canción o una fotografía se han generado a través de la IA y garantizar que los datos que se han empleado para entrenar a los sistemas respetan los derechos de autor.[/blockquote]

Medidas de apoyo a la innovación y a las pymes

Habrá que poner a disposición de las pymes y de las empresas emergentes espacios controlados de pruebas y ensayos en condiciones reales a nivel nacional para que puedan desarrollar y entrenar la IA innovadora antes de su comercialización.

Si desea conocer más sobre nuestros servicios de asesoramiento jurídico no dude en ponerse en contacto con nosotros escribiendo a info@acountax.eso llamando al número 900 264 785.

Acountax®
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.