11 septiembre 2023
El uso de la inteligencia artificial (IA) en la Unión Europea estará regulado por la Ley de Inteligencia Artificial, que podría ser la primera ley integral sobre IA del mundo. Como suele ocurrir, el derecho va por detrás de la tecnología, por lo que en un momento en el que la IA está experimentando un crecimiento sin precedentes y está de rabiosa actualidad, no hay ningún país que regule su desarrollo y uso de forma exhaustiva.
Ya en 2021, la Comisión propuso un marco regulador de la UE por el cual los sistemas de IA se analicen y clasifiquen según el riesgo que supongan para los usuarios, implicando una mayor o menor regulación. El Parlamento ha ratificado ahora esta postura, contraria a la que parece estar tomando EE. UU., y establece normas diferentes para niveles de riesgo diferentes.
La escalera del riesgo de la IA
En el extremo más alto de la escala de peligro, la UE sitúa aquellas IAs que considera que suponen un riesgo inaceptable por ser una amenaza para las personas y que quedarán prohibidas. Aquí se incluyen aquellas que supongan la manipulación cognitiva del comportamiento de personas o grupos vulnerables específicos (por ejemplo, juguetes activados por voz que fomentan comportamientos peligrosos en los niños); los sistemas de puntuación social y clasificación de personas en función de su comportamiento, estatus socioeconómico o características personales; y los sistemas de identificación biométrica en tiempo real a distancia —como el reconocimiento facial—.
En un nivel inferior se sitúan aquellas IAs que afecten negativamente a la seguridad o a los derechos fundamentales, las cuales se considerarán de alto riesgo y se dividirán en dos categorías:
- La primera, para la IA que se utilice en bienes sujetos a la legislación de la UE sobre seguridad de los productos, como juguetes, aviación, automóviles, dispositivos médicos y ascensores.
- Y una segunda para las IAs perteneciente a ciertos ámbitos específicos, que deberán registrarse en una base de datos de la UE. Estos ocho ámbitos son:
– identificación biométrica y categorización de personas físicas
– gestión y explotación de infraestructuras críticas
– educación y formación profesional
– empleo, gestión de trabajadores y acceso al autoempleo
– acceso y disfrute de servicios privados esenciales y servicios y prestaciones públicas
– aplicación de la ley
– gestión de la migración, el asilo y el control de fronteras
– asistencia en la interpretación jurídica y aplicación de la ley.
Todos los sistemas de IA de alto riesgo serán evaluados antes de su comercialización y a lo largo de su ciclo de vida.
En el escalón más bajo se encuentran las IAs de riesgo limitado, que deberán cumplir unos requisitos mínimos de transparencia que permitan a los usuarios tomar decisiones con conocimiento de causa. En particular, los usuarios deben ser conscientes de cuándo están interactuando con la IA. Esto incluye los sistemas de IA que generan o manipulan contenidos de imagen, audio o vídeo (por ejemplo, deepfakes).
En este sentido, la IA generativa, como el famoso ChatGPT, tendría que cumplir determinados requisitos de transparencia como revelar que el contenido ha sido generado por IA; diseñar el modelo para evitar que genere contenidos ilegales; y publicar resúmenes de los datos protegidos por derechos de autor utilizados para el “entrenamiento”. A este respecto, en 2020, El Parlamento ya aprobó un informe centrado en los derechos de propiedad intelectual en el que se enfatiza la importancia de un sistema efectivo que permita el desarrollo de la IA y con ello, el registro de las patentes y los nuevos procesos creativos. Sin embargo, una de las principales cuestiones pendientes de resolver es a quién pertenece la propiedad intelectual de algo que se ha desarrollado íntegramente con inteligencia artificial.
IA: panorama nacional y europeo
A nivel nacional, España cuenta con la denominada Estrategia Nacional de Inteligencia Artificial, la ENIA, uno de los ejes de la Agenda España Digital 2026 que presenta una serie de medidas y actuaciones en el ámbito de la IA entre las que destacan la creación de la Agencia Nacional de Supervisión de la Inteligencia Artificial y el desarrollo de un “sandbox” regulatorio para la implementación de la Ley de IA de la UE.
Por su parte, directivos y altos responsables de más de ciento cincuenta grandes empresas europeas como Airbus, Siemens, o Renault han firmado una carta abierta enviada a las principales instituciones de la UE en la que exponen sus preocupaciones sobre que la mencionada Ley de IA haga peligrar la capacidad competitiva de la industria europea ante sus competidores estadounidenses.
Desde H&A os mantendremos informados sobre los avances legislativos y jurisprudenciales que surjan.
Comentarios
No hay comentarios