Este viernes, los negociadores del Parlamento y el Consejo alcanzaron un acuerdo provisional sobre la Ley de Inteligencia Artificial. Esta normativa pretende garantizar la protección de los derechos fundamentales, la democracia, el Estado de Derecho y la sostenibilidad medioambiental frente a la IA de alto riesgo, al tiempo que impulsa la innovación y convierte a Europa en líder en este campo. La normativa establece obligaciones para la IA en función de sus riesgos potenciales y su nivel de impacto.

LOI SUR L’INTELLIGENCE ARTIFICIELLE : ACCORD SUR DES RÈGLES GÉNÉRALES POUR UNE IA FIABLE. Ce vendredi, les négociateurs du Parlement et du Conseil sont parvenus à un accord provisoire sur la loi sur l’intelligence artificielle. Cette réglementation vise à garantir la protection des droits fondamentaux, de la démocratie, de l’État de droit et de la durabilité environnementale face à l’IA à haut risque, tout en encourageant l’innovation et en faisant de l’Europe un leader dans ce domaine. La réglementation établit des obligations pour l’IA en fonction de ses risques potentiels et de son niveau d’impact [Le texte continue en espagnol].

ARTIFICIAL INTELLIGENCE ACT: AGREEMENT ON GENERAL RULES FOR RELIABLE AI. On Friday, Parliament and Council negotiators reached a provisional agreement on the Artificial Intelligence Act. This regulation aims to ensure that fundamental rights, democracy, the rule of law and environmental sustainability are protected from high risk AI, while boosting innovation and making Europe a leader in the field. The rules establish obligations for AI based on its potential risks and level of impact [The text continues in spanish].

Aplicaciones prohibidas

Reconociendo la amenaza potencial para los derechos de los ciudadanos y la democracia que suponen determinadas aplicaciones de la IA, los colegisladores acordaron prohibir

  • los sistemas de categorización biométrica que utilicen características sensibles (por ejemplo, creencias políticas, religiosas, filosóficas, orientación sexual, raza);
  • la extracción no selectiva de imágenes faciales de Internet o de grabaciones de CCTV para crear bases de datos de reconocimiento facial;
  • reconocimiento de emociones en el lugar de trabajo y en instituciones educativas
  • puntuación social basada en el comportamiento social o las características personales;
  • Sistemas de IA que manipulan el comportamiento humano para eludir su libre albedrío;
  • IA utilizada para explotar las vulnerabilidades de las personas (debido a su edad, discapacidad, situación social o económica).

Exenciones para el cumplimiento de la ley

Los negociadores acordaron una serie de salvaguardias y excepciones para el uso de sistemas de identificación biométrica (RBI) en espacios de acceso público con fines policiales, con previa autorización judicial y para una lista de delitos estrictamente definida. El RBI «a distancia» deberá utilizarse en su caso y de manera exclusiva en la búsqueda selectiva de una persona condenada o sospechosa de haber cometido un delito grave.

La RBI «en tiempo real» deberá igualmente cumplir condiciones estrictas y su uso estaría limitado en el tiempo y el lugar, a efectos de:

  • búsquedas específicas de víctimas (secuestro, trata, explotación sexual),
  • prevención de una amenaza terrorista específica y actual, o
  • la localización o identificación de una persona sospechosa de haber cometido uno de los delitos específicos mencionados en el Reglamento (por ejemplo, terrorismo, trata de seres humanos, explotación sexual, asesinato, secuestro, violación, robo a mano armada, participación en una organización delictiva, delitos contra el medio ambiente).

Obligaciones para los sistemas de alto riesgo

Para los sistemas de IA clasificados como de alto riesgo (debido a su significativo daño potencial para la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de Derecho), se han acordado obligaciones claras. Los eurodiputados lograron incluir una evaluación obligatoria del impacto sobre los derechos fundamentales, entre otros requisitos, aplicable también a los sectores de seguros y banca. Los sistemas de inteligencia artificial utilizados para influir en el resultado de las elecciones y en el comportamiento de los votantes también se clasifican como de alto riesgo. Los ciudadanos tendrán derecho a presentar quejas sobre los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en sistemas de IA de alto riesgo que afecten a sus derechos.

Barreras de seguridad para los sistemas de inteligencia artificial de uso general

Para tener en cuenta la amplia gama de tareas que pueden realizar los sistemas de IA y la rápida expansión de sus capacidades, se acordó que los sistemas de IA de propósito general (GPAI), y los modelos GPAI en los que se basan, tendrán que cumplir los requisitos de transparencia propuestos inicialmente por el Parlamento. Estos incluyen la elaboración de documentación técnica, el cumplimiento de la legislación de la UE sobre derechos de autor y la difusión de resúmenes detallados sobre los contenidos utilizados para la formación.

Para los modelos GPAI de alto impacto con riesgo sistémico, los negociadores del Parlamento lograron garantizar obligaciones más estrictas. Si estos modelos cumplen ciertos criterios, tendrán que llevar a cabo evaluaciones de modelos, evaluar y mitigar los riesgos sistémicos, realizar pruebas contradictorias, informar a la Comisión sobre incidentes graves, garantizar la ciberseguridad e informar sobre su eficiencia energética. Los eurodiputados también insistieron en que, hasta que se publiquen las normas armonizadas de la UE, los GPAI con riesgo sistémico podrán basarse en códigos de prácticas para cumplir con el reglamento.

Medidas de apoyo a la innovación y a las PYME

Los eurodiputados querían garantizar que las empresas, especialmente las PYME, puedan desarrollar soluciones de IA sin la presión indebida de los gigantes de la industria que controlan la cadena de valor. Para ello, el acuerdo promueve los llamados «cajones de arena» regulatorios y las pruebas en el mundo real, establecidas por las autoridades nacionales para desarrollar y entrenar la IA innovadora antes de su comercialización.

Sanciones y entrada en vigor

El incumplimiento de las normas puede acarrear multas que oscilan entre 35 millones de euros o el 7% del volumen de negocios global y 7,5 millones o el 1,5% del volumen de negocios, en función de la infracción y el tamaño de la empresa.

Valoraciones

Tras el acuerdo, el co-ponente Brando Benifei (S&D, Italia) afirmó que «ha sido largo e intenso, pero el esfuerzo ha merecido la pena. Gracias a la resistencia del Parlamento Europeo, la primera legislación horizontal del mundo sobre inteligencia artificial mantendrá la promesa europea: garantizar que los derechos y las libertades estén en el centro del desarrollo de esta tecnología innovadora. La correcta aplicación será clave: el Parlamento seguirá vigilando de cerca, para garantizar el apoyo a las nuevas ideas empresariales con entornos simulados, y normas eficaces para los modelos más potentes».

El co-ponente Dragos Tudorache (Renovación, Rumanía) señaló igualmente al respecto que «la UE es la primera del mundo en establecer una normativa sólida sobre IA, que oriente su desarrollo y evolución en una dirección centrada en el ser humano. La Ley de IA establece normas para los grandes y potentes modelos de IA, garantizando que no presenten riesgos sistémicos para la Unión y ofrece fuertes salvaguardias para nuestros ciudadanos y nuestras democracias frente a cualquier abuso de la tecnología por parte de las autoridades públicas. Protege a nuestras PYME, refuerza nuestra capacidad para innovar y liderar en el campo de la IA y protege a los sectores vulnerables de nuestra economía. La Unión Europea ha hecho contribuciones impresionantes al mundo; la Ley de IA es otra que tendrá un impacto significativo en nuestro futuro digital».

Fuente: Parlamento Europeo

Ley de Inteligencia Artificial: acuerdo sobre normas generales para una IA fiable
Etiquetado en: