En la plenaria de este miércoles (13.03.2024) en el Parlamento Europeo, la ley sobre el uso de la IA en la UE obtuvo un amplio respaldo, y resultó aprobada por 523 votos a favor, 46 en contra y 49 abstenciones.

El proyecto de ley original, considerado inédito a nivel mundial, había sido presentado por la Comisión Europea, el brazo ejecutivo de la UE, en abril de 2021, y quedó pactado para ser ratificado por el Parlamento Europeo y el Consejo de la UE en diciembre de 2023.

El impacto de la ChatGPT

La aparición a finales de 2022 de ChatGPT, de la empresa californiana OpenAI, capaz de escribir disertaciones, poemas o hacer traducciones en segundos, le otorgó al proyecto una nueva dimensión.

Este sistema reveló el enorme potencial de la IA, pero también expuso sus riesgos. La difusión de fotografías o videos falsos puso de relieve el peligro de manipulación de la opinión pública.

"Primera regulación en el mundo"

"Este es un día histórico en nuestro largo camino hacia una regulación de la inteligencia artificial", dijo el legislador italiano Brando Benifei, uno de los ponentes del texto, junto con el rumano Dragos Tudorache.

En su último discurso antes de la votación, Benifei dijo que se trata de la "primera regulación en el mundo que define un camino claro hacia un desarrollo de la inteligencia artificial centrada en los seres humanos".

Por su parte, Tudorache dijo que "hemos logrado un equilibrio muy delicado entre el interés por la innovación y los intereses que deben ser protegidos".

Por su parte, el comisario europeo de Mercado Interno, Thierry Breton, saludó que el voto de este miércoles en el Parlamento Europeo significa que la UE es un "definidor de estándares" en materia de una Inteligencia Artificial "confiable".

Regulaciones "de propósito general" o "de alto riesgo"

Luego del voto de este miércoles, se espera que los jefes de Estado o de Gobierno de los 27 países del bloque (el Consejo de la UE) respalden este ley en abril, y que el texto sea publicado en el Diario Oficial de la UE en el mes de mayo.

La normativa adoptada prevé que los modelos de IA "de propósito general" deberán cumplir con las obligaciones de transparencia, así como con las normas europeas de derechos de autor.

En tanto, los sistemas considerados "de alto riesgo" (como los utilizados en infraestructuras críticas, educación o aplicación de la ley) estarán sujetos a requisitos más estrictos.

Estos sistemas tendrán que prever la implementación de un análisis de impacto obligatorio sobre los derechos fundamentales.

Contra los sistemas de vigilancia masiva

El texto respaldado por los eurodiputados también prevé prohibir la calificación ciudadana o los sistemas de vigilancia masiva, o incluso la identificación biométrica remota de personas en lugares públicos.

La legislación define medios de vigilancia y sanciones, mediante la creación de una Oficina Europea de IA.

Esa instancia podrá imponer multas que van desde 7,5 millones de euros o el 1,5 % de la facturación de las empresas afectadas, hasta 35 millones de euros o el 7 % de la facturación global, dependiendo de la infracción y el tamaño de la empresa.

Cabilderos procupados por freno a la innovación

No obstante, no todas las voces son tan entusiastas con la normativa. "Muchas de estas nuevas normas siguen sin estar claras y podrían ralentizar el desarrollo y la implementación de aplicaciones innovadoras", apuntó Boniface de Champris, director europeo de la CCIA, un lobby del sector.

En tanto, el Observatorio Multinacional (Francia), el Observatorio Empresarial Europeo (Bélgica) y LobbyControl (Alemania) temen que los grupos de cabilderos debiliten la implementación de las normas en torno a la IA.

"Muchos detalles de la ley siguen abiertos y necesitan ser aclarados", señalaron esas tres entidades en una declaración conjunta. La composición del consejo asesor de la nueva agencia europea de IA tampoco está clara", apuntaron.

Publicidad