GARA
ESTRASBURGO

Primer paso del Parlamento Europeo para regular la Inteligencia Artificial

El proyecto europeo para regular la Inteligencia Artificial obtuvo ayer la primera luz verde de los eurodiputados, que reclaman un mayor control para mitigar los riesgos que pueden generar los sistemas tecnológicos como ChatGPT. Está previsto que el pleno del Parlamento Europeo confirme su posición negociadora para esta norma en junio.

Una pantalla con el logo de ChatGPT en Toulouse.
Una pantalla con el logo de ChatGPT en Toulouse. (Lionel BONAVENTURE | AFP)

Las comisiones de Mercado Interior y de Libertades Civiles del Parlamento Europeo acordaron ayer su posición para negociar nuevas normas para mitigar los posibles riesgos que pueden generar los sistemas tecnológicos como ChatGPT, tales como la distribución de noticias falsas o la violación de los derechos de autor.

En la votación, los eurodiputados adoptaron por amplia mayoría -84 votos a favor, siete en contra y doce abstenciones- su posición sobre el proyecto de reglamento de la Comisión Europea presentado en abril de 2021.

Se trata de una serie de normas que se incluyeron en la ley de Inteligencia Artificial (IA) que se está negociando en Bruselas.

De incorporarse íntegras estas disposiciones a la ley final, los desarrolladores de estos sistemas tecnológicos que quieran introducirlos en el mercado tendrán que demostrar que han reducido los riesgos que puedan generar a la salud, a los derechos fundamentales y al sistema democrático, y someterse además al análisis de expertos independientes.

Asimismo, los usuarios de sistemas de Inteligencia Artificial que generen o manipulen vídeos, imágenes o sonidos que puedan inducir erróneamente a otras personas a pensar que son auténticos o verídicos deberán informar al resto de ciudadanos de que el contenido es falso.

DATOS PROTEGIDOS

Además, los creadores de la tecnología tendrán que publicar «un resumen suficientemente detallado» sobre los datos protegidos con derechos de autor que utilizan para entrenar a los sistemas de Inteligencia Artificial.

Junto a ello, las herramientas se tendrán que diseñar de tal forma que a lo largo de su vida útil tengan «niveles apropiados» de rendimiento, previsibilidad, interpretabilidad, corregibilidad, seguridad y ciberseguridad.

«Con estas medidas, actuamos fuertemente ante estos retos», declaró el ponente de la ley, el eurodiputado socialdemócrata italiano Brando Benifei.

Más allá de prever reglas específicas para estos sistemas autónomos de generación de contenido, la ley de Inteligencia Artificial prohíbe los sistemas de vigilancia masiva en tiempo real en espacios públicos -salvo para prevenir delitos y localizar a posibles víctimas- y veta los modelos que se sirvan de técnicas subliminales para alterar de manera «sustancial» el comportamiento de una persona, sin que sea consciente de ello.

Además, califica de alto riesgo a toda una serie de sistemas de Inteligencia Artificial con usos muy específicos que solo se podrán introducir en el mercado si respetan los derechos fundamentales y valores de la UE.

Por ejemplo, los que se puedan utilizar para influir en el resultado de unas elecciones, los que empleen las entidades financieras para evaluar la solvencia y establecer la calificación crediticia de una persona o los que emplee la Policía de control de fronteras para vigilar o procesar datos para predicción de movimientos migratorios.

La Eurocámara quiere que las empresas que incumplan la normativa puedan pagar una multa de hasta el 7% de su facturación anual mundial.

Está previsto que el pleno del Parlamento Europeo confirme su posición negociadora para esta norma el próximo mes de junio y la Eurocámara tendrá que negociar después con la Comisión Europea y el Consejo de la UE el texto definitivo de la ley de Inteligencia Artificial.