El Parlamento Europeo plantea la nueva normativa de Inteligencia Artificial

El Parlamento Europeo está preparado para negociar las primeras reglas en la historia para garantizar un uso seguro y transparente de la Inteligencia Artificial (IA). Las reglas tienen como objetivo promover la adopción de una IA centrada en el ser humano y confiable, y proteger la salud, seguridad, derechos fundamentales y democracia de sus efectos perjudiciales.

La votación para la IA

El miércoles, el Parlamento Europeo adoptó su posición de negociación sobre el Acta de Inteligencia Artificial con 499 votos a favor, 28 en contra y 93 abstenciones antes de las conversaciones con los estados miembros de la UE sobre la forma final de la ley. Las reglas garantizarían que la IA desarrollada y utilizada en Europa esté totalmente en línea con los derechos y valores de la UE, incluyendo la supervisión humana, la seguridad, la privacidad, la transparencia, la no discriminación y el bienestar social y ambiental.

Prácticas de IA prohibidas

Las reglas siguen un enfoque basado en el riesgo y establecen obligaciones para los proveedores y aquellos que implementan sistemas de IA dependiendo del nivel de riesgo que la IA pueda generar. Los sistemas de IA con un nivel inaceptable de riesgo para la seguridad de las personas serían, por lo tanto, prohibidos, como aquellos utilizados para la puntuación social (clasificación de las personas en base a su comportamiento social o características personales). Los eurodiputados ampliaron la lista para incluir prohibiciones sobre usos intrusivos y discriminatorios de la IA, como:

  • Sistemas de identificación biométrica remota en tiempo real en espacios accesibles al público
  • Sistemas de identificación biométrica remota «post», con la única excepción de las fuerzas del orden para la persecución de delitos graves y sólo después de la autorización judicial
  • Sistemas de categorización biométrica que utilizan características sensibles (por ejemplo, género, raza, etnia, estado de ciudadanía, religión, orientación política)
  • Sistemas de vigilancia predictiva (basados en perfiles, ubicación o comportamiento criminal pasado)
  • Sistemas de reconocimiento de emociones en las fuerzas del orden, gestión de fronteras, lugar de trabajo e instituciones educativas
  • Recopilación no dirigida de imágenes faciales de Internet o imágenes de CCTV para crear bases de datos de reconocimiento facial (violando los derechos humanos y el derecho a la privacidad)

IA de alto riesgo

Los eurodiputados aseguraron que la clasificación de las aplicaciones de alto riesgo incluirá ahora sistemas de IA que representen un daño significativo para la salud, seguridad, derechos fundamentales o el medio ambiente de las personas. Se añadieron a la lista de alto riesgo los sistemas de IA utilizados para influir en los votantes y en el resultado de las elecciones y en los sistemas de recomendación utilizados por las plataformas de medios sociales (con más de 45 millones de usuarios).

Obligaciones para la IA de propósito general

Los proveedores de modelos de base – un nuevo y rápido desarrollo en el campo de la IA – tendrían que evaluar y mitigar posibles riesgos (para la salud, seguridad, derechos fundamentales, medio ambiente, democracia y estado de derecho) y registrar sus modelos en la base de datos de la UE antes de su lanzamiento en el mercado de la UE. Los sistemas de IA generativa basados en tales modelos, como ChatGPT, tendrían que cumplir con los requisitos de transparencia (revelando que el contenido fue generado por IA, también ayudando a distinguir las llamadas imágenes deep-fake de las reales) y garantizar salvaguardas contra la generación de contenido ilegal. También tendrían que hacerse públicos resúmenes detallados de los datos con derechos de autor utilizados para su entrenamiento.

Apoyando la innovación y protegiendo los derechos de los ciudadanos

Para impulsar la innovación en IA y apoyar a las PYMEs, los eurodiputados añadieron exenciones para las actividades de investigación y los componentes de IA proporcionados bajo licencias de código abierto. La nueva ley promueve las llamadas cajas de arena regulatorias, o entornos de la vida real, establecidos por las autoridades públicas para probar la IA antes de su implementación.

Finalmente, los eurodiputados quieren impulsar el derecho de los ciudadanos a presentar quejas sobre los sistemas de IA y recibir explicaciones de las decisiones basadas en sistemas de IA de alto riesgo que impacten significativamente en sus derechos fundamentales. Los eurodiputados también reformaron el papel de la Oficina de IA de la UE, que estaría encargada de supervisar cómo se implementa el manual de reglas de la IA.

Próximos pasos

Las negociaciones con el Consejo sobre la forma final de la ley comenzarán más tarde hoy.

Declaraciones de los co-relatores

Tras la votación, el co-relator Brando Benifei (S&D, Italia) dijo: «Todos los ojos están puestos en nosotros hoy. Mientras las grandes empresas tecnológicas están dando la alarma sobre sus propias creaciones, Europa ha ido por delante y ha propuesto una respuesta concreta a los riesgos que está empezando a plantear la IA. Queremos aprovechar el potencial positivo de la IA para la creatividad y la productividad, pero también lucharemos para proteger nuestra posición y contrarrestar los peligros para nuestras democracias y libertades durante las negociaciones con el Consejo».

El co-relator Dragos Tudorache (Renew, Rumania) dijo: «El Acta de IA establecerá el tono a nivel mundial en el desarrollo y la gobernanza de la inteligencia artificial, garantizando que esta tecnología, que está destinada a transformar radicalmente nuestras sociedades a través de los enormes beneficios que puede ofrecer, evoluciona y se utiliza de acuerdo con los valores europeos de democracia, derechos fundamentales y el estado de derecho».

Fuente: https://www.europarl.europa.eu/news/en/press-room/20230609IPR96212/meps-ready-to-negotiate-first-ever-rules-for-safe-and-transparent-ai


También podría ser de tu interés:

Deja un comentario