La raza, orientación sexual, creencias religiosas y más aspectos se tuvieron en cuenta para la regulación.
Por Infobae
La Unión Europea alcanzó un acuerdo provisional para la creación de la primera Ley de Inteligencia Artificial (Ley de IA), la cual busca sentar un precedente para regular esta tecnología a nivel internacional.
El nuevo marco legal establecerá obligaciones para los sistemas de IA de alto impacto y definirá sanciones que podrían alcanzar hasta los 35 millones de euros.
Dentro de las regulaciones, destacan las exigencias de transparencia en sistemas de IA, incluyendo la necesidad de presentar documentos técnicos y resúmenes detallados sobre los datos usados en la formación de dichos sistemas.
Hasta la fecha, compañías como OpenAI, creadora del popular modelo de IA generativa, ChatGPT, no han cumplido con estas demandas.
Además, se garantizará el derecho de reclamación ciudadana y explicaciones sobre decisiones tomadas por sistemas de inteligencia artificial de alto riesgo.
Y aunque se espera alcanzar un acuerdo final antes de fin de año, se anticipa que la ley no será efectiva hasta al menos 2025.
El primer borrador de la Ley de IA de la UE fue presentado en 2021 y desde entonces ha experimentado significantes revisiones ante el avance rápido de tecnologías como Bard y Stable Diffusion.
Y tras dos años de discusión, estos fueron los puntos más importantes del acuerdo provisional alcanzados por el bloque comunitario.
Una de las claves de la nueva legislación es que clasifica la IA en función del riesgo que representan. La Comisión Europea incluso habla de cuatro niveles, que van desde el más bajo hasta el inasumible.
La mayoría de modelos actuales se enmarcarán en el primero, el de “riesgo mínimo”, paquete en el que entran por ejemplo los sistemas de recomendación. En esos casos, se “beneficiarán de un pase libre y la ausencia de obligaciones”.
Cuando se considere que la inteligencia artificial es de “alto riesgo”, como pueden ser las relacionadas con infraestructuras críticas, como instalaciones de agua, gas y electricidad o dispositivos médicos, la tecnología deberá atenerse a “requisitos estrictos”.
Esto incluye sistemas de mitigación de riesgos, un registro de actividad, supervisión y aportar información clara, entre otras medidas.
Habría dos niveles más: el de “transparencia específico”, que establece que en el caso de los chatbots los usuarios deben ser conscientes de que están interactuando con una máquina; y el “riesgo inaceptable”, categoría en la que se incluirían las IA que “manipulan el comportamiento humano para eludir el libre albedrío de los usuarios”. Para estos dos casos la Comisión habla de prohibición.
Aplicaciones prohibidas
Fueron identificadas y prohibidas ciertas aplicaciones tecnológicas por considerarlas una amenaza potencial para los derechos individuales y la seguridad democrática.
Las restricciones se centran principalmente en sistemas que utilizan categorización biométrica basada en características sensibles, como la raza, la orientación sexual o las creencias religiosas.
También estará prohibida la compilación de bases de datos de rostros a partir de imágenes obtenidas de internet o cámaras CCTV sin un propósito específico, así como la creación de sistemas de puntuación social.
Estas prohibiciones se encuentran enmarcadas en una normativa mayor que además busca fomentar la innovación tecnológica y establece exigencias especiales para los sistemas de inteligencia artificial (IA) de alto riesgo.
Y para asegurar su correcto cumplimiento, se impondrán sanciones significativas a las empresas que no adhieran a las reglamentaciones, las cuales incluyen multas que oscilan entre los 7,5 millones de euros o el 1,5% de su facturación anual.
Además, estas podrían aumentar hasta 35 millones de euros o el 7% del volumen de negocio, dependiendo de la gravedad del incumplimiento y el tamaño de la entidad sancionada.
Limitaciones a actividades de vigilancia
Tras intensas negociaciones se alcanzó un consenso para limitar el uso de sistemas de identificación biométrica en espacios públicos por parte de las autoridades policiales.
Se establecieron salvaguardias específicas y la autorización judicial para la utilización de tecnologías como el reconocimiento facial, permitiendo su uso solo bajo condiciones definidas y para delitos graves.
Mientras que la aplicación de estos sistemas “en tiempo real” será igualmente controlada, limitada temporalmente y geográficamente, y dirigida exclusivamente hacia la identificación de víctimas, prevención de amenazas terroristas, la trata de personas, homicidios o agresiones sexuales.
Este acuerdo se presenta como una solución intermedia ante las preocupaciones por el potencial uso excesivo de estas herramientas de vigilancia, las cuales han generado un debate sobre los derechos ciudadanos y la privacidad.
IA de propósito general
El Parlamento Europeo implementará normativas más severas para regulación de los modelos de IA de propósito general (GPAI), como los generativos tipo ChatGPT.
Estas nuevas reglas, dirigidas a incrementar la transparencia y seguridad en su uso, incluirán la ejecución de evaluaciones rigurosas y monitorización de incidentes que pudieran surgir.
En concreto, los modelos GPAI que tengan un “alto impacto” y cumplan con determinados criterios, deberán someterse a una serie de pruebas de estrés y evaluaciones de riesgo, que incluyen informes de sucesos críticos, ciberseguridad reforzada, y transparencia sobre la eficiencia energética de dichos sistemas.
Derechos de autor
También se reforzó la regulación en torno a los derechos de autor vinculados con la inteligencia artificial (IA), exigiendo transparencia en los sistemas de IA con Generación Predictiva Avanzada de Información (GPAI).
Entre los detalles requeridos por la nueva normativa, se encuentra la creación de documentación técnica detallada, el cumplimiento de la legislación de derechos de autor vigente en la UE y la publicación de resúmenes explicativos del contenido utilizado para entrenar a la IA.
Además, estas disposiciones tienen como finalidad que los creadores y titulares de derechos puedan rastrear el uso que se hace de sus obras y así asegurar que se respeten sus derechos en entornos digitales cada vez más dependientes de la automatización y la IA.
La documentación técnica deberá incluir información pormenorizada sobre los materiales utilizados para el entrenamiento de los algoritmos, así como las metodologías aplicadas.