Así es la Ley de Inteligencia Artificial. La Ley de Inteligencia Artificial (IA) es una legislación que está ganando cada vez más relevancia en el ámbito internacional. Se trata de una serie de normativas y regulaciones diseñadas para abordar los desafíos éticos, legales y de seguridad relacionados con el desarrollo y despliegue de sistemas de IA en diversas áreas de la sociedad.
Estas leyes buscan establecer un marco legal claro para garantizar el uso ético, responsable y seguro de la IA, protegiendo los derechos de los individuos y promoviendo la innovación tecnológica. En un mundo cada vez más impulsado por la IA, estas leyes juegan un papel crucial en la definición de los estándares y principios que guiarán su desarrollo y aplicación en el futuro.
¿Qué es?
La AI Act es una propuesta de legislación europea centrada en la regulación de la inteligencia artificial (IA), siendo la primera ley integral sobre IA emitida por un regulador de renombre a nivel mundial. Esta ley clasifica las aplicaciones de IA en tres categorías de riesgo. En primer lugar, se prohíben aquellas aplicaciones y sistemas que generan un riesgo inaceptable, como los sistemas de puntuación social gubernamentales utilizados en China. En segundo lugar, se aplican requisitos legales específicos a las aplicaciones de alto riesgo, como por ejemplo, herramientas de escaneo de currículums vitae utilizadas para clasificar solicitantes de empleo. Por último, las aplicaciones que no están expresamente prohibidas ni catalogadas como de alto riesgo quedan en gran medida sin regulación específica.
¿Cuáles son los aspectos iniciales clave de este reglamento?
En primer lugar, el acuerdo provisional ha adoptado la definición de sistema de IA propuesta por la OCDE, con el fin de establecer criterios claros que diferencien los sistemas de IA de otros programas informáticos más simples.
Además, se aclara que el Reglamento no se aplicará a áreas fuera del ámbito de competencia del Derecho de la UE y no afectará a las competencias de los Estados miembros en materia de seguridad nacional. Tampoco se aplicará a los sistemas utilizados exclusivamente con fines militares o de defensa, ni a los empleados para investigación e innovación.
Protección de los derechos fundamentales
El reglamento establece la evaluación del impacto que cualquier nuevo sistema de IA pueda tener en los derechos fundamentales antes de su introducción en el mercado. Para los modelos funcionales, que abarcan sistemas de gran magnitud capaces de realizar diversas tareas como generar vídeo, texto o imágenes, se imponen obligaciones más específicas en cuanto a transparencia.
Asimismo, destaca la obligación de los usuarios de sistemas de reconocimiento de emociones de informar a las personas físicas expuestas a dichos sistemas.
Sistemas de IA de alto riesgo y prácticas prohibidas
En el acuerdo se han establecido una serie de criterios horizontales de protección que determinarán cuándo los sistemas de IA pueden causar daños a la sociedad. De este modo, aquellos que entrañen riesgos altos estarán supeditados a una serie de requisitos y obligaciones para poder acceder al mercado de la UE.
En el caso de que sean sistemas con riesgos considerados inaceptables, su uso quedará totalmente prohibido. Se enmarcan en estos casos, por ejemplo, la manipulación cognitiva conductual o el rastreo indiscriminado de imágenes faciales sacadas de internet, entre otros.