Buscar
15 de Noviembre del 2024
Política

Europa hace historia con la primera Ley de Inteligencia Artificial

Europa hace historia con la primera Ley de Inteligencia Artificial

La Ley de IA es el primer marco jurídico integral sobre Inteligencia Artificial (IA) en todo el mundo. El objetivo de las nuevas normas es fomentar una IA fiable en Europa y fuera de ella, garantizando que los sistemas de IA respeten los derechos fundamentales, la seguridad y los principios éticos y abordando los riesgos de modelos de IA muy potentes e impactantes.


La Ley de Inteligencia Artificial es un reglamento europeo sobre inteligencia artificial, el primer marco regulador exhaustivo de un organismo importante en cualquier parte del mundo. Su objetivo es garantizar que los europeos puedan confiar en los beneficios que la IA puede ofrecer. Aunque la mayoría de los sistemas de IA presentan un riesgo limitado o nulo y pueden ayudar a resolver numerosos desafíos sociales, existen determinados sistemas que generan riesgos y deben ser abordados para evitar resultados indeseables.

Algunas de las normas propuestas en esta ley incluye abordar riesgos específicos creados por aplicaciones de IA, establecer requisitos claros para los sistemas de IA en aplicaciones de riesgo, determinar una lista de aplicaciones de alto riesgo, exigir una evaluación de conformidad antes de que un sistema de IA se ponga en servicio o se introduzca en el mercado, y aplicar medidas de cumplimiento una vez que el sistema de IA esté en el mercado.


Esta ley, propuesta por la Comisión Europea el 21 de abril de 2021, entrará en vigor el jueves 1 de agosto de 2024.


Las recientes normativas impiden ciertas aplicaciones de inteligencia artificial que violan los derechos de los ciudadanos, como los sistemas de clasificación biométrica basados en características delicadas y la recolección masiva de imágenes faciales de internet o grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial. Además, se prohibirá el reconocimiento de emociones en el ámbito laboral y en las escuelas, los sistemas de puntuación ciudadana, la acción policial predictiva (cuando se base únicamente en el perfil de una persona o en la evaluación de sus características) y la IA que manipule el comportamiento humano o aproveche las vulnerabilidades de las personas.

Las plataformas de inteligencia artificial de propósito general y los modelos en los que se fundamentan tienen que adherirse a ciertos criterios de claridad, acatar la normativa de la UE respecto a los derechos de autor y divulgar resúmenes pormenorizados del material empleado para capacitar sus esquemas. Los modelos más avanzados que podrían representar amenazas sistémicas deberán cumplir condiciones adicionales, tales como efectuar evaluaciones de los esquemas, examinar y reducir las amenazas sistémicas e informar sobre los eventos adversos.


La ley se basa en un enfoque centrado en el riesgo asociado con la inteligencia artificial (IA). El marco regulador establece cuatro niveles de riesgo para los sistemas de IA: mínimo, limitado, moderado e inaceptable.


Los sistemas de alto riesgo incluyen aquellos que utilizan tecnología de IA en infraestructuras críticas, como el transporte, que podrían poner en peligro la vida de los ciudadanos. También abarcan la formación educativa o profesional, que puede determinar el acceso a la educación y el curso profesional de una persona, como la puntuación de los exámenes. Otros ejemplos incluyen componentes de seguridad de productos, como la aplicación de IA en cirugía asistida por robots, así como en el empleo, la gestión de trabajadores y el acceso al trabajo autónomo, como un software de clasificación de CV para procedimientos de contratación.

Los sistemas de riesgo limitado son aquellos riesgos asociados con la falta de transparencia en el uso de la IA. La Ley de IA introduce obligaciones específicas de transparencia para garantizar que los seres humanos estén informados cuando sea necesario, fomentando la confianza. Los proveedores tendrán que garantizar que el contenido generado por la IA sea identificable. Además, el texto generado por la IA publicado con el fin de informar al público sobre asuntos de interés público deberá etiquetarse como generado artificialmente. Esto también se aplica al contenido de audio y video que constituye falsificaciones profundas.

Finalmente, el sistema de riesgo bajo o nulo: La Ley de IA autoriza el uso libre de aplicaciones de IA de riesgo bajo. Esto abarca videojuegos con características de IA o filtros antispam. La gran mayoría de los sistemas de IA empleados actualmente en la UE se ajustan a esta categoría.


Dado que la IA es una tecnología en rápida evolución, la propuesta tiene un enfoque preparado para el futuro, que permite que las normas se adapten al cambio tecnológico.





Noticias Similares



Noticias Destacadas



Más de Meganoticias