
“`html
La inteligencia artificial está ganando tal importancia en la cotidianidad de los usuarios y diversas corporaciones, que la Unión Europea se ha visto obligada a investigar más detenidamente las consecuencias tanto positivas como negativas que podría acarrear. En este contexto, se ha aprobado la negociación de la Ley de Inteligencia Artificial, la primera normativa integral sobre IA a nivel global.
La UE señaló en un comunicado que «como parte de su estrategia digital, la UE busca regular la inteligencia artificial para asegurar condiciones óptimas de desarrollo y utilización de esta innovadora tecnología».
El Parlamento Europeo definió su postura negociadora respecto a la ley tras haber obtenido 499 votos a favor, 28 en contra y 93 abstenciones. Ahora, se iniciarán las negociaciones con los Estados miembros de la UE sobre el texto final de la ley. Se anticipa que se alcance un acuerdo definitivo antes de que finalice el año.
Ya en abril de 2021, la Comisión presentó una propuesta sobre el marco regulador de la UE en relación con la IA, en la que se sugiere que todos los sistemas de IA empleados en diversas aplicaciones sean evaluados y clasificados según el riesgo que pudieran representar para los usuarios. Los diferentes niveles de riesgo implican una mayor o menor regulación de la tecnología.
Desde la UE afirman que «la prioridad del Parlamento es asegurar que los sistemas de IA utilizados en la UE sean seguros, transparentes, trazables, no discriminatorios y amigables con el medio ambiente. Los sistemas de IA deben ser supervisados por personas y no por la automatización, para prevenir resultados dañinos».
Sistemas de IA con riesgo inaceptable
Esta nueva ley buscará prohibir los sistemas de vigilancia biométrica en tiempo real en espacios públicos, aunque se establece que este tipo de sistemas serían aceptables en situaciones muy específicas, previa autorización judicial.
Otros sistemas de IA que serán prohibidos incluyen aquellos que manipulan el comportamiento de individuos o grupos vulnerables, como en el caso de juguetes activados por voz que inciten a comportamientos peligrosos en niños, y sistemas que promuevan la puntuación social o clasificación de individuos según su conducta, características físicas o situación socioeconómica.
Sistemas de alto riesgo
La Ley de Inteligencia Artificial categoriza como sistemas de alto riesgo aquellos con usos muy concretos, que solo podrán ser introducidos en el mercado si cumplen con los estándares de seguridad, los derechos fundamentales y los valores de la UE. Todos los sistemas de alto riesgo deberán ser evaluados antes de su comercialización y a lo largo de todo su ciclo de vida.
La UE ha clasificado en ocho categorías específicas los sistemas de alto riesgo que deberán registrarse en la base de datos de la UE y que proyectan un futuro en el que podría existir una inteligencia artificial general:
- Identificación biométrica y clasificación de individuos.
- Gestión y explotación de infraestructuras críticas.
- Educación y formación profesional.
- Empleo, administración de trabajadores y acceso al autoempleo.
- Acceso y disfrute de servicios privados esenciales así como servicios y prestaciones públicas.
- Aplicación de la ley.
- Gestión de la migración, el asilo y el control de fronteras.
- Asistencia en la interpretación legal y aplicación de la ley.
Sistemas
“`
de riesgo restringido
Estos deberán satisfacer ciertos criterios mínimos de claridad que permitan a sus usuarios estar debidamente informados al tomar decisiones, de tal forma que puedan realizarlas libremente y con pleno conocimiento. Aquí se incluirían, por ejemplo, las IA generativas o las que alteren imágenes, sonidos o vídeos. Así se busca abordar problemas serios como los deepfakes.
Normativa para ChatGPT
Tras las numerosas polémicas que ha enfrentado ChatGPT en varios países europeos, que incluso han resultado en su suspensión, la Ley de Inteligencia Artificial sugiere que las herramientas de IA generativa, como ChatGPT, cumplan con requisitos específicos de transparencia para ser aprobadas.
Por lo tanto, es fundamental que se capacite al modelo para prevenir la generación de contenido ilícito y que cuando un usuario utilice ChatGPT para crear imágenes falsas (deepfakes) exista un aviso que indique que el contenido ha sido alterado por IA. De igual forma, los desarrolladores deben detallar minuciosamente qué datos protegidos por derechos de autor se han empleado para el entrenamiento de la IA.
Imagen: Depositphotos