La inteligencia artificial está suponiendo una verdadera revolución en todos los ámbitos en los últimos años. La irrupción de modelos cada vez más avanzados como ChatGPT ha provocado la preocupación sobre sus posibles riesgos. Por ello, la Unión europea aprobó en abril de 2021 su propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (ley de inteligencia artificial) y se modifican determinados actos legislativos de la Unión.
Este artículo forma parte de la formación que ofrezco sobre:
APLICACIONES DE LA IA EN LAS ORGANIZACIONES
Si te interesa mi formación, rellena el formulario de contacto y hablamos.
Objetivos de la ley
El auge y expansión de la IA en todos los sectores supone una verdadera preocupación sobre sus efectos en los derechos de los ciudadanos de la UE. Por eso, el principal objetivo de esta novedosa Ley de Inteligencia Artificial es garantizar que el desarrollo y uso de la misma se realice de una manera segura, transparente, trazable, no discriminatoria y respetuosa con el medio ambiente. En tal sentido, el borrador pretende asegurar el respeto de los derechos fundamentales y valores de la UE, garantizar la seguridad jurídica para facilitar la inversión e innovación en IA, mejorar la gobernanza y aplicación efectiva de la legislación vigente, facilitando el desarrollo de un mercado único para el uso legal, seguro y confiable de aplicaciones de IA.
Los temores que está planteando el uso de la IA han llevado a la Comisión Europea a querer limitar la autonomía de los sistemas de IA y que su desarrollo y supervisión sea realizado por humanos, sobre todo en las etapas más delicadas. Es normal que, dado su constante desarrollo y lo que podrán llegar a lograr los sistemas basados en estos algoritmos, se quieran poner ciertos límites, si bien habrá que estar muy atentos a las prohibiciones y restricciones que se impongan, pues en unos casos quizás sea «ponerle puertas al campo» y en otros se pierda la oportunidad de avanzar en el desarrollo de aplicaciones y mejora del servicios a los ciudadanos y perdamos, también, competitividad con respecto a EE.UU y China.
Las 3 leyes de la inteligencia artificial
Traigo a colación las famosas 3 leyes de la robótica que «dictó» el famoso profesor y divulgador científico Isaac Asimov en 1942. En aquel entonces no se había acuñado aún el término inteligencia artificial (apareció en 1956), pero los robots que él visualizaba disponían de lo que hoy llamaríamos IA fuerte, la más avanzada. Estas leyes de la robótica son:
Primera Ley.- Un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño.
Segunda Ley.- Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.
Tercera Ley.- Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.1
(1 Asimov, Isaac (1989). «Círculo vicioso». Los robots. trad. Domingo Santos. Barcelona)
Asimov ya vislumbró los peligros que una IA fuerte, con conciencia de sí misma, podría suponer para los humanos. De manera similar, aunque aún no hemos llegado a tal nivel de desarrollo, los gobiernos y la propia UE se encuentran muy influenciadas por esa previsión. No sabemos si llegará a ocurrir, aunque algunos ejemplos hemos tenido de inteligencias artificiales que han adquirido comportamientos propios y preocupantes o, al menos, que sobrepasaban las previsiones de sus creadores.
Así ocurrió con la IA Galáctica, de Facebook, que interactuaba en redes sociales y que llegó a convertirse en racista y a difundir noticias falsas hasta que tuvo que ser apagada. También Facebook tuvo que apagar una IA diseñada para realizar negociaciones porque llegó a crear un lenguaje propio y más eficiente que el inglés, y que sus creadores desconocían.
Qué es la Inteligencia artificial
Definir la IA ha sido complicado, si bien el borrador de la Ley, en su versión inicial, la definía como:
El software que se desarrolla empleando una o varias de las técnicas y estrategias que figuran en el anexo I y que puede, para un conjunto determinado de objetivos definidos por seres humanos, generar información de salida como contenidos, predicciones, recomendaciones o decisiones que influyan en los entornos con los que interactúa.
Como se puede apreciar, la definición prevé que la IA trabaje según los objetivos marcados. Estos pueden establecerse mediante la programación de los algoritmos y la oportuna alimentación con datos, o bien, como se ha logrado con ChatGPT y similares, a través de los denominados prompts o entradas de lenguaje natural para pedirle que nos dé una respuesta en formas diversas (contenidos, decisiones…). Finalmente, los resultados que generará la IA debe influir en los entornos con los que se relaciona, lo cual supone, en cierta manera, limitar sus posibilidades, pues ciertamente, dichos resultados pueden ir más allá del simple entorno de la IA.
Técnicas y estrategias de inteligencia artificial
El Anexo I del borrador completa la definición de inteligencia artificial con hasta tres técnicas y estrategias que puede utilizar para cumplir sus objetivos:
- Estrategias de aprendizaje automático, incluidos el aprendizaje supervisado, el no supervisado y el realizado por refuerzo, que emplean una amplia variedad de métodos, entre ellos el aprendizaje profundo (deep learning).
- Estrategias basadas en la lógica y el conocimiento, especialmente la representación del conocimiento, la programación (lógica) inductiva, las bases de conocimiento, los motores de inferencia y deducción, los sistemas expertos y de razonamiento (simbólico).
- Estrategias estadísticas, estimación bayesiana, métodos de búsqueda y optimización.
Como se ve, el anexo establece las técnicas más habituales y conocidas para desarrollar los modelos inteligentes. El problema que surge es que el desarrollo de esta tecnología puede hacer surgir otros sistemas y se ha preferido, no solo cambiar la definición sino eliminar el Anexo I con la propuesta de definición de IA que aparece en las enmiendas publicadas en mayo de 2023.
Última propuesta de definición de inteligencia artificial
En efecto, entre las enmiendas a la Ley de inteligencia artificial presentadas el 16 de mayo de 2023 se encuentra una nueva definición de lo que se entiende por inteligencia artificial:
Un sistema basado en una máquina diseñada para funcionar con distintos niveles de autonomía y que puede, para objetivos explícitos o implícitos, generar resultados tales como predicciones, recomendaciones o decisiones que influyan en entornos físicos o virtuales.
La nueva propuesta es más abierta y ha tenido en cuenta las características propias de los modelos inteligentes. Se ve, por ejemplo, que una IA puede operar con mayor o menor grado de autonomía; lo que nos lleva a que se reconoce que no todas son peligrosas. Por otro lado, sus fines pueden venir determinados expresamente, de manera específica, como es el caso de los modelos de propósito particular (detectar enfermedades en radiografías, prever incendios…). O bien, como viene siendo la tendencia actualmente, mediante modelos de propósito general, que permiten incluso que una IA sin demasiados datos de entrada (objetivos implícitos) pueda dar resultados óptimos.
Niveles de riesgo de la inteligencia artificial
Por otro lado, la propuesta sigue un enfoque basado en riesgos y establece requisitos obligatorios para sistemas de IA considerados de alto riesgo, así como obligaciones para proveedores y usuarios de dichos sistemas. También prohíbe ciertas prácticas perjudiciales y propone restricciones y salvaguardias específicas en relación con ciertos usos de sistemas de identificación biométrica remota con fines de aplicación de la ley. La propuesta es coherente con otras políticas y legislación de la UE, incluyendo protección de datos, protección del consumidor, no discriminación e igualdad de género, por ejemplo.
El proyecto de ley de IA busca establecer, por tanto, unas reglas básicas basadas en niveles de riesgo para regular su uso en diferentes sectores y aplicaciones.
Riesgo inaceptable
Quedarán prohibidos los sistemas de IA que se consideren una amenaza evidente para la seguridad, los medios de subsistencia y los derechos de las personas.
Se incluyen los sistemas o las aplicaciones de inteligencia artificial que:
- Manipulan el comportamiento humano para eludir la libre voluntad de los usuarios (por ejemplo, los juguetes que usan asistencia por voz que fomenta que los menores tengan comportamientos peligrosos) y
- Los sistemas de vigilancia indiscriminada o los que permiten a los gobiernos establecer una “puntuación social”.
Riesgo alto
Los sistemas de IA considerados de alto riesgo son los utilizados en:
- Infraestructuras críticas: transporte (coche autónomo) o la salud (sistemas de triaje).
- La formación educativa o profesional: límites al acceso a la educación o la carrera profesional (puntuación de exámenes, selección de alumnos en centros…).
- Los componentes de seguridad de los productos (uso de la inteligencia artificial en la cirugía asistida por robots).
- La gestión de RRHH o el acceso al trabajo (selección de CV o entrevistas en procesos de contratación. Acceso a la Admón.).
- Los servicios públicos y privados esenciales (como una calificación crediticia que impida a la ciudadanía obtener un préstamo).
- La aplicación de la ley que pueda afectar a los derechos fundamentales de las personas (por ejemplo, la evaluación de la fiabilidad de las pruebas presentadas).
- La gestión migratoria, de asilo y de controles fronterizos (como la verificación de la autenticidad de documentos de viaje).
- La administración de justicia y procesos democráticos (por ejemplo, la aplicación de la ley a un conjunto concreto de hechos).
- Búsqueda de posibles víctimas de un delito, incluidos menores desaparecidos
- Determinadas amenazas para la vida o la seguridad física de las personas físicas o amenazas de atentado terrorista
- Detección, la localización, la identificación o el enjuiciamiento de los autores o sospechosos de los delitos mencionados en la Decisión Marco 2002/584/JAI del Consejo
Riesgo limitado
Sistemas de IA con requisitos específicos de transparencia. En estos casos, cuando se usan sistemas de inteligencia artificial como los bots de conversación o chatbots, los usuarios deberán ser conscientes de que están interactuando con una máquina para poder tomar una decisión fundamentada sobre si desean continuar o no. Por tal motivo, la propuesta supone que se deberá informar al usuario de que se encuentra ante una máquina.
Respecto del tema de los algoritmos y la transparencia administrativa puede leer mi comentario en esta misma web.
Riesgo insignificante
Este es el caso de peligro mínimo o nulo en el uso de la IA. La propuesta jurídica permite que se usen gratuitamente aplicaciones como videojuegos basados en inteligencia artificial o filtros de correo basura. La inmensa mayoría de los sistemas de IA se incluyen en esta categoría. La propuesta de reglamento no profundiza en este apartado, ya que este tipo de sistemas de inteligencia artificial representa un riesgo insignificante o nulo para los derechos o la seguridad de la ciudadanía.
Usos prohibidos de la IA
Las enmiendas introducidas en mayo 2023 en la ley de inteligencia artificial ya se hacen eco de hasta dónde llegan los modelos de inteligencia artificial actuales, como por ejemplo ChaGPT. Esto se debe, en parte, a los problemas que ha tenido OpenAI con la privacidad, que llevó a Italia a prohibir su uso y a que varios países europeos se lo están planteando. El artículo 5 del borrador establece los usos prohibidos, que han sido enmendados en mayo para adecuarlos a los nuevos avances en la materia. Puede ver aquí un informe resumen con las enmiendas:
– Sistemas que usen técnicas subliminares para modificar el comportamiento humano. Al igual que ocurre con la publicidad engañosa, se pretende evitar que la IA sea utilizada con técnicas que, de manera imperceptible lleven a tomar decisiones que de otra manera no tomaríamos.
– Sistemas que aprovechen alguna de las vulnerabilidades de una persona o un grupo específico de personas para modificar su comportamiento. Prohibición similar a la anterior, pero con un grado mayor de relevancia, pues se trata de aquellos modelos que se aprovechan de personas o grupos de personas expuestas o más susceptibles a ser manejadas.
– Modelos que categorización biométrica que clasifiquen a personas físicas con arreglo a atributos o características sensibles o protegidos, o sobre la base de una inferencia de dichos atributos o características.
– Sistemas de calificación social. Esto nos recuerda mucho el famoso sistema chino.
– Sistemas de identificación biométrica remota «en tiempo real» en espacios de acceso público.
– Modelos inteligentes para predecir el riesgo de comisión de un delito o su reincidencia.
– Sistemas que creen o amplíen bases de datos de reconocimiento facial mediante la extracción no selectiva de imágenes faciales a partir de internet o de imágenes de circuito cerrado de televisión.
– IA de detección de las emociones.
– Sistemas de IA para el análisis de imágenes de vídeo grabadas de espacios de acceso público que empleen sistemas de identificación biométrica remota «en diferido», salvo con autorización judicial.
Ley de inteligencia artificial y Administración pública
Como vemos, las prohibiciones en el uso de la IA son muchas, y las enmiendas han ampliado enormemente el listado. Por lo que afecta al uso de la inteligencia artificial en la Administración pública podemos destacar, sobre todo, la prohibición de sistemas que podrían ayudar a las Fuerzas y Cuerpos de Seguridad del Estado en el ejercicio de sus funciones. En particular, los sistemas de identificación biométrica remota en tiempo real, los sistemas predictivos o los modelos de detección de emociones. Los primeros se quieren prohibir de plano, pues se han eliminado las excepciones que se establecían en el borrado de 2021.
Nos encontramos con el eterno dilema entre seguridad y privacidad. Y en esto hay gustos para todos. En un mundo cada vez más peligroso y repleto de amenazas, la policía y los jueces necesitan mejores herramientas para luchar contra el crimen, y la IA puede ayudar enormemente en esta tarea a través de la identificación de delincuentes en tiempo real, detectar en los gestos las denuncias falsas o quién miente en un interrogatorio, etc. Por otro lado, parece que nos adentremos en un mundo orwelliano, o ya estamos casi inmersos en él con tantas cámaras vigilando.
La privacidad y la presunción de inocencia podrían quedar en entredicho con estos sistemas. El equilibrio es difícil de lograr; no podemos pasar por alto la gran ayuda que estos avances en el uso de la IA pueden reportar a la sociedad y al servicio público, pero tampoco podemos olvidar los riesgos inherentes, que es lo que está estudiando la UE.
IA y gestión de personas
También puede verse afectada por las prohibiciones la aplicación de la inteligencia artificial en la gestión de recursos humanos. En la empresa privada ya se está experimentando la realización de entrevistas mediante una IA que puede utilizar una cámara para ver al entrevistado y captar sus expresiones. Los microgestos y la forma de expresarse el aspirante pueden dar pistas al entrevistador sobre su personalidad, con los peligros que ello conlleva, aunque con ventajas para la organización.
Estos sistemas de reconocimiento facial estarían prohibidos con la nueva Ley al inmiscuirse en la intimidad de las personas y poder extraer sus rasgos de personalidad, aunque nada impide que en una entrevista con un entrevistador psicólogo se realice la misma tarea.
Los asistentes virtuales
Por contra, y como se indicó, el uso de asistentes virtuales en la Administración pública y en las organizaciones en general, no parece que se vaya a limitar, salvo la previsión de avisar al usuario de que está tratando con un chatbot, lo que ya hacen la mayoría de servicios virtuales.
Conclusiones
Son muchas las posibilidades que está ofreciendo la IA, pero traen de la mano una gran cantidad de interrogantes sobre sus peligros y cómo afecta a los derechos de los ciudadanos. La Unión Europea es consciente de este dilema y trata de crear una regulación pionera que perfile cómo usaremos los sistemas inteligentes. Esperemos que la regulación sea congruente con esos beneficios y con todo lo que puede aportar.
Este artículo forma parte de la formación que ofrezco sobre:
APLICACIONES DE LA IA EN LAS ORGANIZACIONES
Si te interesa mi formación, rellena el formulario de contacto y hablamos.
4 comentarios sobre “Ley de inteligencia artificial de la UE”