Según la Real Academia Española, la inteligencia artificial es la “disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico”.
Si bien es cierto que hace años hablar de inteligencia artificial era equiparable a hablar de ciencia ficción, la realidad es que, aun estando todavía en fases iniciales respecto a su esperado despliegue en todos los ámbitos de la sociedad, la podemos encontrar desde en nuestros trabajos, hasta en nuestros actos más cotidianos.
Las principales aplicaciones que nos ofrece la inteligencia artificial giran en torno a los sectores de alto impacto como las finanzas, educación, asistentes personales virtuales, acciones agrícolas y climáticas, logística y transporte, así como lo relativo al ámbito comercial y de la sanidad, mediante el uso de bots, plataformas de análisis predictivos, flotas de drones y creación de ofertas personalizadas, entre otros.
Debido al gran despliegue tecnológico del desarrollo de esta tecnología, es necesario contar con un sólido ámbito normativo que regule y contemple las casuísticas que su uso podría conllevar, tanto a los usuarios que se vean beneficiados por su uso, como a los proveedores que comercialicen o pongan en servicio estos sistemas de inteligencia artificial.
En este pasado mes de abril, la Comisión Europea ha presentado la primera Propuesta de Reglamento estableciendo reglas armonizadas sobre inteligencia artificial (Ley de Inteligencia Artificial), (en adelante, la Propuesta) cuyo principal objetivo es proponer un marco legal confiable en base a los riesgos asociados con ciertos usos derivados de la tecnología artificial. Asimismo, otro de los objetivos deseados es, por un lado, dotar a los usuarios de la confianza para poder adoptar soluciones basadas en inteligencia artificial, así como animar a las empresas a desarrollar dicha tecnología. El objetivo final radica en el aumento del bienestar del ser humano, tratando de conseguirse que éste confíe en su uso seguro, conforme a la ley.
Con todo, la imperiosa necesidad de contar con cuerpos normativos que regulen todas estas nuevas situaciones derivadas del uso de esta tecnología no significa que su creación y desarrollo resulten sencillos, sino todo lo contrario, puesto que ya la propia Propuesta refleja la complejidad de garantizar la compatibilidad de los comportamientos parcialmente autónomos de algunos sistemas de inteligencia artificial, así como su opacidad, complejidad y dependencia de los datos con nuestros derechos fundamentales.
Además, una acción legislativa común podría “proporcionar a la industria europea una ventaja competitiva en la escena mundial y economías de escala que los Estados miembros individuales no podrían lograr por sí solos.”
Como hemos comentado previamente, son innumerables las ventajas que el uso de tecnología artificial nos va a reportar en un futuro cercano, pudiendo igualmente proporcionar, aparte de lo anteriormente expuesto, ventajas competitivas para las empresas y la economía de los países de la Unión Europea, así como resultados sociales y ambientales beneficiosos.
En lo relativo a los riesgos que esta inteligencia artificial puede llegar a ocasionar en los derechos fundamentales de las personas, nos remitimos a lo comentado en otras publicaciones del Blog (ver aquí y ver aquí), en las cuales mencionábamos que dicha tecnología podría afectar notablemente a los derechos fundamentales recogidos en nuestra Constitución Española (derecho al honor, intimidad y protección de datos), así como en otros cuerpos normativos, tales como la Carta de Derechos Fundamentales de la Unión Europea y el Tratado de Funcionamiento de la unión Europea.
A tenor de lo indicado, debemos destacar que en el Título II de la Propuesta se establece una lista de prácticas prohibidas de inteligencia artificial, consideradas como inaceptables, por contravenir los valores de la Unión y por violar los derechos fundamentales de los ciudadanos, consistentes en la comercialización, puesta en servicio o uso de sistemas de inteligencia artificial:
- Que contengan técnicas subliminales con el fin de distorsionar el comportamiento de una persona.
- Que vulneren un grupo específico de personas por su edad o discapacidad, con el fin de distorsionar su comportamiento.
- Por parte de las autoridades para la evaluación o confiabilidad de las personas durante un periodo determinado, en virtud de su comportamiento o personalidad con su correspondiente puntuación social.
A este respecto, debemos indicar que existen países fuera del Espacio Económico Europeo, como es el caso de China, en donde ya se dispone del “carnet del buen ciudadano”, a través del cual una persona puede ser privada de una actividad o de una determinada acción (como viajar o comprarse una casa), cuando no alcance la puntuación necesaria que confirme que se trata de un ciudadano con un comportamiento ejemplar dentro del país.
Además, si este tipo de sistemas de puntuación se llegasen a implantar en un país de nuestro entorno donde las políticas de privacidad para los ciudadanos son más garantistas, conllevaría inexcusablemente a un trato perjudicial de determinadas personas o colectivos que no estén relacionados con los contextos de datos generados, así como un trato desproporcionado en virtud de la gravedad del comportamiento social adoptado. - De sistemas de identificación biométrica remota en tiempo real en espacios de acceso público, salvo para la búsqueda de determinados delitos, prevención de amenazas específicas o la detección, localización, identificación o enjuiciamiento de un autor o sospechoso de un delito en base a determinadas leyes. A este respecto, será el Estado miembro quien prevea la posibilidad de autorizar total o parcialmente el uso de estos sistemas de identificación en espacios de acceso público.
Tal y como define el artículo 3 apartado 37 de la Propuesta, el objetivo de un sistema de identificación biométrica remota en tiempo real se basa en “la captura de datos biométricos, la comparación y la identificación sin un retraso significativo”, comprendiendo también breves retrasos limitados.
En virtud de la misma, estos datos deberán seguir cumplimiento los requisitos establecidos en el Reglamento Europeo de Protección de Datos (RGPD), el cual define en su artículo 4, apartado 14 los datos biométricos como “los datos personales obtenidos a partir de un tratamiento técnico específico, relativos a las características físicas, fisiológicas o conductuales de una persona física que permitan o confirmen la identificación única de dicha persona, como imágenes faciales o datos dactiloscópicos.”
A este respecto y como también hemos desarrollado en varios artículos de nuestro Blog (ver aquí, ver aquí y ver aquí), estos datos se encuentran dentro de las categorías especiales de datos, dotados de una especial protección, los cuales no podrán ser tratados, a no ser de que concurran una serie de excepciones para su tratamiento, recogidos en el artículo 9 apartado 1 del RGPD.
De igual modo, la Propuesta también hace referencia a los procedimientos necesarios para hacer frente a los sistemas de inteligencia artificial que puedan llegar a suponer un riesgo, vinculando dicho concepto al concepto de “producto que presenta un riesgo”. A este respecto, debemos acudir al artículo 3, apartado 19 del Reglamento (UE) 2019/1020, relativo al a vigilancia del mercado y la conformidad de los productos, donde se define el término de “producto que presenta un riesgo” como aquel “producto que puede afectar negativamente a la salud y la seguridad de las personas en general, a la salud y la seguridad en el trabajo, a la protección de los consumidores, al medio ambiente, a la seguridad pública o a otros intereses públicos protegidos (…), en un grado que vaya más allá de lo que se considere razonable y aceptable en relación con su finalidad prevista (…), incluida la duración de su utilización y, en su caso, los requisitos de su puesta en servicio, instalación y mantenimiento.”
Cuando un sistema de inteligencia artificial presente un riesgo, en virtud del artículo citado, se deberá llevar a cabo una evaluación del sistema en lo relativo al cumplimiento de todos los requisitos y obligaciones establecidos en la Propuesta. Cuando dichos riesgos afecten a los derechos fundamentales, se informará a las autoridades u organismos públicos nacionales de cada Estado miembro, pudiendo prohibir o restringir la puesta a disposición del sistema de inteligencia artificial.
Por otro lado, el Reglamento 2019/1020 arriba indicado también define aquellos sistemas de inteligencia artificial de alto riesgo, en cuyo caso, “la combinación de la probabilidad de que se produzca un peligro que cause un daño o perjuicio y su gravedad requiere una rápida intervención de las autoridades de vigilancia del mercado, incluidos los casos en que el riesgo no tenga efectos inmediatos.”
Ahora bien, ¿cuáles son estos sistemas de inteligencia artificial de alto riesgo? El artículo 6 de la Propuesta identifica los siguientes:
- Sistema de inteligencia artificial destinado a ser utilizado como un componente de seguridad de un producto, o un producto en sí mismo.
- Producto cuyo componente de seguridad es el sistema de inteligencia artificial, o el propio sistema como producto.
- Los sistemas de inteligencia
artificial recogidos en el Anexo III de la propuesta referidos a:
- La identificación biométrica y categorización de personas físicas.
- La gestión y operación de infraestructuras críticas.
- La educación y formación profesional.
- El empleo, gestión de trabajadores y acceso al autoempleo.
- El acceso y disfrute de servicios privados esenciales y servicios y beneficios públicos.
- La gestión de la migración, asilo y control de fronteras.
- La administración de justicia y procesos democráticos.
Además, los usuarios de los sistemas de inteligencia artificial de alto riesgo tienen la obligación de cumplir con el principio de transparencia y provisión de información a los usuarios, recogido en el artículo 13 de la Propuesta, cuya información deberá especificar:
- La identidad y los datos de contacto del proveedor.
- Las características, capacidades y
limitaciones de rendimiento del sistema de inteligencia artificial de alto
riesgo, que incluyen:
- El propósito del mismo.
- El nivel de precisión, solidez y ciberseguridad.
- Cualquier circunstancia conocida o previsible relacionada con su uso.
- Cambios en el sistema de inteligencia artificial.
- Medidas de supervisión humana.
- Vida útil prevista del sistema de inteligencia artificial de alto riesgo y las medidas de mantenimiento y cuidado necesarias.
Sin embargo, la obligación de información de estos sistemas no se aplicará a aquellos sistemas autorizados por la ley con la finalidad de detectar, prevenir, investigar y perseguir delitos.
A mayor abundamiento, se deberá llevar cabo una evaluación de impacto en materia de protección de datos, en virtud del artículo 35 del RGPD, debiéndose realizar antes de la ejecución de los datos personales derivados del uso del sistema de inteligencia artificial.
Como novedad, debemos destacar la creación de la “Junta Europea de Inteligencia Artificial”, la cual se encargará de brindar asesoramiento y asistencia a la Comisión Europea, compuesta por las autoridades nacionales de supervisión, representadas por el Supervisor Europeo de Protección de Datos.
Debemos destacar que dichas autoridades nacionales estarán facultadas para la solicitud y el acceso a “cualquier documentación necesaria para el cumplimiento de las competencias bajo su mandato, dentro de los límites de su jurisdicción”.
Por y no por ello menos importante, en lo relativo al procedimiento sancionador, se establece que el incumplimiento de las obligaciones derivadas de la Propuesta podrá ascender a un total de 20 millones de euros o hasta el 4% del volumen de negocio anual durante el ejercicio anterior, en caso de tratarse de una empresa.
A modo de conclusión, debemos indicar que hemos de ser conscientes y estar preparados para abordar todos los retos que este nuevo mundo legislativo que se está abriendo ante nuestros ojos nos va a plantear en un futuro cercano. No debemos olvidar que, aunque los sistemas de inteligencia artificial no se encuentren completamente desplegados en la sociedad, no queda mucho para que lo estén.