La Inteligencia Artificial (IA) está avanzando a pasos agigantados, tanto que la Unión Europea ya está en proceso de regularla. El 19 de febrero se reunió la Comisión Europea para elaborar el Libro Blanco sobre la Inteligencia Artificial, con la intención de “dar forma al futuro digital de Europa”, en palabras de Ursula von der Leyen, presidenta de la Comisión.

La creación de este Libro Blanco tiene como objetivo colocar a Europa como líder mundial en lo relacionado a sistemas de IA y acelerar su implantación. Pero no a cualquier precio, todas las propuestas que recoja el documento asegurarán el respeto a los principios y valores de la Unión Europea, así como la protección de los usuarios, de su privacidad y sus datos personales.

De momento no es mucho lo que se conoce sobre este documento, pero lo que sí se sabe hasta ahora es que constará de 6 secciones:

  • Introducción
  • Marco regulatorio actual
  • Políticas de apoyo y adopción de la inteligencia artificial
  • Facilitar el acceso a los datos
  • Marco regulatorio para la IA
  • Conclusión

Cómo define el Libro Blanco la Inteligencia Artificial

Para que todos los elementos estén claros es imprescindible que este documento aporte una definición clara y precisa de la Inteligencia Artificial. De esta forma, el White Paper describe a la IA como un software que, unido (o no) a un hardware, ofrece las siguientes funcionalidades (solas o combinadas entre ellas):

  • Resolución de problemas simulando la inteligencia humana
  • Realización de tareas complejas (traducción, percepción visual…)
  • Análisis, adquisición y tratamiento de una gran cantidad de información

Los problemas principales de esta Estrategia Digital Europea

Como ya mencionábamos al principio, la Comisión Europea es consciente de que la regulación de la IA conlleva una serie de problemas que hay que afrontar. El White Paper es un documento denso y que no ofrece una lectura sencilla, por eso ahora vamos a resumir de forma clara los 8 problemas fundamentales de esta estrategia digital:

  1. No hay datos disponibles suficientes para que se reutilicen de forma innovadora para el desarrollo de la IA.
  2. Mercado desequilibrado en cuanto al acceso y el uso de los datos.
  3. No hay un formato único y eso dificulta el procesamiento de datos.
  4. Inexistencia de estructuras organizativas de los datos.
  5. Necesidad de reducir las dependencias tecnológicas de la Unión Europea.
  6. Potenciar que el ejercicio de los derechos de los individuos sea sencillo.
  7. Conocimiento de datos en toda la población.
  8. Aumentar la seguridad cibernética.

 

¿Está preparado el marco regulatorio para los nuevos riesgos y problemas?

 

Actualmente se está aplicando, como marco regulatorio de la Inteligencia Artificial, la Carta de Derechos Fundamentales de la Unión junto a una agrupación de normativas sectoriales. Pero lo que queda claro es que esto es insuficiente para abordar la IA en lo referente a, por ejemplo, la cambiante naturaleza de los productos, las ciber-amenazas o su relación con los derechos fundamentales.

Para poner solución a estas carencias, el Libro Blanco sobre la Inteligencia Artificial, hace referencia a los 3 pilares de la estrategia digital europea de IA:

  • Apoyar la industria europea y aprovechar de manera transversal las tecnologías por parte de la sociedad.
  • Estar preparada para cambios socio-económicos.
  • Asegurar un marco jurídico y ético.

Los dos bloques de obligaciones derivadas del uso de la IA

 

Como todo derecho, también conlleva una serie de obligaciones para aquellos que hagan uso o desarrollen los sistemas inteligentes. En primer lugar están los de carácter preventivo, que buscan gran seguridad y mínimo riesgo antes de que los productos lleguen al cliente. Y en segundo lugar, están las obligaciones de tipo ex-post”, que son aquellas que se centran en daños producidos por el uso de sistemas inteligentes.

¿Cómo regular esta situación?

Debido a la complejidad de poner orden en algo tan nuevo como la Inteligencia Artificial, la Comisión Europea se propone 5 posibles maneras de regularla:

– Adscripción voluntaria a una serie de principios éticos.

– Requisitos por parte de las autoridades públicas de sistemas de IA (como el reconocimiento facial).

– Requerimientos obligatorios dependiendo del riesgo.

– Prevención en cuanto a la seguridad y responsabilidad procedente del uso de la IA.

– Órgano superior que controle y supervise todas estas materias.