¿Qué mejor momento para hablar sobre qué nos deparará la Inteligencia Artificial (IA) que en el comienzo de una nueva década?

La IA siempre se ha visto como un avance tecnológico que puede mejorar la calidad de nuestras vidas, pero cada vez son más las voces que se suman para frenar su crecimiento. La suma de esas voces se ha convertido ya en una gran ola de protesta científica contra algunas prácticas concretas de la Inteligencia Artificial (IA). ¿Cuál es la razón?

Una de las prácticas que más controversia genera entre los expertos es la de aplicar la IA en sistemas de reconocimiento emocional, es decir, aquellos que determinan las emociones, personalidad y estado mental de las personas. Según el Instituto AI Now de la Universidad de Nueva York, “deberían prohibir el uso del reconocimiento emocional en procesos de decisión importantes que impacten en la vida de las personas y el acceso a oportunidades”.

Esta entidad de investigación reflejaba en su informe anual que cada vez se usa más este tipo de tecnologías en procesos de selección, concesión de ayudas sociales o para calcular cantidades como el precio de un seguro. Lo que denuncian estas voces es que la IA presume de hacer uso de teorías científicas refutadas, cuando en realidad son meras especulaciones. Algunos de los ejemplos que señalan son: el reconocimiento facial a la hora de valorar los sentimientos de clientes o detectores de mentiras basados en el movimiento de los ojos (este último usado en los cuerpos policiales de Reino Unido o Estados Unidos).

¿Se puede predecir el futuro?

Cada vez son más los expertos que se unen a discrepar de la Inteligencia Artificial y para ello realizan estudios que demuestren sus opiniones. Este es el caso de Arvind Narayanan, un profesor de Ciencias de la Computación estadounidense.

Este profesor habla de la IA como algo plural, algo que envuelve bajo su brazo diferentes tipos de tecnologías que tienen puntos en común, pero a la vez son distintas. En su explicación, Narayanan, para ser más ilustrativo, diferencia estas tecnologías en tres ramas.

Una de estas ramas es la que él denomina “aceite de serpiente” y son aquellas tecnologías que tienen como objetivo predecir el comportamiento de las personas. Este término tan peculiar viene del vocabulario inglés y se aplica en los productos que alardean de resultados sin basarse en evidencias científicas.  Para ilustrar a qué se refiere con este grupo, el profesor Arvind Narayanan pone como ejemplo los algoritmos que se emplean para estimar la posibilidad de que una persona sea delincuente reincidente. “Solucionar estos problemas es difícil porque no podemos predecir el futuro. Eso debería ser de sentido común. Pero parece que hemos decidido suspender el sentido común cuando una Inteligencia Artificial está involucrada”, señala Narayaran.

Los otros dos grupos que el profesor señala como “tecnologías que no funcionan” son el de aquellas técnicas empleadas para discernir si un contenido de Internet es correcto o no (es decir, hacer que una máquina emita juicios de valor). Y, en segundo lugar, los algoritmos encargados de resolver problemas de percepción (patrones musicales, reconocimiento facial, …).

Pero estos no son los únicos problemas que los expertos se han encontrado derivados de la IA. En el caso de España, existen algoritmos que deciden el futuro de las personas. Civio ha llevado ante el Tribunal Supremo al Gobierno español debido a que este se negaba a esclarecer el funcionamiento de la tecnología que estipula qué persona tiene derecho al bono social.

Está claro que la tecnología no debe nunca suplir al ser humano, pero para terminar con buen sabor de boca, os dejamos un dato en el que estos algoritmos sí hacen bien su trabajo. Es el caso de la IA utilizada para detectar algunos tipos de cáncer. El investigador Javier Sánchez asegura que en este caso la Inteligencia Artificial es mejor que las personas, ya que no se cansa. Pero eso sí, hay que saber que cuanto más amplia sea la tarea de la IA, peores serán los resultados.