En 'Minority report', el reconocimiento facial permite mandar publicidad personalizada a los viandantes. E. C.

70 investigadores piden una moratoria para los sistemas de análisis facial

Alertan de que su utilización para clasificar personas y predecir comportamientos no está basada en pruebas científicas y puede violar derechos fundamentales

Jueves, 25 de marzo 2021, 01:53

Más de 70 investigadores y académicos han enviado una carta al Gobierno de Pedro Sánchez para pedirle que establezca una moratoria en el uso de ... sistemas de reconocimiento y análisis facial. Los firmantes -entre los que hay filósofos, psicólogos, abogados e informáticos- advierten de que la implantación de esta tecnología para clasificar a individuos por su aspecto físico tendría efectos perniciosos «sobre el bienestar, los intereses y las necesidades, y derechos fundamentales».

Publicidad

Mediante sistemas de inteligencia artificial (IA), el reconocimiento y análisis facial puede identificar individuos y también clasificarlos y atribuirles comportamientos a partir de su aspecto. Soñada por la ciencia ficción, en 'Minority report', la película de Steven Spielberg basada en un relato de Philip K. Dick, esta tecnología se usa para personalizar la publicidad cuando el cliente es captado por las cámaras de una tienda. El problema es que el empleo de la IA para categorizar personas carece de base científica. «Hay suficientes evidencias que indican que asociar posturas, gestos, rasgos faciales, colores de piel, peinados o prendas de vestir a posibles comportamientos 'problemáticos', capacidades intelectuales o económicas puede resultar en clasificaciones racistas, clasistas o sexistas», alertan los firmantes de la carta (abierta a adhesiones en http://bit.ly/CartaalGobierno).

«Aunque hay quien defiende estos sistemas para prevenir el crimen, ¿a cuántos inocentes han enviado a la cárcel o denegado una hipoteca?»

La iniciativa surgió en febrero a raíz del anuncio de Renfe de que quería vigilar sus estaciones con cámaras conectadas a una IA para detectar conductas incívicas, como saltarse los tornos; clasificar a los usuarios por sexo, edad, etnia y estado de ánimo; y, en última instancia, predecir hechos negativos y comportamientos repetitivos. La noticia disparó las alarmas entre los responsables de Biko, una consultora tecnológica radicada en Pamplona. «Llevábamos tiempo preocupados por la implantación de estos sistemas sin que haya pruebas de que funcionen adecuadamente y decidimos dar un paso adelante», recuerda la psicóloga Ujué Agudo. Ella, su compañero Karlos Liberal, el filósofo David Casacuberta y el diseñador Ariel Guersenzvaig redactaron un primer borrador de la carta, entre cuyos firmantes están la filósofa Adela Cortina, el neurocientífico Manuel Martín-Loeches, la lingüista Itziar Laka y Juan Ignacio Pérez, director de la Cátedra de Cultura Científica de la UPV.

Aseguran los expertos que «asociar a una persona una determinada característica con base en estadísticas poblacionales es altamente problemático» y que el hecho de que alguien sea clasificado en una categoría o perfil «no determina su comportamiento futuro». Recuerdan que «no hay modelos aceptados en psicología, antropología o sociología que indiquen que un tipo de nariz, un rictus particular o una manera de andar sean predictores adecuados de comportamientos individuales futuros», como la probabilidad de delinquir o de ser eficiente en el trabajo.

Publicidad

«Son cajas negras»

«No hay estudios científicos que demuestren que tal cosa es posible», dice Agudo. Por si eso fuera poco, «muchos de esos sistemas son cajas negras. No sabemos por qué se ha tomado una decisión. En Estados Unidos se usan, por ejemplo, para ayudar a los jueces a decidir sobre el riesgo de reincidencia de una persona. Es algo terrible porque no sabemos qué variables ha tenido en cuenta la IA para meter a alguien en el grupo de peligrosos. Cuando se han auditado estos sistemas, se ha detectado que las variables tienen que ver con la clase social, con la raza... y que la decisión se basa en correlaciones», explica Helena Matute, catedrática de Psicología Experimental en la Universidad de Deusto y una de las firmantes.

«En todo lo que diseñamos existe la posibilidad del error. Lo primero que tendríamos que saber es cuál es el error posible y si hay sesgos», indica Liberal, que advierte de que cualquiera puede ser víctima de una mala decisión de una IA y que la reversión es muy complicada. «Una vez que te han dicho que no eres apto para un puesto de trabajo, ¿cómo demuestras que lo eres? ¿O que no eres un delincuente, que solo tienes los ojos saltones?». Para Matute, «aunque hay quien defiende estos sistemas para prevenir el crimen, ¿a cuántos inocentes han enviado a la cárcel o denegado una hipoteca?»

Publicidad

Los firmantes piden al Ejecutivo que cree una comisión de investigación independiente y que establezca una moratoria «hasta que las Cortes Generales y las instituciones legislativas europeas debatan si debe permitirse, y de qué forma, la utilización de estos sistemas». Una tecnología que, ademas, invade «la esfera privada de las personas sin su consentimiento explícito», alertan.

Este contenido es exclusivo para suscriptores

Accede todo un mes por solo 0,99€

Publicidad