junio 16, 2021

Profesores universitarios piden al Gobierno una moratoria en sistemas de reconocimiento facial

Una carta con 70 firmantes dirigida al Ejecutivo alerta de las graves deficiencias que pueden provocar tratos discriminatorios y reclama que lo estudien las Cortes.

Un grupo de más de 70 profesores y catedráticos de centros universitarios de toda España y españoles imparten en universidades extranjeras han enviado una carta al Gobierno español para pedirle que investigue la necesidad de establecer una moratoria para el uso de sistemas de reconocimiento y análisis facial por parte de empresas públicas y privadas. Los firmantes consideran que, “debido a las graves deficiencias y riesgos que presentan estos sistemas, los posibles beneficios que quizás podrían ofrecer no compensan de ninguna manera sus potenciales efectos negativos”.

La petición de moratoria pretende que las Cortes Generales y el Parlamento Europeo debatas “cuáles, de qué manera, en qué condiciones, con qué garantías y con qué objetivos debe permitirse, si cabe, el uso de estos sistemas de reconocimiento y análisis facial”. Los firmantes consideran que hay un riesgo de “en especial para los grupos y colectivos que suelen sufrir injusticias y tratos discriminatorios: entre otros, mujeres, personas LGTBIQ, personas racializadas, migrantes, personas con discapacidad o personas en situación de pobreza y riesgo de exclusión social”.

Entre los firmantes de la carta se encuentran Adela Cortina, catedrática emérita de Ética y Filosofía Política de la Universidad de Valencia; Pilar Dellunde, Ramón López de Mántaras y Carles Sierra, del Institut de Investigació en Intel·ligència Artificial del CSIC y Ofelia Tejerina, presidenta de la Asociación de Internautas. La carta menciona un ejemplo reciente de Renfe, que publicó una licitación —luego retirada— para el desarrollo de un sistema que “debía permitir identificar el género, la etnia o incluso el estado emocional de usuarias y usuarios”. La tecnología de reconocimiento que pedía la compañía de transporte debía poder analizar las imágenes y alertar acerca de “peleas” o “actitudes antisociales”.

El texto alerta de los “potenciales efectos perniciosos que estos sistemas pueden tener sobre el bienestar, los intereses y las necesidades y derechos fundamentales de la población” en cuestiones como “justicia social, dignidad humana, equidad, igualdad en el trato e inclusión”. Entre las deficiencias que los firmantes hallan en el texto se citan cinco. La primera es el hecho de que los sistemas de este tipo pueden clasificar a una persona dentro de una categoría o un perfil, lo que “viola la idea fundamental de que los seres humanos tenemos libre albedrío y que nuestro comportamiento no está determinado de antemano”.

Otro problema relacionado con el anterior es que “hay suficientes evidencias que indican que asociar posturas, gestos, rasgos faciales, colores de piel, peinados o prendas de vestir a posibles comportamientos ‘problemáticos’, capacidades intelectuales o económicas puede resultar en clasificaciones racistas, clasistas y/o sexistas”.