Guía para entender la tormenta biométrica

Cada vez es más común que la tecnología biométrica esté presente en nuestras vidas cotidianas, pero ¿cuáles son sus implicaciones? En este texto, Grecia Macias desarrolla los puntos clave para comprender por qué esta tecnología no es tan ideal como la pintan.

Texto de 09/03/22

Cada vez es más común que la tecnología biométrica esté presente en nuestras vidas cotidianas, pero ¿cuáles son sus implicaciones? En este texto, Grecia Macias desarrolla los puntos clave para comprender por qué esta tecnología no es tan ideal como la pintan.

Agradezco a Ricardo Latapie por sus comentarios a este texto.

Ve al espejo. Mira tu rostro, la distancia entre tus ojos, el tamaño de tus pómulos. Mira tus dedos, observa las curvas únicas que están en tus huellas. Mira tus ojos de cerca. Escucha tu voz. Contempla todos esos rasgos te hacen un individuo, una persona única.

Ahora, imagina que todos esos rasgos son guardados en una base de datos administrada por un algoritmo dedicado a revisar esa información para poder comparar todas esas partes que te hacen un individuo y asignarte una identidad en una base de datos con millones de personas. Imagina que el gobierno no contempló que el algoritmo puede cometer errores pues, al final, fue programado por humanos, falibles, con sesgos. Este algoritmo puede diferenciar muy bien a personas blancas, porque se le entrenó únicamente con rasgos de personas caucásicas. Esto resulta en que el algoritmo se confunde cuando lo ponen a diferenciar personas de tez oscura y piensa que son la misma persona.  

Imagina que el algoritmo es usado por policías para perseguir delitos. El algoritmo se equivoca y confunde tu rostro con el de una persona sospechosa de robo con violencia. La policía aparece en tu casa, vienen por ti. Te quejas y les dices que no eres tú, que estabas dejando a tu hija en la escuela. Los policías simplemente afirman: “el algoritmo dice que eres tú”. 

¿Suena a un cuento distópico? Esto le sucedió a Robert Julian-Borchak Williams en Detroit,  Estados Unido a causa de una incorrecta identificación de la tecnología de reconocimiento facial. 

Los datos biométricos y la tecnología biométrica son conceptos que han permeado la agenda de seguridad. En los últimos años, hemos presenciado la proliferación de este tipo de tecnología en México, tanto a nivel federal como local. El gobierno federal, los gobiernos locales y las empresas venden esta tecnología como neutral, como esencial para la persecución del delito y prevención del robo de identidad. No obstante, ninguna tecnología existe en el vacío y las herramientas de biometría son el mejor ejemplo de esto. 

“Los datos biométricos y la tecnología biométrica son conceptos que han permeado la agenda de seguridad. En los últimos años, hemos presenciado la proliferación de este tipo de tecnología en México”.

Retomando la frase de Shoshana Amielle Magnet: “los biométricos fallan”. Fallan tecnológicamente al identificar incorrectamente a las personas, en especial a personas pertenecientes a grupos históricamente vulnerables. ((Amielle Magnet, Shoshana. “When Biometrics Fail Gender, Race, and the Technology of Identity”. Duke University Press. 2011.)) Los biométricos tampoco le funcionan a una sociedad democrática; aunque no fallen tecnológicamente, le fallan a las personas al recolectar datos sensibles sin su consentimiento y vulnerar sus derechos humanos.

Biométricos 101

Es importante que como sociedad conozcamos los alcances y los peligros de este tipo de tecnologías para poder ser críticos sobre su uso. Los datos biométricos son aquellos obtenidos de un tratamiento técnico y se relacionan con las características físicas, fisiológicas o conductuales de una persona;  permiten la identificación o verificación de la identidad de una persona. ((Traducción propia. Privacy International. Biometrics. Visitar en https://privacyinternational.org/learn/biometrics))

Las tecnologías biométricas recolectan en primera instancia estos datos, los reducen a código que se traduce en plantillas digitales. Posteriormente, el algoritmo de la tecnología biométrica compara los patrones de la plantilla con los que tiene en sus bases de datos y hace una predicción estadística sobre la certeza de la identidad de la persona. ((Asociación por los Derechos Civiles. “Tu yo digital. Descubriendo las narrativas sobre identidad y biometría en América Latina: los casos de Argentina, Brasil, Colombia y México. Argentina”.  Abril 2019. Consulta en https://adc.org.ar/wp-content/uploads/2020/06/050-tu-yo-digital-04-2019.pdf)) Existen varios métodos de biometría, pero los procesos más comunes son los de identificación y autenticación. 

La identificación, como lo dice su nombre, busca determinar la identidad de una persona que no conoce. La tecnología se pregunta: ¿quién es esta persona dentro de esta base masiva de información de otras personas? La autenticación consiste en confirmar si esa persona es quien dice ser. En este proceso, el algoritmo simplemente une la pieza del dato biométrico que la persona presenta con la pieza biométrica que tiene almacenada en su sistema. ((Para información más especializadas sobre el funcionamiento de la biometría ver: DC. “Tu yo digital. Descubriendo las narrativas sobre identidad y biometría en América Latina: los casos de Argentina, Brasil, Colombia y México. Argentina”.  Abril 2019.))

Cuando falla la identificación biométrica: la máquina dice que no soy quien soy

La mayoría de la tecnología biométrica usa el método de identificación y aquí es donde se presentan la mayoría de los errores. Los principales errores tecnológicos aquí ocurren son fallas en el registro, falso positivo y falso negativo.

La falla de registro ocurre cuando no se pueden registrar correctamente los datos biométricos de una persona, por sus características físicas. Este error genera problemas cuando se impulsan iniciativas como la “Cédula de Identidad biométrica”.

Los registros de identificación biométrica obligatoria son preocupantes por los datos biométricos que recopilan, además por las personas que dejan fuera. Por ejemplo, cuando se condiciona tener este tipo de identificaciones para acceder a servicios sociales, se discrimina indirectamente a personas racializadas, disidencias sexo-genéricas, personas con discapacidad y adultos mayores.  Esta exclusión ocurre porque mucha de la tecnología biométrica está entrenada para recolectar e identificar correctamente cuerpos caucásicos, dejando de lado la vasta diversidad de personas. 

“Los registros de identificación biométrica obligatoria son preocupantes por los datos biométricos que recopilan, además por las personas que dejan fuera”.

Los errores falsos negativos y falsos positivos ocurren cuando la tecnología de identificación biométrica se equivoca al identificar a la persona. Un falso positivo ocurre cuando el sistema decide que dos personas distintas son la misma persona; por ejemplo, en el caso de Robert Julian Borchart. Un falso negativo ocurre cuando el sistema resuelve que la plantilla biométrica no corresponde con la persona a quien en efecto tiene esa identidad; por ejemplo, si un lector de huellas digitales decide que mi huella digital no es de mi dedo, si no de alguien más.

La tecnología biométrica le falla a les ciudadanes: vigilancia y censura

Aparte de las fallas tecnológicas, la tecnología de identificación biométrica y sus bases de datos centralizadas vulneran nuestros derechos a la privacidad, libertad de expresión, reunión pacífica y  presunción de inocencia. 

Las bases de datos biométricos centralizadas son sumamente vulnerables a ataques y la consecuencia de una vulneración puede ser irreparable. El Alto Comisionado de la Naciones Unidas para los Derechos Humanos declaró en su informe “El derecho a la privacidad en la era digital” que los datos biométricos son “particularmente delicados, ya que, por definición, están indisociablemente vinculados a una persona concreta y a su vida, y pueden ser objeto de vulneraciones graves”. ((Alto Comisionado de las Naciones Unidas para los Derechos Humanos. “El derecho a la privacidad en la era digital”,A/HRC/39/29, 2018.  Consulta en https://undocs.org/es/A/HRC/39/29)) Esto ocurre debido a que se pueden modificar las contraseñas, pero no se puede cambiar tu rostro, iris y todos aquellos datos indiscutiblemente vinculados a tu identidad. Esta situación se agrava, pues al hacer obligatorio el registro, no existe un consentimiento de las personas para poner en riesgo su identidad de esa forma.

El abuso de estos sistemas de identificación biométrica puede generar que estemos bajo el ojo del gobierno o empresas privadas durante toda nuestra existencia. La tecnología biométrica y las bases de datos generados a partir de ella persisten a través de sexenios. Una administración puede ingenuamente implementar esta tecnología que después terminará siendo abusada por otros gobiernos. Esto ocurrió en Afganistán con su base de datos biométrica, Tazkira; en un principio fue impulsada por el Banco Mundial, pero ahora es utilizada por el Talibán para perseguir a sus enemigos políticos. 

“El abuso de estos sistemas de identificación biométrica puede generar que estemos bajo el ojo del gobierno o empresas privadas durante toda nuestra existencia. La tecnología biométrica y las bases de datos generados a partir de ella persisten a través de sexenios”.

Las herramientas de vigilancia biométrica, como la cédula de identidad, la ley que crea el padrón biométrico de usuarios de telefonía móvil y la implementación de cámaras con tecnología de reconocimiento facial, ponen en mayor riesgo a personas migrantes, defensores de derechos humanos y periodistas. En México, ser parte de estos grupos es de alto riesgo, porque estas personas dependen de su anonimato y privacidad para poder ejercer su trabajo o mantener su integridad física. Este tipo de tecnologías no solamente te están identificando constantemente, sino que exponen tus hábitos, las personas con las que te relacionas y los lugares que visitas. 

Estar siendo identificado constantemente por distintas herramientas de vigilancia vulnera nuestra libertad de expresión y de reunión pacífica. La vigilancia en el espacio público genera un efecto inhibidor que nos limita a expresar nuestras ideas libremente en público o asistir a protestas pacíficas sin miedo a represalias. En Coahuila y Aguascalientes, por ejemplo, se han instalado cámaras con capacidad de reconocimiento facial, donde incluso se ha documentado que han sido usadas para acosar a manifestantes feministas. ((Macias, Grecia. “ Las calles son nuestras: la violencia de la vigilancia en el espacio público contra las mujeres”  en Arguelles, Alex (Coordinadore). Violencia digital en México: El Estado vs. La sociedad civil. Malpaís Ediciones. Octubre 2021. ))  

Cada día escuchamos una nueva forma en la que se busca implementar las tecnologías biométricas en nuestra vida diaria. La propaganda tecno-solucionista promociona la biometría como una solución a nuestros problemas de seguridad e incluso nos dice que es una manera más conveniente de acceder a nuestros dispositivos o servicios. No obstante, en palabras de Joy Buolamwini, hay que preguntarnos: “¿realmente queremos intercambiar conveniencia por grilletes?”. EP


Este País se fundó en 1991 con el propósito de analizar la realidad política, económica, social y cultural de México, desde un punto de vista plural e independiente. Entonces el país se abría a la democracia y a la libertad en los medios.

Con el inicio de la pandemia, Este País se volvió un medio 100% digital: todos nuestros contenidos se volvieron libres y abiertos.

Actualmente, México enfrenta retos urgentes que necesitan abordarse en un marco de libertades y respeto. Por ello, te pedimos apoyar nuestro trabajo para seguir abriendo espacios que fomenten el análisis y la crítica. Tu aportación nos permitirá seguir compartiendo contenido independiente y de calidad.

RECIBE NUESTRO NEWSLETTER


DOPSA, S.A. DE C.V