Lógicas ante la vigilancia digital después del 2020

En el texto se analiza cómo la vigilancia tecnológica impacta en los derechos humanos y se explica qué lógicas considerar para limitar las intromisiones en la privacidad.

Texto de y 28/12/20

En el texto se analiza cómo la vigilancia tecnológica impacta en los derechos humanos y se explica qué lógicas considerar para limitar las intromisiones en la privacidad.

La crisis sanitaria global no termina con el cierre de año y aunque no se sabe cuánto durará ni cuáles serán todas sus consecuencias, ya se vislumbran algunas lógicas que guían el contexto presente y futuro, sobre cómo limitar las intromisiones en la privacidad y los peligros que el uso de datos supone para los derechos individuales.

Las políticas de vigilancia tecnológica se ejercen en todo el mundo desde hace años, en mayor o menor medida[i]. Sin embargo, a partir de cómo los países asiáticos han utilizado la tecnología para contener la pandemia, estados en los que la protección de datos tenía un papel preponderante, comienzan a replantearse el tema de la vigilancia digital[ii].

“Las epidemias no las combaten sólo los virólogos y epidemiólogos, sino también los informáticos y los especialistas en macrodatos”[iii]. Se ha normalizado la disminución de los derechos en la esfera privada de las personas. Esto se vuelve evidente en lo cotidiano cuando un celular sabe más del usuario, que el usuario mismo (ritmo cardíaco, peso, temperatura, preferencias, ubicación, redes de contactos, entre otras). El debate del uso de datos personales en la actualidad ha pasado de ser un tema binario (usarlos o no) a un tema de proporcionalidad (en qué grado usarlos). ¿Cómo se reconstruyen las nuevas lógicas de seguridad y privacidad en este contexto?

Las dos caras de la vigilancia digital: peligros y alternativas

La inteligencia artificial para la vigilancia biométrica utiliza cámaras y videos que cotejan rostros automáticamente de manera masiva. “Me sorprendió mucho que me arrestaran a plena luz del día delante de mi hija, mi vecina y mi esposa; una de las cosas más sorprendentes que me ha pasado”[iv], dijo Robert cuando policías en Detroit lo confundieron con un ladrón de relojes a partir de un software de reconocimiento facial[v].

La falta de normativa para asegurar el correcto tratamiento de los datos personales puede generar desigualdad. Por ejemplo, existen sesgos tecnológicos en ciertas cámaras de videovigilancia que reconocen características concretas, como la pigmentación en la piel[vi]. Y, aún así, en algunos países, son utilizadas para localizar a sospechosos sin que exista una regulación o exigencias particulares en el uso del reconocimiento facial para proteger a las personas de este tipo de errores. Se requiere debatir sobre los estándares de seguridad que establezcan procedimientos claros y transparentes para comprobar y medir el impacto del uso de videovigilancia.

En México, existen algunas iniciativas (por ejemplo, sobre ciberseguridad[vii] y para crear una Ley General de Videovigilancia[viii]) pero todavía no se cuenta con una ley nacional específica en la materia. Desde 2016, existe un documento de la Secretaría de Gobernación[ix] que busca estandarizar las características de operación de los sistemas de videovigilancia para la seguridad pública a nivel federal. Algunas entidades federativas[x] definen la operación e instalación de los sistemas de videovigilancia a partir de criterios de proporcionalidad, idoneidad y mínima intervención, para proteger derechos a la intimidad, el honor o la imagen, y consolidar un clima de seguridad en torno al uso de estas medidas.

Contar con una reglamentación clara es igual de importante que contar con una capacitación adecuada de las autoridades, u otros agentes, en el uso de tecnología. Para que las cámaras de videovigilancia no se utilicen para acechar a ciertos grupos (como las  manifestantes) en lugar de para encontrar a feminicidas. Por ejemplo, el sistema de videovigilancia ofrecido por China ha sido recientemente comprado por el poder ejecutivo del estado de Coahuila, sin que las autoridades estatales tengan recursos suficientes para utilizar el programa tecnológico en su totalidad.  Y aunque no existe normativa que regule el reconocimiento facial ni la recolección de datos biométricos, Coahuila ya está usando este sistema de vigilancia, lo que cuestiona el actuar de las autoridades y los fines para los que se utiliza esta tecnología[xi].

Por otro lado, en diversas entidades del país, la tecnología utilizada por el C5 (Centro de Control, Comando, Comunicación, Cómputo y Calidad) ha expuesto en los medios de comunicación ciertas atrocidades que ocurren y que se pueden ver a través de las cámaras de la ciudad[xii], pero no siempre ha servido para encontrar a los responsables y evitar que los crímenes sigan impunes. Disponer de tecnología requiere de un aparato de inteligencia institucional que la comprenda y la pueda utilizar para generar políticas públicas eficientes y no discriminatorias.

La conciencia crítica ante el big data es importante, pero el contexto actual supone buscar medidas que protejan la salud y la vida, aunque eso implique ceder parte de la libertad personal a favor del interés público, la colectividad y los fines humanitarios. ¿Es ético negar el acceso a datos personales cuando estos se usan con el objetivo de proteger a la sociedad?

La experiencia comparada en los usos de la vigilancia digital para combatir el Covid-19, muestra cómo los países asiáticos han controlado el virus a partir del rastreo de los casos infectados[xiii]. Esto posibilita el seguimiento de los contactos y resulta más eficiente que medidas como los lockdowns que se han aplicado en otros países. En Asia, las empresas (como los proveedores de telefonía e Internet) comparten datos de sus clientes con el gobierno y las instituciones encargadas de seguridad o salud, para el combate del coronavirus. El gobierno y las empresas proporcionan plataformas simples para dar seguimiento y la misma población participa[xiv], al registrarse a través de celulares para el uso de servicios públicos como, por ejemplo, al utilizar el metro.

Existen al menos 120 aplicaciones públicas y privadas de seguimiento que rastrean contactos en 71 países, según Digital Rights Tracker. Una medida similar comenzó a implementarse en la Ciudad de México a finales de noviembre[xv] para rastrear el acceso a negocios y otros espacios con un código QR y evitar que se propaguen más contagios. Sin embargo, la R3D (Red en Defensa de los Derechos Digitales) ha expresado preocupaciones en torno a las afectaciones que este mecanismo puede generar en los derechos humanos, en particular en poblaciones vulnerables, y han instado al gobierno a proveer mayor información respecto de la operación del sistema[xvi].

El uso de datos y la aplicación de tecnología para fines institucionales requiere, además, de una cultura organizacional que dialogue con la videovigilancia y otras medidas de rastreo, y que cuente con la aceptación de la sociedad.


“Contar con una reglamentación clara es igual de importante que contar con una capacitación adecuada de las autoridades, u otros agentes, en el uso de tecnología. Para que las cámaras de videovigilancia no se utilicen para acechar a ciertos grupos (como las  manifestantes) en lugar de para encontrar a feminicidas.”

La aceptación social y la sostenibilidad en la innovación

Para encontrar la combinación adecuada de medios privados, públicos, ciudadanos, colectivos y comunitarios, las leyes en Europa protegen[xix] de forma especial los datos sobre salud. Buscan que su recolección y  almacenamiento sea legítimo[xx], y obligan a informar a las personas sobre los usos que se les dé a los datos. Además, la Comisión Europea ha emitido estándares mínimos en torno a la tecnología desarrollada para combatir la pandemia en diversos documentos y directrices[xxi], en los que se pone en relieve la necesidad de generar confianza y aceptación social [xxii].

La sostenibilidad tecnológica de las medidas (ordinarias o extraordinarias) que puedan ayudar a combatir el virus, así como mantener el fomento de los avances científicos, muestran la importancia del financiamiento público y privado con visión a largo plazo. Sin embargo, ocurre que los fondos dedicados a ciertas investigaciones se amplían sólo durante las situaciones de crisis, “como ocurrió con la pandemia de SARS. Debido a que el contagio del virus se detuvo, el financiamiento también”[xxiii].

El rol central de un Estado que proteja los intereses de las personas y, a la vez, sea emprendedor es fundamental para contar con un desarrollo industrial. El acceso a la vacuna[xxiv], al igual que sucede con la tecnología y a los datos, siempre tiene aspectos políticos que afectan a la protección de los fines públicos y la conciliación con lo privado. Lamentablemente en México, la extinción de los fideicomisos genera incertidumbre sobre los incentivos a la investigación y ha sido una medida cuestionada por académicos y organizaciones nacionales e internacionales[xxv]

Lógicas de actuación

Toda investigación requiere de financiación y constancia más allá del final de la pandemia. Hay que estar preparados: “Ante la ausencia de alternativas, ocurrirán otras pandemias, pero esa probabilidad ya no es un problema político. Los políticos que enfrentaron esta crisis ya no serán los que tendrán que enfrentar la próxima”[xxvi]. Para proteger el estado de derecho, la salud y las libertades, la inversión en tecnología requiere ser sostenida en el tiempo y contar con finalidades públicas que se basen en las premisas analizadas en colaboraciones anteriores:

1.   Alternativas y peligros

Para proteger los derechos de las personas y su información, las autoridades deben valorar a qué empresas de tecnología van a contratar, considerando particularmente dos cuestiones: ¿cómo se comparten los datos? y ¿a quién le pertenecen los mismos y su procesamiento? Ya que la perspectiva cambia completamente si las cifras se recopilan por el “bien público” o si tienen fines de lucro. Los datos obtenidos deben ser para un propósito específico. Las aplicaciones deben permitir la posibilidad de dejar de usarlas y de borrar sus datos voluntariamente y, por default, cada determinado tiempo. 

2.   Rumbo a un uso orgánico de la tecnología

Para tratar cuestiones éticas y jurídicas en torno al tratamiento de datos de salud en un contexto como el actual, la tecnología debe servir como herramienta para hacer más eficientes las tareas automatizables, pero la vigilancia y el diseño de políticas públicas de seguridad no son tareas automatizables. Es indispensable el monitoreo descentralizado[xxvii] y efectuado por expertos que puedan utilizar la tecnología y que garanticen la protección de los derechos de las personas. Las políticas públicas deben permitir que la instalación de las aplicaciones en los aparatos personales sea voluntaria y cuente con el consentimiento de los usuarios sin penalizaciones en caso de no usarlas.

3.   Conciliación personal y políticas laborales

La tecnología es automática y la vigilancia de datos no descansa; sin embargo, es fundamental equilibrar el respeto de la vida personal, particularmente cuando la complejidad del contexto actual puede llevar a un “burnout pandémico”[xxviii]. Frente a las necesidades generadas por la pandemia es importante que se visibilicen las carencias y dinámicas laborales abusivas que no respetan los tiempos de descanso o toman exigencias más elevadas. En culturas organizacionales en las que no existe diálogo y retroalimentación, las personas dejan de innovar y buscar mejoras, aceptando y adaptándose a sistemas ineficientes.

4.   Repercusiones cotidianas en lo privado, público y político

Para que lo privado participe de lo político, lo político debe ser comprensible, público y cotidiano”[xxix]. Las políticas públicas sobre el tratamiento masivo de datos de salud mediante algoritmos de inteligencia artificial, así como las plataformas y las aplicaciones para el rastreo de contactos y geolocalización, deben ser informadas y difundidas de forma clara a la población. Los Gobiernos deben impulsar formas de participación que contemplen la opinión de las personas y les permitan decidir sobre el tratamiento de sus datos personales.

5.   Reflexiones para un uso sostenible e igualitario de la tecnología

No se debe perder de vista el punto social. Las ventajas de la revolución digital pueden ser para pocos o para muchos, todo depende de la forma en la que se adapte la transición. Las aplicaciones y otras tecnologías deben ser accesibles para todas las personas, independientemente del nivel económico y de la educación digital que se tenga. Además, ante las nuevas realidades tecnológicas, tanto los gobiernos como las empresas que generan deducciones a partir de los datos, deben analizar su impacto con el fin de eliminar efectos discriminatorios, ya que la recolección y el uso de datos puede generar impactos desproporcionados.

Se habla continuamente de la vuelta a la normalidad aunque “no es un lugar al que podamos volver: es un lugar que tenemos que construir juntos y un lugar por el que tenemos que luchar”[xxx]. Y además, el contexto actual ha evidenciado condiciones derivadas de las dinámicas económicas que no son sostenibles ni para las personas ni para el planeta. El hartazgo social debe aprovechar la oportunidad para impulsar cambios de raíz en los sistemas y reforzar la democracia, protegiendo y liberando a las personas como punto central. EP

Referencias

[i] “Todo tiene un coste y cualquier servicio brindado gratuitamente a través de Internet se paga de alguna otra forma, empezando por entregar datos y hábitos de consumo.” Mancini, Luna, y Laura Márquez. “Tecno-lógicas: Tecnología para la cultura, el derecho y la sociedad”, Este País, junio 25, 2020.

[ii] Entendida como “la atención sistemática rutinaria y enfocada a los detalles personales con fines de influencia, gestión, protección o dirección” (traducción propia). Sparrow, Elijah. “Digital survaillance”, Global Information Society Watch, Association for Progressive Communications y Humanist Institute for Cooperation with Developing Countries, 2014.

[iii] Han, Byung-Chul. “La emergencia viral y el mundo de mañana. Byung-Chul Han, el filósofo surcoreano que piensa desde Berlín”, El País, México, 2020.

[iv] MIT. “What happens when an algorithm gets it wrong”, MIT Technology Review, 2020.

[v] Lo inusual no fue que se localizara al sospechoso mediante videovigilancia, sino que le informaran que se usó esa tecnología sin que la ley local lo exigiera.

[vi] Price, Antoinette. New standard under development aims to minimize facial recognition errors”, E-tech news, International Electrotechnical Commision, 2020.

[vii] Mancera Espinosa, Miguel Ángel. Iniciativa presentada por el Senador Mancera en septiembre de 2020 y turnada a las Comisiones Unidas de Justicia y de Estudios Legislativos, Gaceta del Senado, 2020.

[viii] Senadores del Grupo Parlamentario del Partido Acción Nacional. Iniciativa de Ley General de Videovigilancia. Presentada por el Senador Francisco García Cabeza de Vaca a nombre de los Senadores del Grupo Parlamentario del Partido Acción Nacional, con proyecto de decreto por el que se expide la Ley General de Videovigilancia.  Acuerdo concluido. Gaceta del Senado, 2015.

[ix] Centro Nacional de Información, Secretariado Ejecutivo del Sistema Nacional de Seguridad Pública. “Norma técnica para estandarizar las características técnicas y de interoperabilidad de los sistemas de video-vigilancia para la seguridad pública”,Secretaría de Gobernación.

[x] Como Durango, Colima y Aguascalientes, así como algunos reglamentos como el de Guadalajara. Cfr. Arteaga Botello, Nelson. “Regulación de la videovigilancia en México. Gestión de la ciudadanía y acceso a la ciudad”, Espiral (Guadalajara), 2016.

[xi] Pérez Villoro, Federico, y P. Robles. “Vigilancia biométrica: el tortuoso camino de Coahuila hacia el reconocimiento facial”. 5° Elemento, 2020.

[xii] Por ejemplo, imágenes en las que se observa a un hombre cargando los restos desmembrados de una víctima, como secuestran a niños o niñas en mercados, o abusos y violaciones al utilizar servicios como Uber, Cabify.

[xiii] Cfr. El Universal. “China suma 55 días sin contagios locales de Covid-19”,2020.

[xiv] Sin entrar al análisis particular del sistema de gobierno autoritario, y otros elementos culturales y sociales, de los países asiáticos.

[xv] Gobierno de la Ciudad de México. Gaceta Oficial de la Ciudad de México, 19 de noviembre de 2020.

[xvi] 1. El sistema no toma en cuenta las recomendaciones de la Organización Mundial de la Salud; 2. El sistema tiene un potencial discriminatorio; 3. La información publicada en la Gaceta Oficial en torno a este sistema no ofrece suficientes garantías de protección de datos personales. Cfr. Red en Defensa de los Derechos Digitales. Preocupaciones en torno al “sistema para identificación de contagios en espacios cerrados” en la Ciudad de México, 2020

[xvii] Por ejemplo, que “el aviso de privacidad de la aplicación de la Ciudad de México indique que los datos sean borrados tras un período aproximado de 14 días, en tanto que una vez transcurrido ese periodo de tiempo, los datos dejan de ser útiles para la finalidad de identificar posibles contagios,” como propone la R3D. Op. Cit.

[xviii] No todos los datos sirven o pueden ser fiables para propósitos diferentes. Particularmente, consecuencias como las penas de prisión o multas deben ser ponderadas. Cfr. Center for Democracy and Technology. Statement of the Center for Democracy & Technology  Regarding Use of Data to Fight COVID-19. 2020.

[xix] Parlamento Europeo y del Consejo. Reglamento General de Protección de Datos de 2018.

[xx] Es decir, que la persona haya otorgado su consentimiento previo para el fin al que se destinen los datos o que el dato sea totalmente anónimo.

[xxi] Se destacan los siguientes: Diario Oficial de la Unión Europea (2020/C 124 I/01). Orientaciones sobre las aplicaciones móviles de apoyo a la lucha contra la pandemia de Covid-19 en lo referente a la protección de datos. 17 de abril de 2020.

European Data Protection Board. Guidelines 04/2020 on the use of location data and contact tracing tools in the context of the COVID-19 outbreak. 21 de abril de 2020,Junta Europea de Protección de Datos, 2020.

European Union Agency for Fundamental Rights. Coronavirus pandemic in the EU – Fundamental Rights Implications: With a focus on contact tracing apps. Bulletin 2. Joint Statement on Digital Contact Tracing. 28 de abril de 2020, Consejo de Europa, 2020.

[xxii] Andreu Martínez, M. Belén, y T. Ausín Díez, “Ética y protección de datos de salud en contexto de pandemia: una referencia especial al caso de las aplicaciones de rastreo de contacto”. Revista Enrahonar, 2020.

[xxiii] Vidal Correa, Laura. “Pandemia por COVID-19: El maratón que no esperamos”, Revista CICAREG, 2020.

[xxiv] Las cuestiones políticas afectan el acceso y distribución de bienes esenciales; “el país donde se desarrolle la vacuna es relevante. El nacionalismo de la vacuna en situaciones anteriores ha retrasado el acceso para el resto del mundo.” Idem.

[xxv] Por ejemplo, en el Pronunciamiento FMOPDH/2020 dela Federación Mexicana de Organismos Públicos de Derechos Humanos del 8 de octubre de 2020.

[xxvi] El futuro puede comenzar hoy. De Souza Santos, Boaventura. La cruel pedagogía del virus. Biblioteca Masa Crítica, CLACSO. p. 81.

[xxvii] Un ejemplo de protocolo que propone descentralizar el rastreo de datos se puede observar en Cfr. Troncoso, Carmela. Decentralized Privacy-Preserving Proximity Tracing: Simplified Overview, 2020.

[xxviii] Afecta a los trabajadores de la salud pero también a las personas que han estado confinadas durante extenso tiempo. Sus efectos son irritabilidad, insomnio, poca tolerancia hacia las personas con las que convives o trabajas, dificultad para concentrarse, y puede llegar a causar ansiedad y depresión. Cfr. Huidobro Amancay. Síndrome de burnout y su incremento en tiempos de pandemia. Sage, octubre 15, 2020.

[xxix] Mancini, Luna y Laura Márquez, “Tecno-lógicas: Instituciones gubernamentales digitales, ¿qué lógicas considerar?”. Este País, agosto 20, 2020.

[xxx] Moreno, Diana. “Naomi Klein: ‘La gente habla sobre cuándo se volverá a la normalidad, pero la normalidad era la crisis’”, El Salto, 2020.

RECIBE NUESTRO NEWSLETTER

Relacionadas

DOPSA, S.A. DE C.V
T.  56 58 23 26 / 55 54 66 08 /
56 59 83 60

Morelos 23,
Del Carmen,
Coyoacán,
04100,
Ciudad de México