En este ensayo la autora analiza cómo las tecnologías trastocan el orden social: cómo afectan nuestro comportamiento y, por ende, nuestra libertad de decidir.
Por nuestro derecho a desobedecer
En este ensayo la autora analiza cómo las tecnologías trastocan el orden social: cómo afectan nuestro comportamiento y, por ende, nuestra libertad de decidir.
Texto de Karla Prudencio Ruiz 20/08/20
La nueva normalidad se venía gestando desde hace un tiempo. Para las que no quisimos ver la clase de futuro que nos esperaba, irrumpió violenta y despiadada. En el mejor de los casos, nos sirvió para reflexionar y dar giros de timón en donde era necesario. En otros, sirvió como un catalizador de procesos, una bomba de tiempo que urgía para adelantar los tan esperados beneficios que nos prometió el “solucionismo” tecnológico.
En este contexto, la transición a la vida onlinese volvió una respuesta automática. Las clases, las consultas médicas, las cenas con familiares y amigas se convirtieron rápidamente en pequeños recuadros en nuestras computadoras. Aprendimos a vernos en la pantalla, a reconocer las casas de las otras, sus lugares favoritos y sus sillas de trabajo. En algunos contextos, el cambio se dio casi automáticamente, sin alterar mucho el rumbo de lo que sucedía. En otros, las desigualdades se acentuaron e hicieron aún más visible lo ya intolerable.
Cerrar la brecha digital se convirtió en una prioridad para la implementación de las políticas públicas en casi cualquier materia. El uso de las herramientas digitales para el control y el seguimiento de la pandemia dio lugar a medidas excepcionales que no se hubieran permitido en otros contextos. El gobierno ruso, por ejemplo, utilizó tecnologías de reconocimiento facial para asegurarse de que las personas cumplieran con las medidas de confinamiento impuestas. Por su parte, el gobierno israelí permitió que la agencia de espionaje Shin Bet utilizara una tecnología originalmente diseñada contra el terrorismo con el fin de monitorear teléfonos móviles de civiles, incluso contra las recomendaciones del titular de la agencia. Y así, un poco sin darnos cuenta, nos encontrábamos repitiendo que, ahora más que nunca, “la tecnología nos salvará”. Para bien o para mal, la tecnología cambia la manera en la que interactuamos entre nosotras, la manera en la que percibimos la sociedad, lo que esperamos de ella y cómo podemos cumplir nuestras expectativas.
Consecuentemente, conectar e introducir nuevas tecnologías en espacios tradicionalmente no conectados, o híper-digitalizar nuestra realidad —ya de por sí muy conectada—,tiene consecuencias sobre las que vale la pena reflexionar. Los beneficios que trae la digitalización son innegables, como lo son también sus potenciales peligros. En estas páginas me gustaría hacer algunas preguntas para las que no he encontrado respuestas, pero que son relevantes para analizar cómo las tecnologías han trastocado nuestro orden social. Específicamente, quisiera analizar cómo afectan nuestro comportamiento y, por ende, nuestra libertad de decidir.
Estos cambios de comportamiento incluyen cómo interactuamos con el estado de derecho, la aplicación de las normas y la capacidad que tienen las instituciones de hacerlas cumplir. La introducción de estas tecnologías también puede afectar la forma en que las organizaciones sociales, como las escuelas, los comités de vecinas o los círculos de amigas, aplican sus propias reglas y estándares éticos.
Las tecnologías de vigilancia, como las cámaras, aquellas que permiten el monitoreo de teléfonos móviles, las de reconocimiento facial o los drones, son particularmente relevantes en este rubro ya que tiene un efecto único en la modificación de acciones y actitudes. La idea que subyace a este análisis es que la decisión de introducir una nueva tecnología en un espacio no tecnologizado suele conllevar un intercambio de valores que pueden traducirse en costos sociales.
La autonomía y las normas
Las civilizaciones han resuelto cómo vivir en sociedad a partir del establecimiento de normas. Desde una perspectiva formal, el estado de derecho ha codificado estos comportamientos instaurando lo que está permitido, lo que no y sus consecuencias. Cada sociedad tiene también sus propias reglas y mecanismos de cumplimiento que escapan de la esfera de lo formal, las personas aplican sus normas y las hacen cumplir imponiendo castigos, como el chisme y el rechazo.[i]
Dentro de este ecosistema existen normas que tienen un significado simbólico. Nadie vigila su cumplimiento, pero tienen una razón de existir: “permanecen como una afirmación sobre lo que es aceptable, incluso si nadie las cumple; estas normas sirven como ideales”.[ii]A veces estamos dispuestos a aceptar que exista esta disparidad entre la forma y la realidad.
Cada persona tiene la capacidad de decidir si quiere o no cumplir con lo estipulado. Las instituciones, por su parte, tienen un número limitado de recursos, por lo que también deciden qué comportamientos perseguir. Sin embargo, seguir las normas no siempre representa una decisión consciente. En muchas ocasiones hemos integrado el comportamiento; después de todo, “mucho de nuestro comportamiento es rutinario. Hacemos muchas cosas sin pensarlas, habituadas, respondemos a claves escondidas e inconscientes”.[iii]
El conflicto ocurre cuando existe una contradicción entre las preferencias de las personas y la norma social observada. Este proceso hace explícito nuestra capacidad de decidir. Por ejemplo, casi siempre obedecemos las señales de tránsito automáticamente. Paramos cuando el semáforo está en rojo sin pensar si queremos o no, pero, cuando tenemos prisa, observar la norma ya no es conveniente y el proceso de toma de decisiones se vuelve manifiesto.
La introducción de las tecnologías de vigilancia ha trastocado estas dinámicas porque han permitido que las instituciones hagan cumplir sus sistemas normativos de manera más eficiente. Operan a distancia, separan a los vigilados de los vigilantes y de sus contextos. Centralizan el poder, pero lo vuelven ubicuo: ahora están en todas partes.
La vigilancia que nos ocupa tiene un significado más complejo que otros tipos de vigilancias a las que estábamos acostumbradas.[iv] Ya no sólo se privilegia la observación, sino que se utilizan nuevos mecanismos de control, facilitados por sistemas tecnológicos de identificación, monitoreo, seguimiento y análisis de datos.[v] Los nuevos sistemas de vigilancia aprovechan la integración e interacción de las tecnologías en los espacios de la vida cotidiana, recopilan información que las personas intercambian como parte de su rutina, alimentando y facilitando un proceso de “autovigilancia”. Es importante entender cómo han evolucionado estos sistemas para analizar su impacto en el comportamiento.
El panopticón
En sus inicios, las políticas públicas de la vigilancia buscaban materializar el principio de “la observación”. De acuerdo con Foucault, la iluminación total captura mejor que la oscuridad, la visibilidad es una trampa.[vi]Bajo esta teoría, el supervisor tiene que colocarse en un lugar donde nadie puede verlo.[vii]La idea no es observar a las personas todo el tiempo, sino que las personas sean conscientes de que en cualquier momento pueden ser observadas.[viii] Esta teoría impulsó políticas públicas enfocadas en la visibilidad, como el alumbrado público en las calles para reducir el delito.
Las calles y las ciudades son seleccionadas desde una perspectiva de política pública, pero las personas que están bajo esta vigilancia no. Esta arquitectura no es accidental. Coloca, bajo la trampa de la visibilidad, todo tipo de comportamientos: acciones delictivas y acciones que no lo son.
La idea es que estando bajo la luz perpetua todo comportamiento puede ser observado. Este sistema, a pesar de estar destinado a “hacer cumplir la ley”, también influye en comportamientos no delictivos.Su eficacia consiste en que no sólo depende de actores públicos para su implementación, sino que extiende su brazo para incluir a cualquiera como parte de ese cuerpo de aplicación, impulsando la “vigilancia horizontal”. Todos pueden reaccionar ante una mala conducta y actuar en caso de que sea necesario. El gobierno de la Ciudad de México, por ejemplo, implementó la entrega de silbatos como parte del programa Vive Segura. Esta estrategia consistió en entregar un silbato a cada mujer usuaria del transporte público para que, en caso de sufrir algún tipo de delito, pudieran alertar a las autoridades. El silbato era también una medida para fomentar la vigilancia horizontal. Su eficacia dependía de qué tanto las personas se sentían interpeladas a “hacer algo” una vez que la conducta se hacía visible a través del sonido. Todas podían ser ese vigilante oculto y el silbido funcionaba como una luz perpetua.
El siguiente paso: la visualización
La introducción de nuevas tecnologías abre nuevos horizontes en el potencial de la visibilidad. Ahora no es necesario depender de la percepción de ser visto; las cámaras monitorean a mayor escala el comportamiento de las personas. Este nuevo diseño del entorno cambia la probabilidad de ser capturado e identificado, lo que tiene efectos en la decisión de cometer un delito, pero también en la decisión de comportarse fuera de la norma social.
Las cámaras hacen más evidente la decisión que tienen los vigilantes sobre lo que quieren ver y lo que no. Los vigilantes monitorean, analizan datos, dibujan patrones y encuentran similitudes. Crean pequeñas cajas en las que identifican a quienes “necesitan ser vigiladas” y a quienes no. Este proceso de categorización no escapa de los sesgos de los vigilantes, quienes comienzan a dividir a la gente bajo sus criterios no siempre justos.[ix]La vigilancia deja de ser objetiva para volverse objetivizante en un sentido disciplinario.[x] Objetivizar significa deshumanizar a las vigiladas, excluirlas de su contexto social y arrebatarles su complejidad humana. El vigilante se limita a equiparar a la persona con las características físicas y los comportamientos que decide observar.
La autovigilancia, en estos casos, ha sido una herramienta eficaz. La estrategia ha sido colocar la transparencia como norma de interacción. Byung-Chul Han, el filósofo surcoreano, ha llamado a esto la era de la post-privacidad, haciendo una crítica a la renuncia voluntaria de nuestra privacidad con el fin de tener una comunicación más “transparente”.[xi]
En los casos en que la transparencia se convierte en la norma, no ser transparente pareciera un incumplimiento. Existen dispositivos que usamos de manera cotidiana y que, por defecto, están diseñados para visibilizar nuestro comportamiento. Por ejemplo, la doble palomita de WhatsApp permite registrar el momento en el que alguien lee tu mensaje. Puedes desactivar esta función, pero hacerlo puede tener costos sociales, la idea de fondo es que, si no visibilizamos nuestros comportamientos, es porque tenemos algo que ocultar. Esto nos coloca en una dicotomía que contrapone el cumplimiento de la norma social con nuestros deseos. En cualquier caso, nuestra libertad de elección se reduce.
El castigo perfecto
Pero, ¿qué pasa si introducimos tecnologías que pueden castigar de manera automática? Dentro de este escenario, si somos captados por unacámara infringiendo una señal de tránsito, siempre recibiremos una multa. Se suprime la discreción de hacer cumplir la ley. Las consecuencias de las acciones se vuelven inevitables, pero aún podemos decidir si estamos dispuestos a afrontarlas. En caso de tener una emergencia médica, por ejemplo, puedes decidir “pagar el precio” de rebasar el límite de velocidad.
¿Qué pasa cuando el precio es demasiado alto? Pensemos en el sistema de crédito social establecido en China. Este sistema monitorea el comportamiento con tecnologías de reconocimiento facial, lentes inteligentes, drones y pantallas —para avergonzar a los infractores—. Cada vez que se infringe alguna regla el sistema te identifica y te resta puntos. Las consecuencias de perder estos puntos son bastante graves y las conductas que se castigan son muy diversas. Por ejemplo, el estado puede impedir la compra de boletos de avión si las personas no visitan a un padre con regularidad. En estos casos, “pagar el precio” es más costoso.
En este escenario, la aplicación de normas es menos flexible a las subjetividades, pero también a los contextos. Al final, todas reciban el mismo trato, pero con posibles resultados injustos, pues, al eliminar el factor humano, se pierde la posibilidad de explicar y justificar el comportamiento de las personas.
El cumplimiento perfecto
La introducción de algunas formas deInteligencia Artificial nos permite ir un poco más allá del “castigo inevitable”. Estas tecnologías traen consigo la oportunidad de prevenir que las conductas ocurran. Pensemos en un automóvil que, por diseño, no puede superar el límite de velocidad. Si el diseño es rígido —que la regla no puede anularse—, la libertad de cumplimiento de la norma se reduce a cero.
Para bien o para mal, el destinatario de la norma deja de realizar una evaluación de riesgo, pues no puede decidir si se atiene o no a las consecuencias. Por otro lado, los órganos de aplicación no pueden tener en cuenta las circunstancias —subjetivas u objetivas—o el contexto en el que se dio la acción. La norma y la ley son inamovibles y definen las conductas. Desde una perspectiva utilitarista, esto podría funcionar. Este nuevo sistema reduce la discrecionalidad y los sesgos, reduciendo los riesgos y las externalidades negativas.
Sin embargo, en algunos casos extraordinarios, esta rigidez podría ser problemática. Pensemos en un padre que necesita ir al hospital por una emergencia y no puede superar el límite de velocidad debido al diseño de su automóvil. Necesitaríamos una excepción para estas circunstancias. Sin embargo, con esta posibilidad surgen otras preguntas, ¿en qué casos la excepción es deseable y quién trazará esta línea?
Veamos otro ejemplo. Nissan desarrolló un nuevo automóvil para la prevención de conductores en estado de ebriedad. Este coche tiene un sensor que puede detectar la presencia de alcohol en la transpiración de la palma del conductor cuando intenta conducir. Si el nivel de alcohol está por encima de la norma, el sistema bloquea automáticamente la transmisión, inmovilizando el automóvil. Este sistema utiliza otras funciones como una cámara con reconocimiento facial que monitorea el estado de conciencia a través del parpadeo de los ojos. ¿Valdría la pena poner aquí una excepción?, ¿Podemos argumentar que cuando el juicio se ve afectado, parece razonable no dejar a los humanos decidir?
Si creemos que eso suena razonable, tendremos que enfrentarnos a nuevos dilemas: ¿quién decidirá estos casos?, ¿cómo cambia esto el poder para imponer algunas normas y comportamientos?
El campo automotriz está plagado de estos dilemas. Sin embargo, la industria no está esperando consensos. El coche autónomo de Mercedes Benz está programado para sacrificar a los peatones y salvar a las personas dentro del vehículo. ¿Esta empresa a quién representa?, ¿qué sucede cuando sus preferencias éticas se materializan y se convierten en la nueva norma?
¿Puede el mercado proveernos de tantas opciones como nuestras preferencias éticas?, ¿son nuestras decisiones estáticas? Imaginemos que decidimos comprar este Mercedes Benz porque consideramos que, después de todo, compartimos los estándares éticos de esta compañía, ¿tu preferencia sería la misma en caso de que tu coche decida sacrificar a tu hija para salvarte a ti?
Nuestra libertad importa
Estos dilemas parecen no tener una respuesta clara. Pero aquí me gustaría hacer una defensa de por qué creo que tenemos que conservar nuestra libertad de decidir y, por lo tanto, resistir a estos nuevos modelos de vigilancia que se aceleran con la hiperconectividad.
1. La dificultad de elegir valores.Parece atractivo usar tecnologías que ayuden a lograr una sociedad en la que podamos hacer cumplir todas las normas. Esta posibilidad reduce los costos relacionados con las conductas que la sociedad ha decidido condenar. Se vuelve posible dejar de vigilar y comenzar a aplicar. Pero, ¿son estas normas siempre justas? ¿Estos sistemas imponen la conducta correcta?
Cada norma conlleva decidir sobre valores y estándares éticos. Es posible establecer principios abstractos para guiar la discusión, pero es difícil entender cuál de estos valores debería prevalecer en caso de conflicto: ¿quién decide qué norma debe prevalecer en qué circunstancias?, ¿necesitamos un proceso democrático para establecer estos valores?, ¿podría el diseño tecnológico adaptarse a los cambios y necesidades sociales?
2. La posibilidad de no obedecer normas injustas. Hoy en día, si una norma se percibe como injusta, irrelevante o impráctica, es posible utilizar un mecanismo formal para anularla. Sin embargo, también es posible rebelarnos contra la norma al no seguirla. Muchos movimientos sociales no habrían sido posibles si no hubieran podido rebelarse de manera física, ocupando espacios que no tenían permitidos.
La necesidad de desobedecer ciertas obligaciones que provienen de una injusticia también es fundamental. John Rawls dice que un soldado puede desobedecer una regla que es injusta, pues “no ser convertido en agente de una grave injusticia y maldad es un deber mayor que el de obedecer”.[xii]
Además, estas tecnologías nos permiten desvincular a las personas de sus acciones. ¿Qué pasa si quien aplica la ley nunca interactúa con los destinatarios de las normas? El sistema no puede retroalimentarse y entender lo que funciona, pues no ve las consecuencias. Un oficial de tránsito tráfico siempre recibe señales de qué funciona y cómo. Las personas aprenden del entorno y realizan cambios relacionados con ese aprendizaje.
3. Dignidad humana. Como mencionamos antes, existen normas simbólicas que son parte del acuerdo implícito de que la regla podría pasarse por alto. Estas normas pueden ser formales o sociales. Por ejemplo, muchas personas deciden mentir sobre su edad. Podemos estar de acuerdo con que mentir es un antivalor y que no es una conducta deseable. Sin embargo, ¿deberíamos imponer la verdad?, ¿queremos que la gente exprese estos valores porque está convencido de ellos o porque no tienen opciones?
Estas preguntas también son válidas para las normas formales. En muchos casos la gente no sólo maximiza su utilidad en respuesta a las recompensas y castigos legales: las personas no contaminan sólo por miedo a la ley, sino porque están convencidos de que es la mejor manera de vivir en sociedad.[xiii] Es vital tener la libertad de elegir cómo comportarnos, y hacerlo porque tenemos la posibilidad de hacerlo. Esto es parte de la dignidad humana: la posibilidad de decidir hacer lo correcto.
No hay camino fácil. Tenemos que resistir a la tentación de aceptar acríticamente todo aquello que parece que resolverá nuestro destino. Se necesitan cambios profundos que cuestionen las estructuras sobre las que nos hemos construido. Es necesario seguir pensando en cómo desarrollar tecnologías que realmente construyan nuevas maneras de entender el poder, tecnologías que nos hagan más libres y más autónomas. EP
[i]Robert D. Cooter, The Rule of State Law and the Rule-of-Law State: Economic Analysis of the Legal Foundations of Development, Berkley Law (1997), https://works.bepress.com/robert_cooter/48/ (última visita agosto, 2020)
[ii]Lawrence M Friedman, Impact: How Law Affects Behavior (Harvard University Press 1) (2020)
[iii]Traducción propia. Lawrence M. Friedman, Norms and Values in The Study Of Law, in Law and Economics: Philosophical Issues and fundamental questions, 35 (Aristides N. HatzisNicholas Mercuro ed.)
[iv]Maša Galič et al., Bentham, Deleuze and Beyond: An Overview of Surveillance Theories from the Panopticon to Participation, 37 Philos. Technol., 10 (2016), https://link.springer.com/content/pdf/10.1007%2Fs13347-016-0219-1.pdf (última visita Agosto, 2020)
[v]Id.
[vi] Michel Foucault, Discipline and Punish: The birth of prison (Vintage Books 2) (1995)
[vii] Miran Bozovic, An Utterly Dark Spot (The University of Michigan Press 4) (2000)
[viii]Philip Schofield, A guide for the perplexed (Continuum books 1) (2009)
[ix]Id. pg. 9
[x]Torin Monahan, Dreams of Control at a Distance: Gender, Surveillance, and Social Control, 9 Cultural Studies Critical Methodologies, 286 (2009)
[xi]Byung-Chul Han, The Transparency Society (Stanford University Press 1) (2015)
[xii]John Rawls, (Harvard University Press 1) (1999)
[xiii]Friedman, Supra2.
Con el inicio de la pandemia, Este País se volvió un medio 100% digital: todos nuestros contenidos se volvieron libres y abiertos.
Actualmente, México enfrenta retos urgentes que necesitan abordarse en un marco de libertades y respeto. Por ello, te pedimos apoyar nuestro trabajo para seguir abriendo espacios que fomenten el análisis y la crítica. Tu aportación nos permitirá seguir compartiendo contenido independiente y de calidad.