LA TECNOLOGÍA DE VIGILANCIA POST COVID-19
6 minutos de lecturaPor Juan Cruz Matar
Bienvenidos a una nueva nota de Revista Sincericidio.
Antes de iniciar queremos dejar en claro que Revista Sincericidio esta a favor del Distanciamiento Social, preventivo y obligatorio. Esta nota desdobla las coyunturas e intenta identificar las implicancias de las “malas” practicas que nacen de intereses puntuales.
La tecnología de reconocimiento facial es una herramienta en la lucha contra COVID-19 en todo el mundo, pero una vez que termine la pandemia, ¿Se mantendrá la tecnología de vigilancia?
A diferencia de principios del siglo XX durante el brote de gripe española, el mundo ahora puede combatir el COVID-19 con un arsenal sin precedentes de herramientas médicas, científicas, económicas y sociales.
Pero a medida que los gobiernos avanzan para aprovechar la tecnología y combatir el COVID-19, debemos tener en cuenta que esta lucha esta abriendo puertas a tecnologías que afectarán de manera profunda a la sociedad.
Estos son sistemas que escanean imágenes y vídeos de rostros e intentan clasificarlas, por etnias, rasgos, y hasta hacer evaluaciones de carácter.
Algunas de las principales empresas de tecnología y vigilancia del mundo han lanzado recientemente herramientas de reconocimiento facial, que con un alto grado de precisión, afirman poder identificar a las personas incluso cuando llevan máscaras (o barbijos).
De manera similar, se implementa un equipo de imágenes térmicas para identificar posibles portadores de COVID-19 mediante seguimiento de temperatura.
El aeropuerto de Heathrow de Londres acaba de anunciar que utilizará la tecnología para realizar controles de temperatura de pasajeros a gran escala .
Esta iniciativa se está adaptando cada vez más a los sistemas de CCTV omnipresentes. China , Rusia , India y Corea del Sur son líderes notorios en este espacio.
Algunas autoridades ahora pueden identificar a los pacientes con una temperatura elevada, revisar su historial de ubicación a través de análisis automatizados de imágenes, e identificar (y denunciar) automáticamente a aquellos que pueden haber estado expuestos al patógeno.
Y, sí, algunos de estos tienen intereses legítimos en un esfuerzo por librar a las sociedades del COVID-19. Es un desafío argumentar cuales no.
Tengamos en cuenta que la aplicación puede ser desarrollada por pedido de un gobierno para hacer el bien, pero el código de fuente de la APP puede tener sistemas de rastreo, búsquedas en internet, conversaciones, etc. Esto es funcional para los mercados y poder reconocer los consumos y nuevos hábitos a crear en base a los mismos movimientos de los usuarios.
La enorme aceptación de las aplicaciones de rastreo en todo el mundo es señal de que la opinion publica esta dispuesta a ceder parte de su privacidad para frenar la propagación. Y es una lectura noble, pero hay intereses por fuera de los nuestros que aprovechan la volteada (perdón el lunfardo argentino)
Otra preocupación son cuestiones legales, constitucionales y democráticas indefinidas que introducen estas aplicaciones. Como los términos y condiciones de las aplicaciones que todos bajamos, pero no leemos.
Entonces, hagamos una pausa por un minuto (por favor)…. ahora es el momento adecuado para cuestionar estas tecnologías, revisar algunos precedentes históricos y pensar en lo que puede ser la ‘nueva naturalización’ cuando el mundo intente volver a su estado anterior.
DISCRIMINACIÓN Y CONSUMO
La mayoría de estas nuevas herramientas de reconocimiento, ignoran el riesgo significativo de discriminación y persecución.
Imagine las consecuencias de que un sistema automatizado te identifique falsamente como alguien con una temperatura corporal elevada, justo cuando regresas de una compra semanal.
Estos falsos positivos son una realidad.
El equipo de imágenes infrarrojas puede romperse o usarse incorrectamente , las lecturas pueden ser malinterpretadas por un revisor humano o, lo que es peor, por un proceso automatizado ajeno a mirada humana.
En la mayoría de las naciones democráticas, estos sucesos pueden ‘solo’ conducir a un resultado benigno como la auto cuarentena obligatoria, pero otros gobiernos pueden decidir avergonzar públicamente a aquellos que han violado las reglas, o limitar su libertad de movimiento.
EL ETERNO RETORNO
La aplicación de sistemas de reconocimiento facial ya tiene un historial manchado.
Los ejemplos recientes que han sido ampliamente criticados incluyen: Sistemas de imágenes faciales para distinguir las preferencias sexuales , identificar los grupos étnicos de una persona y hasta sus estatus sociales.
Los estudios enfatizan que la práctica de clasificar a los seres humanos en función de diferencias visibles tiene un pasado problemático con raíces en la eugenesia, un movimiento o filosofía que cree que cosas como la cría selectiva pueden mejorar la composición genética de la raza humana.
Es una creencia que ha dado lugar a numerosos ejemplos de opresión en el pasado.
REVISIÓN HISTÓRICA
La práctica de “leer” retratos humanos comenzó con el ministro suizo Johann Kaspar Lavater a fines del siglo XVIII y el científico inglés Sir Francis Galton a mediados del siglo XIX. Defendiendo la eugenesia, Galton puso en marcha un movimiento global para cuantificar las características faciales como indicadores de la psicología de una persona.
Pero a principios del siglo XX se produjo un giro nuevo y preocupante.
Durante un tiempo ya inestable en Europa, el criminólogo italiano Cesare Lombroso propuso que se consagraran en la ley la preselección y el aislamiento de las personas con “deficiencias disciplinarias”. La fisonomía , la práctica de presumir el carácter mental a partir de la apariencia facial, era ahora la corriente principal.
Algunas capacidades se están adaptando cada vez más a sistemas de CCTV omnipresentes. Imagen: Getty Images
Solo unas décadas más tarde, el pensamiento fisonómico resultó influyente en el surgimiento de la Alemania nazi.
Reaparecieron sobre el uso de inteligencia artificial (IA) para distinguir rostros criminales de no criminales. Incluso en 2020, un artículo inspirado en el trabajo de Lombroso afirmaba que era posible determinar la tendencia delictiva analizando la forma de la cara, las cejas, la parte superior del ojo, las pupilas, y otros.
Y de repente, parece que estamos de vuelta en la Europa del siglo XVIII.
¿NATURALIZAR EL MONITOREO FACIAL?
Más que nunca, la pandemia ilustra que estamos en una encrucijada socio-antropológica.
Se están desarrollando y utilizando tecnologías para luchar contra un enemigo invisible y contrarrestar la propagación de una terrible enfermedad; pero también corremos el riesgo de liberar irreversiblemente a la sociedad, sistemas opresivos del medioevo . VIGILAR y CASTIGAR como sugiere Foucault.
El equipo del Interaction Design Lab desarrolló Biometric Mirror , una tecnología de reconocimiento facial especulativa y deliberadamente controvertida diseñada para tomar conciencia en la ética de las nuevas tecnologías y la IA.
Miles de personas probaron la aplicación , desde escuelas hasta el Foro Económico Mundial y el Banco Mundial , así como la Galería de Ciencias de Melbourne y NGV .
El resultado: “No existe una comprensión pública generalizada de la forma en que funciona la tecnología de reconocimiento facial , cuáles son sus limitaciones y cómo se puede usar de manera incorrecta.”
Esto es preocupante y peligroso.
Los programas escolares también deben capacitar a los jóvenes para que piensen críticamente sobre las innovaciones, cómo funcionan y cómo se ven comprometidas. El punto no es distanciarse de la tecnología, por el contrario es achicar la brecha digital y fomentar el uso consciente y critico en este nuevo paradigma digital.
Cuando termine la pandemia de COVID-19, debemos ser conscientes del tipo de sociedad futura en la que queremos vivir.
¿Queremos recuperar la anterior, queremos una nueva en la que la vigilancia generalizada sea la norma, donde nuestras libertades estén coartadas, o por lo menos monitoreadas?¿O queremos algo superador?