Ahora leyendo:
Ni big, ni brother; amigo
Artículo completo: 4minutos para leer

Ni big, ni brother; amigo

Ya desde antes del comienzo de esta década, en varios países —algunos absolutamente dictatoriales, como China, hasta otros absolutamente democráticos, como Australia— se propusieron o aplican medidas de control mediante el reconocimiento facial o la geolocalización.

Una ley aprobada por el parlamento francés este miércoles permitirá el espionaje a través de teléfonos y otros dispositivos electrónicos y, además, geolocalizar al investigado. Y por más que el ministro de Justicia Éric Dupond-Moretti limitó la aplicación de la ley —que debe ser autorizada por un juez—a no más de una docena de casos por año, la medida ya levantó resistencias tanto de la izquierda y como de la derecha francesa por las connotaciones respecto a la privacidad.

En 2019 Australia propuso usar el reconocimiento facial para limitar el ingreso de menores de edad a sitios digitales pornográficos usando la base de datos de los servicios de identidad civil, aunque no se aclaró cómo el usuario enviaría su imagen. Las voces en defensa de la intimidad y en contra de la iniciativa, se levantaron de inmediato.

Unos meses antes de la propuesta Australiana, San Francisco se convertía en la primera ciudad estadounidense en prohibir el uso del reconocimiento facial. Y si bien mediante el uso de tecnologías similares se pudo identificar al autor de un asesinato masivo en la redacción de un diario de Annapolis, las preocupaciones sobre posibles abusos a la privacidad repercutió negativamente en el uso del reconocimiento facial en otras ciudades estadounidenses.

Podríamos abundar en ejemplos similares, como el empleo de esta tecnología en China, pero en los estados totalitarios es sabido como funcionan estas cosas: se podrá intuir cómo y por qué se usan — y mucho— pero nunca se conocerá a ciencia cierta la finalidad para la cual se aplican. Las autoridades chinas son expertas en censura digital, aun desembozadamente, como cuando limitaron el acceso digital a sitios de fans de celebridades adolescentes con la excusa de que los jóvenes se obsesionan con sus ídolos.

Luego que un estudio de dos años estableciera estándares de uso responsable de Inteligencia Artificial para evitar resultados negativos en la sociedad, Microsoft comunicó un año atrás que no usará aplicaciones para detectar, analizar y reconocer rostros en sus servicios, .

En los países democráticos el dilema es entre la seguridad y la privacidad, valores que la sociedad reclama para sí. Y, atendiendo a la protección del ciudadano, una opción: o regular o prohibir.

Los avances tecnológicos, buenísimos en sí mismos, tienen el problema que la humanidad ha puesto sobre casi todos los bienes que, naturales o creados, están a su disposición. Su finalidad será beneficiosa, inocua o perversa dependiendo de quienes lo usan. Así, la misma computadora que nos simplifica la vida para hacer una transferencia financiera, le permite a un blanqueador de capitales ocultar los crímenes más repudiables y a la policía intentar descubrirlos.

Seguramente si el día de hoy hiciéramos una encuesta en Montevideo, con sus limitaciones  en materia de seguridad, no serían pocos quienes optarían por la instalación de un sistema que prevenga o reprima delitos mediante el uso del reconocimiento facial. Del mismo modo, el colectivo, preocupado por la preservación de ciertos derechos básicos, probablemente rechazaría esa posibilidad, como un día —felizmente— repudió la baja de la edad de imputabilidad.

A nuestro juicio, el Estado tiene una razón de ser. Y en este caso, como en tantos otros, debería intervenir firmemente: una regulación férrea para evitar extralimitaciones, la intervención de la justicia como garantía última, y hasta el establecimiento de un Ombudsman con responsabilidad de cuidar los abusos.

Un Estado fuerte en la defensa de los derechos de sus ciudadanos, sí. Pero sin descartar las herramientas que el genio humano diseñó para proteger al colectivo, no a quienes lo ponen en peligro.

Deja un comentario

Your email address will not be published. Required fields are marked *

Input your search keywords and press Enter.