Tecnología detecta emociones en el metro londinense | Descubrimientos emocionales en el transporte público

Vigilancia en el metro de Londres: tecnología de reconocimiento facial sin consentimiento

Durante al menos un año, miles de pasajeros del metro londinense han sido observados y analizados sin su permiso a través de sistemas de inteligencia artificial (IA) alimentados por cámaras de vigilancia. Esta tecnología, desarrollada por la empresa Amazon, permite identificar características como el género, la edad o las emociones de los usuarios, con el objetivo de utilizar esta información para personalizar la publicidad.

La noticia fue publicada por la página de tecnología Wired, que tuvo acceso a documentos obtenidos por la organización Big Brother Watch. A través de una solicitud bajo la Ley de Libertad de Información, esta ONG obtuvo información sobre ensayos realizados en ocho estaciones del metro de Londres, como Euston, Waterloo o Manchester Piccadilly.

El propósito inicial de este proyecto era detectar posibles accidentes, riesgos en la seguridad y actividades delictivas. La tecnología utiliza reconocimiento de objetos a través de aprendizaje automático para identificar situaciones como personas en las vías, aglomeraciones en los andenes o comportamientos que alteren el orden.

Sin embargo, la preocupación radica en que algunos ensayos se centran en los «rasgos demográficos» de los pasajeros. Se analizan estadísticas sobre edad, género y emociones de los usuarios, lo cual ha generado controversia entre defensores de la privacidad.

La empresa Network Rail, encargada de la red ferroviaria del Reino Unido, ha defendido la tecnología utilizada como un medio para garantizar la seguridad de los pasajeros. Pero la falta de consulta y debate previos sobre el uso de la IA en espacios públicos ha generado críticas y preocupaciones.

Este sistema de reconocimiento facial en el metro londinense no vincula la información recopilada con identidades almacenadas, lo que lo diferencia de otras tecnologías más controvertidas en la actualidad.

En resumen, la implementación de la IA para la vigilancia en espacios públicos plantea desafíos éticos y legales que deben ser abordados con precaución y transparencia para garantizar el respeto a la privacidad de los ciudadanos.

Puedes seguir a EL PAÍS Tecnología en Facebook y en Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Deja un comentario

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR