El metro de Londres utiliza IA para detectar intrusos en tiempo real
En una de las estaciones del metro de Londres, las cámaras de CCTV se han combinado con inteligencia artificial para rastrear las infracciones de las normas del metro. Durante el juicio se emitieron más de 44.000 notificaciones, la mayoría de ellas sobre evasión de tarifas.
Así lo informa Wired.
Desde octubre de 2022 hasta finales de septiembre de 2023, TfL, la empresa de transportes que gestiona la red de metro de Londres, probó algoritmos de IA para reconocer eventos en vídeo. Las pruebas se realizaron en la estación de Willesden Green, al noroeste de la ciudad.
El software se combinó con imágenes de circuito cerrado de televisión en directo para detectar comportamientos agresivos, armas blancas y personas que se caen a las vías del metro o evaden el pago del billete.
Es la primera vez en el Reino Unido que una autoridad de transportes combina inteligencia artificial y vídeo en tiempo real para crear alertas para el personal de las estaciones. Durante la prueba se emitieron más de 44.000 alertas, 19.000 de ellas en tiempo real.
La mayoría de las advertencias se dirigieron contra personas que eludían el pago del billete: 26.000. Según TfL, las pérdidas por impago de tarifas alcanzan hasta 130 millones de libras (más de 150 millones de euros) al año.
La responsable de seguridad pública de TfL, Mandy McGregor, afirma que en la estación no había carteles que mencionaran los ensayos con herramientas de seguimiento de IA para que los pasajeros se comporten con naturalidad.
Una parte importante del análisis tenía por objeto ayudar al personal a comprender lo que ocurría en la planta y responder con rapidez a los incidentes. El sistema envió 2.200 avisos sobre personas que sobrepasaban las líneas amarillas de seguridad, 39 sobre personas que se inclinaban sobre el borde del andén y casi 2.000 avisos sobre personas que permanecían sentadas en el banco durante mucho tiempo.
La publicación escribe que la IA cometió errores durante las pruebas. Por ejemplo, marcaba a los niños que seguían a sus padres a través de los torniquetes como posibles morosos. Los agentes de policía también ayudaron a instalar el sistema. Los policías sostuvieron el machete y la escopeta a la vista de las cámaras para ayudar al sistema a reconocer mejor las armas.
Durante todas las pruebas, las imágenes de los rostros de las personas se difuminaron y los datos se almacenaron durante un máximo de 14 días. Sin embargo, seis meses después del inicio de las pruebas del sistema, se decidió almacenar estos datos durante más tiempo debido al gran número de notificaciones a las que los empleados no tenían tiempo de responder.
Las pruebas también pretendían averiguar si la inteligencia artificial podía detectar bicicletas y patinetes. “La IA no podía distinguir entre una bicicleta plegada y una normal, ni entre un patinete eléctrico y un patinete para niños”, dice el artículo.