Instituto Polit�cnico Nacional
Instituto Politécnico Nacional
"La Técnica al Servicio de la Patria"

Boletín No. 105
1o. de noviembre de 2024




PLATAFORMAS COMUNES UTILIZADAS EN VISIÓN ARTIFICIAL PARA IDENTIFICAR SEÑALES DE RUTAS DE EVACUACIÓN

 

Frida Janine Razo Bedolla, 1       Hernández Bolaños Miguel, 1       Omar Amaro Hernández, 1       Jacobo Sandoval Gutiérrez 2


1 Instituto Politécnico Nacional

CIDETEC


2 Universidad Autónoma Metropolitana


Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo. ,      Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo. ,      Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo. ,      Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

 

Resumen

Actualmente existe una amplia gama en los sistemas de visión, los cuales atienden varias necesidades de los usuarios. Sin embargo, un problema inicial es la selección pertinente dada la aplicación específica. En este sentido, el objetivo de la investigación fue probar diferentes plataformas de visión artificial para mostrar una relación de ventajas y desventajas. Las tecnologías probadas fueron industriales, llave en mano y de integración. Se probaron estos sistemas para identificar una señal informativa de la NOM-003-SEGOB-2011. Los resultados mostraron la facilidad de programar, la precisión en el sistema industrial y llave en mano, con la desventaja en el costo, tamaño y energía para el industrial, y funciones limitadas para el segundo. Por otra parte, la integración de una cámara y un sistema embebido requirió de mayor complejidad en el uso, pero una mayor versatilidad en las funciones. La contribución del trabajo es dar a los potenciales usuarios una comparación en donde puedan juzgar la utilidad de éstas, sin necesidad de adquirirlas.

 

I. Introducción

Existen diferentes sistemas de visión artificial, algunos ya comerciales como es el sistema Keyence y otros como la Husky Lens que requiere de un sistema embebido para poder tener una mejor versatilidad en sus funciones; con estas plataformas se pueden implementar sistemas para llevar a cabo el reconocimiento de información (simbología) de rutas de evacuación para personas con cierto impedimento visual. Cabe mencionar que las tecnologías que se utilizaron fueron industrial, llave en mano y de integración; de estos sistemas el de precio más alto resultó ser el sistema industrial, mientras que el más económico fue el sistema llave en mano. Se probaron estas plataformas para identificar señales informativas con base a la norma de protección civil NOM-003-SEGOB-2011 [1].

En medicina se han realizado investigaciones de visión artificial, para asistir a personas con debilidad visual permitiendo que éstas puedan identificar algunos textos o imágenes. Hoy en día existen productos en el mercado que permiten la identificación de rostros por medio de sistemas de visión artificial integrados. Los productos que se encuentran a la venta con fines de ayuda a dichas personas cuentan con ciertas características para identificación de texto y características físicas [2]. La falta de estudios en las señales informativas y dada las eventualidades de riesgo en el interior de edificaciones como incendios, sismos, fugas de elementos nocivos para la salud, inundaciones, etc., es una motivación para realizar el presente estudio.

Por norma, en cada área en donde exista el acceso a personal deben existir rutas de evacuación para los individuos que ahí se encuentren. Durante alguna de las situaciones de riesgo planteadas, existen personas con algún grado de discapacidad visual quienes requieren este tipo de sistemas para identificar las señales de evacuación y salidas rápidas, así como puntos seguros para protegerse ante eventos de riesgo. En este documento, se aborda el uso de visión artificial como un apoyo para los débiles visuales, ante una situación de contingencia, mediante el uso de un algoritmo que identifique las rutas de evacuación.

Marco teórico

 

a) Características de las señales informativas: El Sistema Nacional de Protección Civil [1] tiene la finalidad de salvaguardar a las personas ante una contingencia, generada por eventos naturales o humanos, que encaminen al detrimento de vidas humanas, daño a instalaciones, etc. Para ello, es imprescindible el uso de señales reguladas para identificar los riesgos potenciales existentes dentro de un área, los trayectos de evacuación, los lugares de reunión seguros, así como identificar los servicios especializados para brindar apoyo. La simbología de protección civil se divide con base al tipo de información que transmiten, la cual coadyuva en la integridad de las personas conduciéndolas a lugares seguros o de menor riesgo. La tabla 1 muestra un fragmento de las señales informativas, tomado de la norma NOM-003-SEGOB-2011.

 

Tabla 1.
Simbologías informativas (fragmento).

 

b) Configuraciones: 1. Sistema industrial Keyence, para el reconocimiento de objetos, se requiere la interfaz para el uso de los sensores de dicha marca (IV2-NAVIGATOR), posteriormente se sincroniza la dirección IP de la computadora con la que se va a trabajar la interfaz, así como la del dispositivo o sensor de la marca Keyence. Una vez sincronizados se utiliza el sensor bajo alguno de los modos de detección con los que cuenta (detección de contorno, ajuste de posición, reconocimiento óptico de caracteres, etc.). Para los fines prácticos de este trabajo la configuración requerida es detección de contorno, la cual es una configuración estándar del sensor. Es necesario configurar el ajuste de brillo y de enfoque de la cámara del sensor para tener una detección adecuada de acuerdo con la distancia y la iluminación de donde se tomará la muestra. Se toma la captura de la imagen maestra, la cual servirá como base para el reconocimiento de las flechas de evacuación, una vez tomada la imagen muestra se procede a la configuración de la herramienta o el método de detección mencionado anteriormente, el cual es utilizado para esta exploración inicial.

Previamente, se debe ajustar un patrón para el seguimiento de la posición en caso de existir una diferencia al momento del reconocimiento de la imagen, dicho patrón clave puede ser una característica en específico de la imagen maestra. Una vez ajustado el patrón de posición se debe seleccionar un área de muestreo. Posteriormente, una vez guardados los cambios de la configuración inicial se puede proceder a la identificación de objetos establecidos. En la figura 1 se puede apreciar el Sistema Keyence IVH500.

 

Figura 1. Sistema Keyence IVH500.

 

2. Llave en mano Husky Lens, para el reconocimiento de objetos es necesario utilizar la cámara en el modo pre-configurado como “Clasificación de objetos”, ya que de otro modo no sería posible identificar los dos sentidos requeridos (izquierda y derecha). La única configuración que requiere la Husky Lens se realiza de manera sencilla, donde el propio hardware del dispositivo permite entrar al menú precargado de los modos de aprendizaje con los que cuenta la Husky. Esto se logra a través del botón seleccionador de la cámara, rotando hacia la derecha y seleccionando la opción mencionada. Una vez configurado el modo de reconocimiento de la cámara se procede al aprendizaje de los objetos a reconocer; la figura 2 se muestran las imágenes que deben configurarse al dispositivo para poder llevar a cabo el aprendizaje de los diferentes objetos a clasificar. Para los alcances de este trabajo es suficiente con la configuración antes mencionada y el reconocimiento de los objetos deseados, sin embargo, es posible utilizar una memoria microSD para el almacenamiento de la información recopilada a través del aprendizaje de las imágenes previamente configuradas, para de esta manera realizar un análisis de los datos y obtener una salida. Lo anterior se logra comunicando el equipo Husky a cualquier microcontrolador a través de sus puertos TX y RX.

 

        
a)                                                                                                b)
Figura 2.
a) Aprendiendo flecha dirección izquierda y b) Aprendiendo flecha dirección derecha.

 

3. Integración Nvidia Jetson Nano (figura 3), esta tarjeta también requiere una memoria microSD como medio de almacenamiento y dispositivo de arranque, por ello lo primordial es utilizar una tarjeta que cuente con la capacidad necesaria para obtener la velocidad de respuesta deseada. Es necesario que al iniciar el proyecto la memoria SD se encuentre flashead con el formato correcto del sistema operativo y software del sistema NVIDIA. Cabe señalar que esta tarjeta es una plataforma equivalente a una computadora (pequeña) en la cual se pueden procesar programas de cómputo [3], con los cuales poder identificar simbologías de evacuación entre otras cosas. Su costo aproximado de 160 dólares hace que muchas personas la puedan adquirir. Cabe mencionar que este sistema cuenta con GPU, por ello cuenta con un procesamiento acelerado de datos y con un buen rendimiento. Este sistema es adecuado para prototipos de visión artificial [4], y es acorde a lo que pretendemos experimentar con ella para evaluar sus posibilidades y desempeño.

 

Figura 3. Sistema Nvidia Jetson Nano.

 

Pruebas y resultados preliminares del sistema

1. Keyence: Se llevaron a cabo las pruebas con este sistema obteniéndose un reconocimiento de una de las direcciones (derecha) que pueden marcar una ruta de evacuación, para identificar ambos sentidos, es necesario la generación de dos subprogramas, es decir repetir las configuraciones mencionadas para cada uno de los sentidos. En la figura 4a se observa cómo al identificar el contorno capturado en la foto maestra el porcentaje de correspondencia es alto y marca una identificación correcta. Posteriormente, al modificar el sentido de la flecha de la ruta se observa como el sistema indica una detección errónea (figura 4b), ya que no corresponde con el sentido guardado como imagen muestra.

 

        
a)                                                                                                b)
Figura 4.
Sistema Keyence: a) Identificación correcta y b) Identificación errónea.

 

2. Husky Lens: Al realizar el reconocimiento de las señales para rutas de evacuación, fue posible identificar ambas direcciones, sin embargo, el reconocimiento se dio cómo si se tratara de dos objetos diferentes por lo que, al momento de realizar el banco de datos para el tratamiento de las imágenes, ésta se hace extensa, lo cual incrementó los datos con los que se tiene que trabajar. En la figura 5a se observa cómo el sistema está reconociendo el objeto aprendido y guardado con el ID1, el cual para este experimento identifica el sentido izquierdo y en la figura 5b, se puede apreciar cómo la cámara está reconociendo el objeto aprendido y guardado con el ID2, el cual para este experimento corresponde con el sentido derecho.

 

        
a)                                                                                                b)
Figura 5.
HuskyLens: a) Identificación sentido izquierdo y b) Identificación sentido derecho.

 

3. Nvidia Jetson Nano: Durante la experimentación con esta tarjeta fue posible identificar ambas direcciones mediante la generación de dos etiquetas diferentes. Es relevante mencionar que al momento de capturar la base de datos, los objetos se deben capturar en diferentes posiciones y alturas del foco de cámara, para cuando llegue el momento de reconocer los objetos en diferentes ambientes no controlados, la distancia y posición de los objetos puede variar con respecto a la cámara y en consecuencia puede tener cierto margen de error al momento de la identificación. La figura 6a ejemplifica lo dicho anteriormente ya que al no tener diferentes ángulos, posiciones y distancias de la toma de la base de datos del objeto, representa posibilidad de error al momento de la detección de los objetos. Una vez que se carga de manera adecuada la base de datos, la detección de los objetos es precisa como se muestra en las figuras 6b y 6c de las pruebas realizadas.

 

                 
           a)                                                                                b)                                                                          c)
Figura 6.
Jetson Nano: a) Error en la detección, b) Detección D. derecha y c) Detección D. izquierda.

 

IV. Conclusiones

Después de realizar las pruebas de detección con diferentes dispositivos es posible realizar ciertas comparaciones en diferentes atributos de cada uno de los sistemas, encontramos diferencias notables en cuanto a costo. Para el sistema Keyence solo se requirió el sensor y la interfaz con el ordenador que será utilizado para las configuraciones, el costo del sensor fue de $21,000.00 M.N. Por otro lado, para el sistema Husky Lens se requirió una cámara que tiene un costo de $1,100.00 M.N., sin embargo, aunque para las pruebas iniciales no se requiere un dispositivo adicional, posteriormente para el procesamiento de los datos es necesario un microcontrolador el cual tuvo un costo de $500.00 M.N., de modo que el sistema tuvo un costo total de $1,600.00 M.N. El último dispositivo utilizado para las pruebas fue la tarjeta Jetson Nano, la cual tuvo un costo promedio de $3,400.00 M.N., sin embargo, a este sistema se le añadió el costo de la cámara para la adquisición de fotografías y reconocimiento de objetos, tomando en cuenta que es posible integrar cualquier dispositivo de cámara web, se consideró el costo de la webcam marca Logitech la cual tiene un precio comercial de $2,000.00 M.N., dando un total de $5,400.00 M.N. De modo que se puede notar que existe una gran diferencia en los costos de acuerdo con la precisión, modo de configuración y posibles aplicaciones con los que cuenta cada uno de los sistemas de visión artificial probados.

V. Referencias

  1. Norma oficial mexicana NOM-003-SEGOB-2011 (). señales y avisos para protección civilRecuperado el 14 de octubre de 2024, de https://dof.gob.mx/nota_detalle.php?codigo=5226545&fecha=23/12/2011#gsc.tab=0.

  2. (). Vista de asistente móvil basado en audio para la lectura de textos como apoyo a personas con discapacidad visual. Recuperado el 12 de octubre de 2024, de https://terc.mx/index.php/terc/article/view/152/141.

  3. González Marcos A., Martínez de Pisón F. J., Pernía Espinoza A. V., Alba Elías F., Castejón Limas M., Ordieres Meré J. y Vergara González E. (2006). Técnicas y Algoritmos Básicos de Visión Artificial. Universidad de La Rioja, España.

  4. Jiménez Varela N. (2021). TRABAJO FIN DE GRADO: Evaluación de la plataforma Nvidia Jetson Nano para aplicaciones de visión artificial. UNIVERSIDAD AUTÓNOMA DE MADRID, España.