Aplicación Basada en Realidad Aumentada para Entrenamiento...
Transcript of Aplicación Basada en Realidad Aumentada para Entrenamiento...
Aplicación Basada en Realidad Aumentada para
Entrenamiento en la PTAR El Salitre Fase I
1Juan Carlos Díaz Quintero, 2Johnnatan Castañeda González, 3Oscar F. Avilés S.
Universidad Distrital Francisco José de Caldas
[email protected], [email protected], [email protected]
Abstract: This document is based on the design and
development of an augmented reality application for use on a
mobile device. The application has been developed in the free
software Unit and Vuforia, focused on the electromechanical
maintenance area of the wastewater treatment plant phase 1
PTAR SALITRE; The purpose of the application is to reduce
machine downtimes due to corrective and / or preventive
maintenance within the PTAR Saltpeter. The implementation
of the application is focused on the equipment identified by its
priority as critical, since it´s downtimes of said equipment,
generate dead times, stops in processes that affect the removal
of suspended solids and BOD5 generate (biological oxygen
demand), which are indicators of production at the PTAR
Salitre plant.
Index of Terms: Augmented reality, bookmark, template, CAD,
Android.
Resumen—Este documento se basa en el diseño y desarrollo de
una aplicación de realidad aumentada para uso en un
dispositivo móvil. La aplicación ha sido desarrollada en el
software libre Unity y Vuforia, enfocada al área de
mantenimiento electromecánico de la planta de tratamiento de
aguas residuales fase 1 PTAR SALITRE; el fin de la aplicación
es disminuir los tiempos de parada de máquinas debido a
mantenimientos correctivos y/o preventivos dentro de la PTAR
Salitre. La implementación de la aplicación está enfocada en los
equipos identificados por su prioridad como críticos, puesto que
los tiempos de parada de dichos equipos generan tiempos
muertos, paradas en los procesos que afectan la remoción de
solidos suspendidos y genera DBO5 (demanda biológica de
oxigeno), los cuales son indicadores de producción en la planta
PTAR Salitre.
Índice de Términos—Realidad aumentada, marcador, plantilla, CAD, Android.
I. INTRODUCCION
La Realidad Aumentada es una tecnología basada en la
combinación de información real con información digital,
cada vez tiene más auge y está siendo implementada como técnica para la formación de los ingenieros en grandes
empresas y para la presentación de sus proyectos. Mediante
dicha tecnología, podemos simular, analizar y seleccionar
equipos y/o sistemas mostrándolos visualmente a través de
un dispositivo móvil, de una forma interactiva, y partiendo
como único documento base de una imagen.
El desarrollo del proyecto está enfocado al área de
mantenimiento electromecánico de la Planta de Tratamiento
de Aguas Residuales El Salitre, donde por medio de la
aplicación desarrollada el técnico encargado encontrara un
apoyo y/o guía que le facilitara optimizar las tareas de
mantenimiento mediante la visualización en
representaciones 3D de los equipos e indicaciones de los
componentes, información del instrumento a reemplazar y la guía de tareas a desarrollar.
La aplicación desarrollada tiene aplicabilidad en los
equipos e instrumentos de mayor criticidad para la PTAR
Salitre.
II. REALIDAD AUMENTADA
“La realidad aumentada es una combinación del entorno
real con elementos virtuales, con los que el usuario interactúa
en tiempo real; combina y registra objetos virtuales y reales
y se ejecuta interactivamente en tiempo real, [1]. La
tecnología de la realidad aumentada emplea, como
interactivos, dispositivos de visualización similares a la
realidad virtual, pero permitiendo ver el escenario real (ver
imagen 1). Se añaden, además, los sistemas necesarios para
integrar la información física existente con la información virtual”. (Redondo, 2012)
Para lograrlo se precisa de la capacidad de reconocimiento
y rastreo de los objetos del mundo real que interactúen con
los elementos virtuales. Para ello se emplean varios métodos:
unos emplean los datos de geolocalización y de orientación
que nos proporciona un GPS (sistema de
geoposicionamiento por satélite). Otros métodos usan
marcadores, que consisten en elementos con características
geométricas o patrones únicos que les posibilitan ser
detectados con facilidad por el sistema para incorporar
imágenes, textos, vídeos y objetos 3D, al entorno real y poderlos manipular e incluso hacer que interactúen entre sí,
que es el método utilizado en el proyecto diseño y desarrollo
una aplicación basada en realidad aumentada de
entrenamiento para el área de mantenimiento
electromecánico en la planta de tratamiento de aguas
residuales El Salitre fase I).
Los dispositivos de visualización en realidad aumentada se
sitúan entre la realidad y nuestros ojos, de este modo ver la
realidad aumentada a través de la pantalla. Comúnmente se
emplean los sistemas see-through [4], que permiten
visualizar directamente la escena real y representar los
elementos virtuales necesarios como el utilizado por el software de desarrollo UNITY.
Dispositivos de este tipo pueden ser cascos HMD, gafas
especiales (Google glass) o bien pantallas de visualización
transparentes dispuestas sobre una mesa de trabajo, sistema
utilizado en 2010 por Van Waardhuizen, Oliver y Gimeno.
En cuanto a sistemas de rastreo se emplean cámaras digitales,
sensores ópticos, acelerómetros, sistemas de
geoposicionamiento por satélite (GPS), giróscopos o
sensores infrarrojos, tecnologías que ofrecen varios niveles
de precisión; como medios interactivos se emplean
dispositivos similares a la realidad virtual, como los guantes
especiales que incorporan marcadores para el seguimiento y control de los movimientos de la mano. Una novedad es el
empleo de sistemas de detección por infrarrojos para el
seguimiento del usuario para que éste pueda interactuar con
el sistema mediante el registro de su movimiento. En este
sentido se está empleando la tecnología ya desarrollada en
los videojuegos (como el sensor KINECT) [5]. Por último,
está ya siendo posible el uso tanto de tabletas como de
teléfonos inteligentes como dispositivos de visualización y
de interacción en realidad aumentada, al incorporar
elementos necesarios para visualización y detección tales
como cámaras, sensores MEMS, acelerómetros, o GPS.1 Ver Figura 1
Fig. 1. Realidad aumentada aplicada en un tablero de
distribución
A. Desarrollo de la realidad aumentada
Vale la pena destacar que la RA no se limita a usuarios de
computadoras, se han creado aplicaciones para teléfonos
móviles / celulares, tales y como:
Unity: es una framework de desarrollo de videojuegos 2d
y 3d creada por la empresa Unity Technologies. En la página
web de Unity, en la sección Made with Unity, podemos ver
que este software se ha utilizado para crear multitud de
juegos conocidos y otros no tan conocidos, como se puede ver en la figura 2. También se ha utilizado para crear
experiencias de Realidad Virtual interactivas e incluso
miniseries, como “Baymax Dreams”, producida por Disney
junto con Unity, donde se ha utilizado el editor para procesar
y pre visualizar en tiempo real todos los capítulos de la
miniserie.
Unity puede usarse junto con Blender, 3ds Max, Maya,
Softimage, Modo, ZBrush, Cinema 4D, Cheetah3D, Adobe
Photoshop, Adobe Fireworks y Allegorithmic Substance.
Los cambios realizados a los objetos creados con estos
productos se actualizan automáticamente en todas las
instancias de ese objeto durante todo el proyecto sin necesidad de volver a importar manualmente [6].
1 Revista bimestral de ingeniería multidisciplinar Dyna | Julio Dyna | Julio
- Agosto 2014 | Vol. 89 nº4 | 383 - Agosto 2014 | Vol. 89 nº4 | 383
Fig. 2. Videojuego desarrollado en Unity.
Con Unity se han desarrollado algunos de los juegos más
famosos para móvil, “ Monument Valley ”, “ Ghost of a Tale
”, “ Hollow Knight ” o “ Cuphead ”.
Una de las características más importantes y más cómodas
de Unity es que soporta la exportación a una cantidad enorme de plataformas. No solo podemos elegir la plataforma con la
que vamos a trabajar creando y editando nuestro juego, cuyo
editor en este momento soporta Windows y MacOS, además
de Linux de forma experimental, sino que podemos crear
nuestro juego para más de 25 plataformas. [7].
Layar: es una plataforma abierta móvil en el que se recrea
el contenido de RA. Funciona mediante el uso de una
combinación de la cámara del teléfono móvil, GPS, brújula,
acelerómetro y una conexión a Internet móvil. La cámara
capta el mundo visto a través de su lente y se nota en la pantalla, como se visualiza en la figura 3. El GPS determina
la posición exacta y la brújula y acelerómetro determinan la
dirección de la vista.
Actualmente no es compatible con teléfonos BlackBerry,
WebOS, y sistemas operativos Windows 7. Está disponible
para el iPhone / iPad, en App Store, en Android Market y la
tienda de Nokia Ovi, también se puede descargar de su
página oficial en: www.layar.com. [8]
Fig. 3. Aplicación de RA desarrollada en Layar.
Junaio: desarrollado por la empresa “Metaio” en Múnich.
Ofrece un servicio gratuito, basado en API: Application
Programming Interface, que permite a los usuarios con
conocimientos y habilidades en los lenguajes web, crear
emocionantes experiencias de RA.
Proporciona herramientas como: “Junaio Glue”, donde
además de reconocer las imágenes, éstas se pueden mejorar
con contenido virtual sin necesidad de utilizar marcadores
especiales. Está disponible de forma gratuita para todos los
desarrolladores y se ha creado para trabajar con modelos 3D.
También ofrece canales basados en Geo-localización a fin de
mostrar puntos de interés en el entorno del usuario, con tan
sólo mirar a través de su teléfono, y así ver objetos virtuales,
3D animados o estáticos con o sin texto, sonidos o vídeos que
flotan en la posición de un punto de interés, como se observa
en la figura 4. Se puede descargar de su página oficial en www.junaio.com.[9]
Fig. 4. Aplicación basada RA desarrollada en Junaio.
TwittARound: se ejecuta por los momentos con el sistema
operativo Android y para el iPhone 3G en adelante. Se encuentra disponible en la App Store de Apple. Esta
aplicación creada en Webkit y desarrollada por Michael
Zoellner, muestra los Tweets de los usuarios en torno a su
ubicación, justo en el lugar en que fueron escritos en tiempo
real, así como el de las personas que se encuentren a su
alrededor.
Además, incorpora un efecto que muestra el avatar de cada
usuario a mayor o menor distancia del horizonte, ofreciendo
de esta forma, una referencia sobre la lejanía o cercanía del
lugar desde donde se está twitteando como se visualiza en la
figura 5. Se puede descargar de: www.appstorehq.com[9]
Fig. 5. Aplicación de RA para twitter desarrollada en
TwittARound
III. REVISION DE LA LITERATURA
Recientemente, la Realidad Aumentada (RA) se ha
convertido en un concepto que ha atraído la atención de
muchas personas por ser una tecnología que muestra la
información virtual superpuesta sobre el medio ambiente
real. No obstante, su origen no es nuevo, surge a finales de 1960, a partir de los estudios que en paralelo realizaban tanto
el Doctor Iván Sutherland: creador de la primera interfaz
gráfica de usuario (GUI), y el precursor de la mayoría de las
interfaces de comunicación que hoy en día existen, [1].
Morton Heilig L. creador del “Sensorama”, una máquina
2http://eduqa2012.eduqa.net/eduqa2012/RAy_aplicaciones_para_el_
elearning.pdf
diseñada y construida de acuerdo con estándares de los
juegos de “Arcade”, donde por medio de un casco con una
pantalla, llamada “Máscara Telesfera” la cual fue el
prototipo de los cascos utilizados en aviones de combate
militar, proporcionaba una experiencia que incluía los cinco
sentidos del ser humano. El primer uso práctico de esta
máquina fue en la película "Guerra de las Galaxias".
(Korowajczenko, 2012) Continuando con este orden de ideas, es en 1990 cuando
aparece realmente este concepto: “Realidad Aumentada”
(RA), por una investigación que el Doctor Thomas P.
Caudell [2] estaba realizando desde la década de los 80 para
la compañía Boeing, en donde los trabajadores de esta
empresa, a través de una pantalla digital, eran guiados en el
montaje de los cables eléctricos en los aviones. De la misma
forma, en esa década Robert Azuma publicó un artículo que
describía la reciente apertura de su equipo en el campo de la
RA, y detallaba como él y su grupo habían encontrado una
solución para aplicaciones exteriores de RA – la noticia fue muy fuerte – porque las comunicaciones inalámbricas
comenzaron aparecer sólo en los años 90, y las aplicaciones
de Bluetooth, la identificación RFID y otras herramientas
como el LAN inalámbrico no eran fáciles de comprender, por
lo que cuando Azuma propuso sobre la base de datos de los
movimientos del usuario sensores como: el giroscopio, el
acelerómetro, la brújula digital y los sensores de posición
angular, todo ello para mostrar “etiquetas de texto” para los
puntos de control remoto virtual de interés, causó un gran
revuelo.2 [9]
Durante este período, también se observó una realidad
mixta, la cual era desarrollada por una parte en los
laboratorios en sistemas mixtos de la realidad de Singapur,
Suecia y Alemania, trabajando en dos direcciones: en el
casco y en las interfaces de realidad virtual con una pantalla
de video. Y por la otra, Philippe Kahn creó el primer teléfono
móvil del mundo con cámara digital improvisada para enviar
fotos en tiempo real, debido a que él quería compartir con el
mundo, el nacimiento de su hija recién nacida Sofía, lo cual
logró permitiéndole compartir las fotos a más de 2.000
amigos y conocidos. Su invento fue el punto de partida para la creación de
teléfonos celulares con cámara, que ofrecen ahora la mayoría
de los principales fabricantes de equipos móviles del mundo.
Sin embargo, no fue hasta el 26 de febrero de 2009, cuando
la tecnología de RA llegó a estar verdaderamente disponible
capturando la mentalidad del público y de la prensa.
Esto se debió a una serie de conferencias ofrecidas en el
Instituto de Tecnología de Kyushu en Japón; siendo uno de
los principales ponentes el Doctor Sunao Hashimoto del
departamento de Ingeniería Mecánica de ese instituto, cuya
presentación fue el software "ARToolKit" para la construcción de los objetos en la RA. ARToolKit fue
desarrollado originalmente por el Dr. Hirokazu Kato, y su
actual perfeccionamiento está siendo apoyado por el
Laboratorio de Human Interface Technology (HIT) de la
Universidad de Washington, HIT NZ laboratorio de la
Universidad de Canterbury, Nueva Zelanda, y
ARToolworks, Inc., Seattle. 3[9]
A. Descripción del proceso PTAR salitre
Ubicación y aplicación: La aplicación está dirigida a la
PTAR El Salitre fase I ubicada en la calle 80 # 121-98 vía
Suba Lisboa, en la ciudad de Bogotá- Colombia.
Fig. 6. Ubicación planta PTAR Salitre, Fuente: Google
Maps.
B. Descripción del proceso en la línea de agua PTAR Salitre
La PTAR Salitre se encarga de la depuración de aguas
residuales generadas por aproximadamente 2.200.000
habitantes del noroccidente de Bogotá; se compone de dos
líneas principales que son la línea de agua y línea de lodos
que a su vez se subdividen en cinco zonas y/o fases que son
pretratamiento, decantación primaria, calentamiento de
lodos, deshidratación de lodos y transporte. En cada fase del
proceso de la PTAR se llevan a cabo varios subprocesos
donde intervienen maquinaria e instrumentación industrial
que requieren un plan de mantenimiento periódico para
aumentar su confiabilidad y así garantizar el correcto funcionamiento y el encadenamiento de los diferentes
procesos del sistema. A continuación, se indican en diagrama
de bloques las fases del proceso y los subprocesos, como se
muestra en la figura 7.
Fig. 7. Diagrama de las fases de proceso y subproceso. Fuente: [10]
3 Dra. Karinne Terán Korowajczenko
1. Toma de agua y pretratamiento: En este subproceso se realiza la captación de agua cruda como se le conoce al agua no tratada que ingresa a la planta. Para ingresar el agua a la planta se emplean 5 unidades de bombeo llamas bombas de tornillo de Arquímedes con un caudal
promedio de 4 𝑚3/𝑠. En el subproceso de pretratamiento, se realiza el filtrado fino para eliminar basuras, agregando productos químicos para de esta manera aglomerar las partículas y facilitar su separación del agua.
2. Decantación primaria: En estos tanques es removido lo que se conoce como el lodo primario que corresponde a una de las líneas fundamentales de la planta. El lodo es decantado por acción de la gravedad y extraído del tanque por medio de un puente barre lodos y bombeado hacia otro edificio por dos bombas centrifugas. De igual forma se retiran las grasas flotantes con el mismo sistema de dos bombas y se realiza la medición de los lodos extraídos.
3. Descarga al rio: El agua que sale decantada es conocida en campo como agua tratada y es expulsada de la planta mediante cuatro (4) canales donde se realiza la medición del caudal con el fin de llevar un registro del agua que entra y de la que sale.
4. Espesamiento de lodos: En este subproceso se retira el agua del lodo decantado para ser espesado y concentrado y de esta forma poder realizar el proceso siguiente de digestión anaerobia.
5. Digestión de lodos: El lodo bombeado desde los tanques espesadores requiere reducir su carga biológica mediante el proceso denominado digestión de lodos, el cual es realizado en tres tanques de anaerobia mesofílicos de mezcla completa y recirculación para calentamiento externo. Estas tres unidades de 8500 m3, funciona cada una a temperatura 35 ºC, con un tiempo de retención 17 a 22 días ya que son las especificaciones técnicas requeridas para este subproceso.
6. Deshidratación de lodos: Una vez digerido el lodo se almacena en un (1) Tanque de 2.700 m3 de capacidad. El lodo es deshidratado en (5) maquinas llamadas filtros banda de 3m de ancho con uso de la misma agua industrial que ha sido tratada en la PTAR. En esta etapa se le da manejo al lodo deshidratado que recibe el nombre en campo de (biosólido), se realiza llenado de los contenedores mediante (4) bandas transportadoras y un sistema staker (móvil).
IV. MODELADO DEL SISTEMA EN CAD
A. Identificación de los equipos críticos
Del análisis realizado al proceso de la PTAR, se obtiene
que dentro de cada proceso hay equipos y/o maquinas que son fundamentales para las líneas del sistema, que permiten
cumplir con los objetivos enmarcados en la PTAR Salitre.
Dichos equipos fundamentales son conocidos en
mantenimiento industrial como equipos críticos a los cuales
se les debe dar importancia alta y para su continuo y correcto
funcionamiento se debe contar con herramientas y
componentes de reparación y/o mantenimiento en stock para
atender cualquier parada de inmediato, evitando largos
tiempos muertos en el proceso misional.
Para el caso de interés de la presente investigación se
identificaron los siguientes equipos como críticos y a los
cuales se les implementara la aplicación de realidad
aumentada con el fin de facilitar el proceso de
mantenimiento preventivo, correctivo y/o predictivo según
corresponda al caso presentado en campo.
La criticidad de estos equipos se clasifica con un factor de
uno (1) a tres (3) dependiendo del impacto que genera una falla o no disponibilidad del equipo en el proceso y el costo
de reparación o mantenimiento del equipo crítico.
Factor de criticidad (FCr):
1. Bajo Impacto y/o Poco tiempo y bajo costo para
reparación
2. Medio impacto y/o Poco tiempo y alto costo para
reparación
3. Alto impacto y/o Alto tiempo y alto costo para
reparación
Los equipos críticos identificados por zona son los
siguientes:
En el subproceso de captación de agua, los motores de la
bomba del tornillo Arquímedes identificados con el tag
01P01A/B/C, que son motores de 375 Kw marca Brook
Hansen; su criticidad factor 3 se debe a que son
encargados de accionar los reductores mecánicos que
mueven los tornillos de Arquímedes para el ingreso de
agua cruda a la planta. La no disponibilidad de estos
motores genera una disminución en la capacidad de tratamiento de la planta o una parada total del proceso ver
figura 8.
Fig. 8. Motor de los tornillos de elevación 01P01. Fuente: Autor
En el subproceso de Pretratamiento en la dosificación de
cloruro férrico, las bombas de dosificación de membrana
Prominent Sigma identificados en campo con el tag 02P04A/B/C/D con una capacidad de capacidad 353 l/h
y 4 a 16 bares de presión. Su criticidad factor 3 se debe a
que una falla en la dosificación de este químico afectaría
directamente el proceso de remoción de grasas y arenas
disminuyendo considerablemente los índices de
remoción y tratamiento del agua en la planta como se
observa en la figura 9.
Fig. 9. Bombas de dosificación de cloruro férrico 02P04.
Fuente: Autor
En el subproceso de decantación primaria, los medidores de flujo electromagnéticos marca Endress+Hauser que
son de la línea Proline Promag P300 identificados con tag
05FIT01A/B/C/D/E/F/G/H y 08FIT01. Se observa en la
figura 10, Su criticidad se debe a que es necesario saber
la cantidad de lodo extraído para poder realizar la carga
de los digestores y no saturarlos. Es de aclarar que las
mediciones y datos obtenidos en las mediciones de estos
equipos se visualizan en el sistema de supervisión y
control SCADA y son monitoreados a diario por el
operario.
Fig. 10. Medidor de flujo Promag 05FITO1. Fuente: Autor
En el subproceso de espesamiento de lodos, las bombas
de cavitación positiva marca NEMO con tag 08P01A/B/C. Manejan caudales de 40 m3/h, para
presiones diferenciales de hasta 24bar. Se visualizan en
la figura 11. Su criticidad factor 3 se debe a que son las
encargadas de enviar el lodo espesado hacia los
digestores y una falla en su funcionamiento generaría
traumas en el proceso de digestión repercutiendo en la
producción de biogás y lodo digerido.
Fig. 11. Bombas espesamiento de lodos. Fuente: Autor
En el subproceso de deshidratación de lodos, el reductor
de tracción del filtro banda marca SEW EURODRIVE de
referencia KA87R57DRS80S4 identificados con el tag
12SB01A/B/C/D/E. se observa en la figura 12. Su
criticidad factor 3 se debe a que este reductor es el
encargado de accionar el mecanismo que mueve las telas
de la máquina, así realizar deshidratación del lodo.
Fig. 12. Moto-reductor filtro banda. Fuente: Autor
En el subproceso de transporte de biosolido, el motor de
tracción de la banda transportadora 12T02, que se
encarga de recoger el biosólido generado por los cinco filtros banda. ver figura 13 Su criticidad factor 3 se debe
a que una falla en este equipo genera una parada completa
en la zona de deshidratación y también genera demoras
en el llenado de las volquetas o camiones para la
disposición final de los biosolidos.
Fig. 13. Moto-reductor banda transportadora. Fuente: Autor
B. Modelado 3D - Inventor
Los modelos tridimensionales a utilizar en la aplicación se trabajaron en un software de diseño asistido por computadora
CAD, para este caso el software de diseño utilizado fue el
Autodesk Inventor®. ver figura 14.
Fig. 14. Autodesk Inventor 2019. Fuente: Autodesk
inventor
En el Autodesk Inventor® trabajamos los modelos de los
equipos críticos identificados, basados en los catálogos e
imágenes de los equipos reales, así como en las
especificaciones técnicas de cada equipo. Para esta
aplicación desarrollamos solo un modelo 3D por cada equipo
crítico, aunque en campo se encuentran de 4 a 5 unidades del
mismo equipo, puesto que son similares, como en el caso de
las bombas de cavidad progresiva, bombas de dosificación,
motores de los tornillos y medidores de caudal. Ver figura 15
Fig. 15. Modelo de motor 3d trabajado. Fuente: Autor
Los modelos CAD de Inventor® son creados en un
formato. ipt el cual es uno de los formatos admitidos por la
Unity.
V. DISEÑO DE LA APLICACIÓN
Se desarrolló una aplicación basada en realidad aumentada
dirigida al área de mantenimiento electromecánico de la
Planta de tratamiento de aguas residuales el salitre y
enfocada a los equipos conocidos como críticos debido a su
importancia y el papel que desempeñan en el proceso del
tratamiento de agua.
Por su importancia, estos equipos reciben un mantenimiento preventivo periódicamente además de
verificar su correcto funcionamiento a diario. En la
realización de los mantenimientos y las verificaciones es
oportuno contar con la información necesaria y básica para
facilitar las tareas y reducir los tiempos de paradas los cuales
causan traumatismos en el proceso de la PTAR. La
aplicación desarrollada ofrece de forma didáctica e
inmediata esta información
A. Algoritmos de programación PTAR
Para el desarrollo del proyecto se empleó el software Unity,
Vuforia, Inventor de Autodesk y Blender. A continuación, se
explicará la aplicación dada a cada uno:
Vuforia: es un kit de desarrollo de software de realidad
aumentada para dispositivos móviles; este kit permite la
creación de aplicaciones de realidad aumentada utilizando la
tecnología de visión por computadora (cámaras digitales),
para reconocer y rastrear imágenes planas y objetos 3D en tiempo real conocidos como marcadores. En este kit se crean
las bases de datos de los marcadores que contienen las
imágenes en formato .jpg que reciben una calificación de 1 a
5 estrellas que representan su calidad de reconocimiento por
la cámara siendo la de mayor número la de mejor
calidad.[11]
Para el presente proyecto se creó una base de datos llamada
PTAR, se puede visualizar en la figura 17, que contiene los
marcadores que corresponden a las imágenes de los equipos
críticos a detectar. Esta base de datos se descarga y es
utilizada únicamente en el software ya que su uso de formato
es exclusivo para Unity. Este kit de desarrollo también
permite la creación de las licencias necesarias para la
utilización de los marcadores de la base de datos a utilizar en
el software Unity. Para este proyecto se utilizó una licencia
libre de Vuforia. Ver figura 16.
Fig. 16. Licencias generadas en Vuforia [11]
La licencia generada se copia como texto y se pega en las
propiedades de la cámara AR de Unity, como se observa en
la figura 22.
Fig. 17. Base de datos de los marcadores fuente Autor
Esta base de datos se descarga y se importa en el software
Unity y de esta forma permite utilizar los marcadores para
ser detectados por la cámara AR Herramienta de desarrollo
Unity.
B. Desarrollo de la aplicación
La aplicación de Realidad Aumentada propuesta, se
desarrolló en el software Unity, el cual es dedicado al
desarrollo de aplicación basada en realidad aumentada,
realidad virtual y videojuegos. Desde el Unity Hub, creamos
una aplicación y para este caso la llamamos PTAR y
escogemos como plantilla de modelos 3D. Como se puede ver
en la figura 18.
Fig. 18. Creación de aplicativo PTAR fuente Autor
Una vez creado el proyecto, se debe configurar para
el desarrollo de aplicaciones en Android. Como se observa
en la figura 19. Esta configuración se realiza en el menú de
Build Settings, donde escogemos como plataforma de
aplicación Android.
Fig. 19. Configuración en android fuente Autor
Una vez que Unity carga los elementos para el desarrollo
de una aplicación Andriod, en el menu player settings
configuramos el apartado XR setting para que Unity pueda
soportar la realidad aumentada de Vuforia. Según se indica
en la figura 20.
Fig. 20. Selección Vuforia augmented
Realizadas estas configuraciones, es necesario reemplazar la camara principal por la camara de realidad aumentada.
Para esto eliminamos la camara principal e incluimos la AR
cámara con la cual se importan los elementos y archivos
necesarios para la utilizacion de la misma ver figura 21.
Fig. 21. Cámara RA Fuente Autor
A esta camara se le debe incluir una licencia de Vuforia en
las propiedades, para este caso en el apartado Vuforia
configuration como sepueder ver en la figura 22.
Fig. 22. Inclusión de licencia de Vuforia Fuente Autor
Esta licencia se obtiene directamente de la pagina web de
Vuforia. Para lo cual es necesario crear un usuario y una
contraseña, esta contraseña gratuita tiene restricciones en el
numero de usos, sin embargo para efectos de este proyecto
son suficientes.[11]
VI. DISEÑO DE MARCADORES
A. Creacion de los disparadores o targets
En la misma pagina de Vuforia, creamos una base de datos
la cual contiene todas la imágenes que se utilizan como
disparadores o targets, que activan la imagen tridimensional
asociada, al ser detectados por la camara del dispositivo
movil en el cual se esta ejecutando la aplicación. Los targets
pueden ser tipo imagen simple, cuboide, cilindrico o un
objeto 3D. En esta ocacion emplearemos imágenes simples
de formato .jpg como elementos disparadores.
Estas imágenes son incluidas en la pestaña target manager
de la pagina de vuforia y deben ser imágenes en formatos
.jpeg o .png de un tamaño maximo de 2 mb. Como sse observa en la figura 23.
Fig. 23. BD con imagenes como disparadores o targets Fuente Autor.
La base de datos creada se importa al desarrollador Unity
y de esta forma ya es posible utilizar las imágenes como
targerts o disparadores para la aplicación.
En el arbol de jerarquia incluimos la imagen escogida como
target, una vez incluida en el arbol, se ajusta tamaño y
posicion de la imagen, como se observa en la figura 24.
Fig. 24. Importación bases de datos de Vuforia a Unity
Fuente: Autor
Posteriormente se cargan los marcadores que voy a utilizar y que serán llamados a los targets para que la cámara AR los
proyecte y permitan evidenciarse en el equipo seleccionado
por el operador.
Fig. 25. Marcadores en el editor de Unity Fuente Autor
B. Botones de acceso y meno de usuario
En la aplicación de este proyecto se crearon seis botones de
navegación, a los cuales se les configuraron las acciones que
permite realizar interacción del usuario con la interfaz, ver figura 26.
A los botones agregados, se les configuraron el tamaño,
fuente y la acción a realizar que en este caso para el botón
“AR cámara”, activa la cámara del dispositivo móvil
Android y dependiendo de target visualizado muestra en
pantalla el modelo 3D del equipo detectado, además de la
información del mismo.
En el caso del botón “Inicio” y del botón “salir” muestran
la pantalla principal de la aplicación o sale de ella
respectivamente.
Fig. 26. Botones de acceso a la interfaz Fuente Autor
Las funciones de los botones se configuran en las
propiedades como se observa en la figura 27, desde la
pestaña inspector en el submenú botón y allí se configuran
las acciones de cada botón que consiste en navegar en cada
una de las pantallas.
Fig. 27. Configuración de los botones Fuente Autor
C. Botón inicio
Su función es retornar desde cualquier sub-fase y salir; la
configuración se realiza por medio de un script que consiste
en una programación en lenguaje C, mediante líneas de
código que permite programar las acciones a realizar. Como
se puede ver en la figura 28.
Fig. 28. Programación en lenguaje C: Fuente Autor
D. Modelos CAD en Unity
Los modelos de los equipos creados en Inventor, no son compatibles directamente con el desarrollador Unity, lo que
hace necesario cambiar el formato de la figura en uno que
pueda ser utilizado en la aplicacion. Para lograr esto se debe
exportar el objeto creado en Inventor a formato CAD y de
extension .stl el cual es posible visualizar el el programa
Blender donde se exporta en formato FBX el cual es
compatible con Unity. Como se observa en la figura 29.
Fig. 29. Visulizacion de objeto creado en Blender en formato
FBX Fuente Autor
Con el objeto ya importado en formato CAD de extension
.fbx, es posible importar la figura al desarrollador Unity
donde se hace la relacion de la figura CAD con el marcador
correspondiente. Cuando la camara del dispositivo movil o
pc detecta el target, muestra la figura 3D del equipo critico
diseñado, como se visualiza en la figura 30.
Fig. 30. Modelos CAD importados en Unity Fuente Autor
E. Diseño de las escenas
En las escenas se incluyen las imágenes o marcadores
dándoles la ubicación y tamaño deseados. Una vez ubicados
los marcadores se incluyen loa modelos CAD de los equipos y se asocian a los marcadores correspondientes.
Esta asociación se realiza en el árbol de jerarquía
seleccionando y arrastrando el objeto hacia el marcador
correspondiente, según se observa en la figura 31.
Fig. 31. Asociación de los marcadores y objetos CAD Fuente
Autor
Además de los modelos CAD de los equipos, se asoció
también a cada marcador texto y una imagen
correspondientes a la información técnica de cada equipo.
Con estas asociaciones se logra que al detectar con la
cámara una imagen marcador y al ser reconocida, se muestra
en pantalla el modelo 3D del equipo relacionado y un cuadro
de texto con la información técnica y una foto del mismo como se observa en la figura 32.
Fig. 32. Asociación de los marcadores y los paneles
información técnica del equipo.
F. Sistema de menús
Se diseñó un sistema de menús para la interacción con el
usuario como se puede ver en la figura 33. El sistema de menús cuenta con botones para la navegación entre ellos.
Estos e crearon en el árbol de jerarquía adicionando un
elemento tipo panel. En el panel se ubican elementos tipo
botón y se configuran las acciones realizar en las propiedades
de los botones
Fig. 33. Sistema de menús en la aplicación. Fuente Autor
Los menús diseñados en la aplicación son:
Información App
Escanear
Criticidad
Contacto
Cada menú se crea en un panel creado en el árbol de
jerarquía del proyecto.
VII. VALIDACIÓN
La aplicación desarrollada consta de un bucle principal el
cual contiene los pasos o etapas de ejecución generales.
Fig. 34. Funcionamiento de la aplicación Fuente Autor
Como se muestra en el mapa conceptual de la figura 34, la
aplicación comienza inicializando la cámara de video lo cual se hace con el botón “modelos 3D”. Con la cámara activa se
enfoca hacia el marcador correspondiente ubicado en cada
equipo crítico, identificado en la PTAR El Salitre.
Fig. 35. Interfaz de la aplicación. Fuente: Autor
Una vez reconocido el marcador, despliega el modelo 3D
del equipo crítico asociado al marcador, junto con la
información correspondiente al equipo captado, como se
observa en las figuras de la 36-40.
Tag o identificación del equipo en la PTAR
Marca y modelo
Factor de criticidad
Tipo de señales y/o comunicaciones que maneja (4-20mA, HART, señales digitales, etc.)
Tensión de alimentación
Consumo en corriente para el caso de los motores
eléctricos.
Fig. 36. Bomba de dosificación FECL3 en la aplicación RA
desarrollada. Fuente Autor
Con el botón “inicio”, cierra el modelo mostrado y vuelve a la portada o pantalla principal de la aplicación donde se
puede volver a activar la cámara para la identificación de otro
equipo o cerrar la aplicación con el botón “salir”.
Se escanearon los equipos en campo donde se comprobó el
funcionamiento de la aplicación desarrollada al mostrase en
pantalla el modelo 3D de equipo escaneado y la información
técnica. Como de se parecía en las figuras.
Fig. 37. Flujometro lodos espesados en la aplicación RA
desarrollada. Fuente Autor
Fig. 38. Motor bomba de tornillo en la aplicación RA
desarrollada. Fuente Autor
Fig. 39. Reductora banda trasportadora de biosolidos en la
aplicación RA desarrollada. Fuente Autor
Fig. 40. Flujometro de recirculación de lodos en la aplicación
RA desarrollada. Fuente Autor
VIII. CONCLUSIONES
Con el diseño y desarrollo de la aplicación basada en
realidad aumentada para el área de mantenimiento
electromecánico de la PTAR El Salitre, se cumplieron los
objetivos específicos propuestos.
La realización de la investigación correspondiente a
tecnología basada en la realidad aumentada y sus campos de
aplicación, así como las plataformas de desarrollo existentes
actualmente se dio cumplimiento al primer objetivo específico concerniente al estado del arte de esta tecnología.
Se logró la implementación de los modelos CAD de los
equipos basándose en modelos reales, especificaciones
técnicas y modelos prefabricados utilizando el software de
diseño Autodesk® Inventor y Blender para la importación a
formato compatible con Unity. Esta da complimiento al
segundo objetivo específico de Implementar los equipos e
instrumentos críticos en CAD basado en los planos de un
modelo real.
El sistema de reconocimiento de imágenes conocidas como
marcadores y la asociación de estos con los modelos CAD es la forma que emplea la aplicación para su funcionamiento.
Estos marcadores se diseñaron a partir de imágenes reales de
los modelos CAD y bajo las características de tamaño y
formato requeridas por Unity dando cumplimento al objetivo
específico 3.
Se realizó la validación de la aplicación diseñada
comprobando su funcionamiento en campo dentro de la
PTAR escaneando los equipos y verificando la visualización
de modelos 3D y la información relacionada.
Con el cumplimiento de los objetivos específicos
propuestos se logró el diseño y desarrollo de una aplicación
basada en realidad aumentada de entrenamiento para el área de mantenimiento electromecánico en la planta de
tratamiento de aguas residuales el salitre fase 1.
Actualmente la industria está sumergida en la cuarta
revolución llamada también industria 4.0, que tiene como
objetivo mejorar la productividad, eficiencia, calidad y
seguridad de los procesos. La realidad aumentada ofrece la
comunicación y la conexión de los recursos implicados como
el sistema se supervisión SCADA y sistemas de planificación
como el SAP, permitiendo de esta forma la monitorización
de los estados de los equipos, stock de repuestos, estado y
avance de los mantenimientos programados o requeridos en tiempo real de forma interactiva.
Por todo lo anterior es importante dejar plasmado en este
paper la viabilidad de ejecutar una segunda fase del presente
proyecto enfocado en comunicar la realidad aumentada para
todos los equipos y/o máquinas de la PTAR Salitre con el
sistema SCADA para facilitar los procesos de capacitación,
el entrenamiento de operarios y la posibilidad de visualizar
en tiempo real los escenarios nivel “0” que se presentan en
campo pero proyectados en un nivel “3” de supervisión en
la pirámide de la industria 4.0.
REFERENCIAS
[1] C. González, D. Vallejo, J. A. Albusac, J. J. Castro. Realidad Aumentada - Un Enfoque Práctico con ARToolkit y Blender.
Segunda edición. España. Bubok publishing S.L. 2012. [2] P. I. Moreno Cuéllar, Oportunidades de la Realidad
Aumentada en el Mantenimiento Industrial. Centro de Producción de Contenidos Digitales. 2018.
[3] C. K. García Escobedo, aplicación de la realidad aumentada al mantenimiento de maquinaria industrial de cinco ejes: una integración tecnológica, tesis, Facultad de Ingeniería y Tecnología, U. Montemorelos, Nuevo León México, 2015.
[4] F.J. Lacueva Pérez, M.A Gracia Bandrés, L.M. Sanagustín Grasa, C. González Muñoz, D. Romero San Martín, Análisis Realidad Aumentada para entornos Industriales. TecsMedia, 2015.
[5] C. Alcarria Izquierdo, (2010). Desarrollo de un sistema de Realidad Aumentada en dispositivos móviles, proyecto final de carrera, Universidad Politécnica de Valencia, Esc. Técn. Sup. Ing. Informática (ETSINF), Valencia, 2010.
[6] Unknown, 18 Mayo de 2017, GreenV: Unity, motores gráficos
[7] D.Eroza G. 10 junio 2019, Qué es Unity y características principales I Open Webinars
[8] P. Appleton, P Cooper 17 de Diciembre de 2018 Realidad Aumentada Rápida y Fácil.
[9] K.Terán Korowajczenko 2012, Realidad Aumentada sus Desafíos y aplicaciones para el E-Learning.
[10] CAR 2011 Adecuación Hidráulica y recuperación Ambiental Río Bogotá
[11] Vuforia 24 de enero 2020 Vuforia Developer