Aprendizaje profundo 3D en entornos urbanos escaneados con LiDAR terrestre para la supervisión de objetos

Compartir por correo electrónico

Las grandes aglomeraciones urbanas se enfrentan hoy en día a algunos problemas importantes, como las restricciones económicas, los retos medioambientales y los enfoques globales y sistémicos en la gestión de las ciudades [8]. Uno de ellos es el seguimiento preciso de los objetos urbanos, que pueden ser naturales (árboles), artificiales (semáforos o postes), estáticos o en movimiento (coches). Esto es esencial para analizar su interacción mutua (por ejemplo, las ramas de un árbol que están cerca de un poste eléctrico) y para prevenir los riesgos asociados a ellos (por ejemplo, las partes muertas de un árbol que pueden caer sobre una calle). Por tanto, es esencial poder localizar los objetos urbanos y proporcionar información sobre su estado.

Hay demasiados objetos para las aproximaciones manuales ex Montpellier (Francia):

  • 282 000 habitantes (2015)
  • >1000 km de carreteras
  • 2450 calles-> 5 a 8 000 señales
  • ~240 km de cables (60 km de tranvía)
  • ~ 40 000 árboles

Adquisición dinámica LiDAR montada en dispositivos terrestres

Los sensores LiDAR, que ahora suelen montarse en dispositivos móviles como los coches, pueden utilizarse para realizar una adquisición dinámica de toda una escena, como una ciudad o una aglomeración [4]. Una adquisición de este tipo proporciona más contexto espacial 3D y precisión sobre la profundidad que una adquisición con cámara de vídeo.

A partir de una nube de puntos LiDAR sería posible detectar los objetos en la escena 3D para ayudar a gestionar una aglomeración. Por ejemplo, saber con precisión cuántos árboles o postes hay y dónde se encuentran ayudaría mucho a actualizar las bases de datos de objetos urbanos, a encontrarlos y a controlar su estado. Resulta especialmente interesante hacer un seguimiento de los objetos que sufren cambios constantes, y el ejemplo más notable son los objetos vivos como los árboles. Los dispositivos LiDAR móviles están equipados con transmisores GNSS (Sistema Global de Navegación por Satélite) que georreferencian los datos durante la adquisición. Así, cualquier objeto urbano extraído de la nube de puntos puede proyectarse a un SIG (Sistema de Información Geográfica) existente.

>Además, al realizar esas adquisiciones diaria o semanalmente, por ejemplo con LiDAR montados en camiones de basura, los gestores de la ciudad podrían tener una imagen más clara de la evolución de las infraestructuras y los objetos a lo largo del tiempo. En consecuencia, tendrían más información sobre qué situaciones concretas requieren su atención y en qué lugar preciso del mapa. Para poder cumplir estas promesas, tenemos que afrontar el mayor reto técnico de este proyecto, que es poder extraer automáticamente la información de las nubes de puntos, es decir, el reconocimiento de patrones 3D.

Reconocimiento de patrones aplicado a nubes de puntos LiDAR 3D

El reconocimiento de patrones ha entrado en una era de completa renovación con el desarrollo del aprendizaje profundo [1] tanto en la comunidad académica como en el mundo industrial, debido al importante avance que estos algoritmos han logrado en el procesamiento de imágenes 2D durante los últimos cinco años. En la actualidad, la mayoría de las investigaciones sobre el aprendizaje profundo todavía provienen de imágenes 2D con retos como el ILSVRC [2]. Este repentino aumento del rendimiento ha dado lugar a nuevos algoritmos de detección de objetos robustos y en tiempo real, como Faster R-CNN [3]. Sin embargo, generalizarlos a los datos 3D no es una tarea sencilla. Esto es especialmente cierto en el caso de las nubes de puntos 3D, donde la información no está estructurada como en las mallas.

Este proyecto es el objeto de la tesis de Younes Zegaoui, que comenzó en noviembre de 2017 y debería concluir en noviembre de 2020. Su objetivo es desarrollar nuevas técnicas para la clasificación de formas 3D y la localización de objetos urbanos en grandes escenas adquiridas con LiDAR.

Más ...

Scroll al inicio