Deep Mapping
Presented by:
Dr. Mike (Michael) Sawada
Full Professor, Department of Geography, Environment, and Geomatics,
University of Ottawa
Director of the Laboratory for Applied Geomatics and GIS Science (LAGGISS)
and Ottawa Neighbourhood Study (ONS)
Advancements in deep learning make news daily with references to self-driving cars, check-out free retailing and apocalyptic visions of the ‘rise of the machines’. From a remote sensing perspective, there exists a vast underutilized source of imagery at the street level, collected by Google Inc. over the past decade in North America. Street-level imagery provides a ground-level perspective with sufficient temporal resolution for studying urban structural changes. Convolutional neural networks can take these images as input and are capable
of learning high-level feature representations. We have been using deep convolutional neural network models to automate the mapping of various features of the built environment that are difficult to discern from air/spaceborne nadir images. The presentation will focus on our use of deep learning to mine Google Street View imagery for purposes of automated structural classification and qualitative structural changes in the built environment in Ottawa. The construction and application of our models will be discussed.
---------------------------------------------------------------------------------------------------------------------------------------
Les progrès dans l’apprentissage profond sont, tous les jours, dans les nouvelles avec des références allant des voitures autonomes, au passage à la caisse libre-service et aux visions apocalyptiques du « soulèvement des machines ». Du point de vue de la télédétection, il existe une vaste source d'imagerie sous-utilisée au niveau de la rue, collectée par Google Inc., au cours de la dernière décennie en Amérique du Nord. L'imagerie au niveau de la rue fournit une perspective du terrain avec une résolution temporelle suffisante pour étudier les changements structurels urbains. Les réseaux de neurones convolutifs peuvent prendre ces images en entrée et
sont capables d'apprendre des représentations de fonctionnalités de haut niveau. Nous avons utilisé des modèles de réseau neuronal convolutifs profonds pour automatiser la cartographie de diverses caractéristiques de l'environnement bâti qui sont difficiles à discerner à partir d'images verticales Aero ou Spatio-portées. La présentation d’aujourd’hui mettra l'accent sur l’utilisation de l'apprentissage profond pour extraire les images de Google Street View à des fins de classification structurelle automatisée et de changements structurels qualitatifs dans l'environnement bâti à Ottawa. Nous discuterons de la construction et de l'application de nos modèles.