PhD Defense Yizi CHEN
22 March 2023 14h00 at IGN
BAT A 1er étage pièce 182 François ARAGO 73 Av. de Paris, 94160 Saint-Mandé
Modern vectorization and alignment of historical maps: An application to Paris Atlas (1789-1950)
Résumé:
Les cartes sont une source unique de connaissances depuis des siècles. Ces documents historiques fournissent des informations inestimables pour analyser des transformations spatiales complexes sur des périodes importantes. Cela est particulièrement vrai pour les zones urbaines qui englobent de multiples domaines de recherche imbriqués : humanités, sciences sociales, etc. La complexité des cartes (texte, bruit, artefacts de numérisation, etc.) a entravé la capacité à proposer des approches de vectorisation polyvalentes et efficaces pendant des décennies.
Dans cette thèse, nous proposons une solution apprenable, reproductible et réutilisable pour la transformation automatique de cartes raster en objets vectoriels (îlots, rues, rivières), en nous focalisant sur le problème d’extraction de formes closes. Notre approche s’appuie sur la complémentarité des réseaux de neurones convolutifs qui excellent dans et de la morphologie mathématique, qui présente de solides garanties au regard de l’extraction de formes closes tout en étant très sensible au bruit.
Afin d’améliorer la robustesse au bruit des filtres convolutifs, nous comparons plusieurs fonctions de coût visant spécifiquement à préserver les propriétés topologiques des résultats, et en proposons de nouvelles. À cette fin, nous introduisons également un nouveau type de couche convolutive (CConv) exploitant le contraste des images, pour explorer les possibilités de telles améliorations à l’aide de transformations architecturales des réseaux. Finalement, nous comparons les différentes approches et architectures qui peuvent être utilisées pour implémenter chaque étape de notre chaîne de traitements, et comment combiner ces dernières de la meilleure façon possible.
Grâce à une chaîne de traitement fonctionnelle, nous proposons une nouvelle procédure d’alignement d’images de plans historiques, et commençons à tirer profit de la redondance des données extraites dans des images similaires pour propager des annotations, améliorer la qualité de la vectorisation, et éventuellement détecter des cas d’évolution en vue d’analyse thématique, ou encore l’estimation automatique de la qualité de la vectorisation.
Afin d’évaluer la performance des méthodes mentionnées précédemment, nous avons publié un nouveau jeu de données composé d’images de plans historiques annotées. C’est le premier jeu de données en libre accès dédié à la vectorisation de plans historiques. Nous espérons qu’au travers de nos publications, et de la diffusion ouverte et publique de nos résultats, sources et jeux de données, cette recherche pourra être utile à un large éventail d’applications liées aux cartes historiques.
Mots-clés: Cartes historiques, vision par ordinateur et apprentissage en profondeur
Abstract:
Maps have been a unique source of knowledge for centuries. Such historical documents provide invaluable information for analyzing complex spatial transformations over important time frames. This is particularly true for urban areas that encompass multiple interleaved research domains: humanities, social sciences, etc. The large amount and significant diversity of map sources call for automatic image processing techniques in order to extract the relevant objects as vector features. The complexity of maps (text, noise, digitization artifacts, etc.) has hindered the capacity of proposing versatile and efficient raster-to-vector approaches for decades.
In this thesis, we propose a learnable, reproducible, and reusable solution for the automatic transformation of raster maps into vector objects (building blocks, streets, rivers), focusing on the extraction of closed shapes. Our approach is built upon the complementary strengths of convolutional neural networks which excel at filtering edges while presenting poor topological properties for their outputs, and mathematical morphology, which offers solid guarantees regarding closed shape extraction while being very sensitive to noise.
In order to improve the robustness of deep edge filters to noise, we review several and propose new topology-preserving loss functions which enable to improve of the topological properties of the results. We also introduce a new contrast convolution (CConv) layer to investigate how architectural changes can impact such properties. Finally, we investigate the different approaches which can be used to implement each stage, and how to combine them in the most efficient way.
Thanks to a shape extraction pipeline, we propose a new alignment procedure for historical map images, and start to leverage the redundancies contained in map sheets with similar contents to propagate annotations, improve vectorization quality, and eventually detect evolution patterns for later analysis or to automatically assess vectorization quality.
To evaluate the performance of all methods mentioned above, we released a new dataset of annotated historical map images. It is the first public and open dataset targeting the task of historical map vectorization. We hope that thanks to our publications, public and open releases of datasets, codes, and results, our work will benefit a wide range of historical map-related applications.
Keywords: Historical Maps, Computer Vision and Deep Learning
Composition du Jury:
Reviewer:
- Véronique Eglin, Professor, INSA Lyon, Imagine/LIRIS
- Lorenz Hurni, Professor, ETH Zürich, IKG
Examiner:
- Mathieu Aubry, Senior researcher, ENPC, IMAGINE/LIGM
- Stefan Leyk, Professor, University of Colorado Boulder
- Nicole Vincent, Professor, Université Paris Cité, LIPADE
Supervisor:
- Julien Perret, Senior researcher, LASTIG, Univ Gustave Eiffel, IGN-ENSG
- Joseph Chazalon, Lecturer, EPITA, LRE
- Clément Mallet, Senior researcher, LASTIG, Univ Gustave Eiffel, IGN-ENSG