Alcatraz visualization rendered in Twinmotion 2025.1.
Courtesy of Pete Kelsey, VCTO Labs

Coups de projecteur

16 juin 2025

La numérisation et l'intégration d'Alcatraz dans l'écosystème Epic grâce à Pete Kelsey et RealityScan 2.0

Lorsque VCTO Labs s'est lancé dans la création du modèle 3D de l'île d'Alcatraz le plus détaillé jamais réalisé, il a choisi d'utiliser RealityScan afin de générer une réplique numérique stupéfiante à partir de données LiDAR aériennes, de photos et de tuiles Cesium.

Alcatraz

Architecture

Twinmotion

VCTO Labs

Visualisation

Balayée par les vagues de la baie de San Francisco, l'île d'Alcatraz est l'un des sites historiques les plus célèbres des États-Unis. Elle est surtout connue pour sa prison de haute sécurité qui a accueilli des détenus célèbres tels qu'Al Capone ou Robert Stroud, "l'homme aux canaris d'Alcatraz". Elle a également été utilisée comme fortification militaire et plus tard comme un symbole du mouvement pour les droits civiques des Américains autochtones lors de l'occupation de 1969 à 1971. Elle est de nos jours un site protégé, géré par le National Park Service et qui attire plus d'un million de visiteurs par an.

Mais l'île d'Alcatraz, qui est également surnommée "le Rocher", est bien plus qu'une simple attraction touristique. Elle représente un pan entier de l'histoire des États-Unis. Et tout comme de nombreux sites culturels en proie aux éléments, elle n'est pas insensible au passage du temps. C'est pour cette raison que Pete Kelsey, fondateur de VCTO Labs et militant de longue date de l'archivage numérique, décida de se lancer dans un projet novateur : créer le modèle 3D d'Alcatraz le plus détaillé jamais réalisé. Son objectif était de concevoir une référence numérique destinée à l'étude des impacts de l'élévation du niveau de la mer, de l'érosion et de l'activité sismique sur l'île.
Aerial view of 3D scanned Alcatraz Island
Courtesy of Pete Kelsey, VCTO Labs
Afin de numériser l'extérieur du Rocher, Pete Kelsey s'est servi de plusieurs technologies de télédétection différentes, dont la photogrammétrie haute résolution, l'imagerie multispectrale et les données LiDAR aériennes. En raison du volume considérable de données et de la faible connectivité Internet de l'île, il n'était pas possible d'utiliser le cloud : les données ont dû être traitées directement sur place après chaque numérisation. C'est pourquoi Pete Kelsey et son équipe ont dû s'assurer que toutes les données étaient bien capturées et utilisables avant de quitter Alcatraz.

Bâtir un futur numérique pour Alcatraz grâce à RealityScan 2.0

Une partie des données a été traitée directement dans RealityScan (anciennement connu sous le nom de RealityCapture). "Je voulais utiliser cet outil, car c'est l'un des seuls produits que je connaisse qui puisse intégrer les données LiDAR et photogrammétriques dans un seul et même modèle, raconte Pete Kelsey. Je n'oublierai jamais cette journée de travail à Alcatraz, lorsque RealityScan était en train de traiter nos données de capture. C'était probablement la photogrammétrie."

À l'époque, RealityScan prenait en charge uniquement la photogrammétrie combinée aux données LiDAR terrestres. Pete Kelsey avait contacté notre équipe pour lui demander s'il était possible de fusionner l'imagerie des drones avec des numérisations LiDAR aériennes. Tout le monde chez RealityScan était ravi de pouvoir aider. La prise en charge du LiDAR aérien était déjà en cours de développement et le projet Alcatraz fut alors utilisé pour mettre RealityScan 2.0 à l'épreuve en conditions réelles. Grâce à cette collaboration, RealityScan prend désormais officiellement en charge la combinaison de la photogrammétrie avec les données LiDAR terrestres et aériennes.

Traiter les données avec RealityScan 2.0

Pete Kelsey nous a fourni un réseau d'étude constitué de 62 points de contrôle au sol, 2 805 images capturées par drone et la numérisation aérienne LiDAR. Les données photogrammétriques et les points de contrôle au sol ont ensuite été traités en utilisant un flux de travail standard : toutes les images ont été importées dans un projet RealityScan puis alignées. Après l'alignement initial, nous avons importé les points de contrôle au sol, marqué ces points dans les images, désactivé les métadonnées GPS les moins précises du drone et relancé l'alignement pour optimiser les résultats.
Alcatraz photogrammetry data aligned in RealityScan
Courtesy of Pete Kelsey, VCTO Labs
Nous avons ensuite importé les données LiDAR aériennes à l'aide de l'outil Import LiDAR Scan dans l'onglet Workflow. RealityScan a automatiquement reconnu l'ensemble de données comme du LiDAR aérien. Lors de l'importation, RealityScan a généré des caméras virtuelles pour rendre le balayage laser en des fichiers LSP pouvant être utilisés pour l'alignement et la génération de maillages, tout comme le LiDAR terrestre.

Il existe trois options différentes pour générer des caméras virtuelles :
  • À partir d'une pose de caméra existante
  • À partir d'un composant
  • Générer des poses aériennes
L'option À partir d'une pose de caméra existante réutilise le géoréférencement existant des images afin de créer des caméras virtuelles. Si l'on a un alignement de caméras existant, l'option À partir d'un composant permet d'utiliser les caméras alignées afin de rendre le nuage de points du balayage laser. L'option Générer des poses aériennes génère les caméras dans une grille régulière au-dessus du nuage de points. Cette dernière est particulièrement utile si l'on souhaite traiter uniquement les données aériennes LiDAR et que l'on ne dispose d'aucune donnée de photogrammétrie.
Comme nous avions 2 332 images dans un seul et même composant, les réutiliser aurait été excessif. À la place, nous avons sélectionné l'option Générer des poses aériennes afin de créer une grille régulière de caméras virtuelles au-dessus du nuage de points.
Alcatraz aerial LiDAR data in RealityScan
Courtesy of Pete Kelsey, VCTO Labs
Comme le nuage de points était très dense, les fichiers .lsp ressemblaient à de véritables photographies, ce qui nous a permis de marquer les points de contrôle au sol plus facilement et avec davantage de précision.
Alcatraz generated .lsp file of the aerial LiDAR scan
Courtesy of Pete Kelsey, VCTO Labs
Nous avons marqué plusieurs points de contrôle au sol (PCS) dans le canal Intensité. Ce dernier s'est avéré plus précis que le canal de couleur en raison des changements de couleur typiques du LiDAR aérien.
Marked ground control points on the intensity channel of an .lsp file.
Courtesy of Pete Kelsey, VCTO Labs
Une fois les PCS marqués, nous avons réaligné le projet et obtenu un composant en combinant la photogrammétrie et les données LiDAR aériennes.
Photogrammetry and LiDAR data aligned together in RealityScan.
Courtesy of Pete Kelsey, VCTO Labs
Un duo complémentaire : le LiDAR pour la géométrie, la photogrammétrie pour les textures

Après avoir aligné l'ensemble de données, nous avons utilisé les données LiDAR aériennes pour reconstruire le maillage et la photogrammétrie pour générer des textures haute résolution. Les résultats nous ont impressionné. La reconstruction du maillage basée sur le LiDAR a produit plus de 200 millions de polygones et RealityScan a généré 21 textures en 8K pour un maximum de détails.

Certaines surfaces, comme les structures de toits, les bords et les zones avec peu de texture ont été bien mieux capturées avec le LiDAR qu'avec la photogrammétrie seule. Le flux de travail hybride nous a permis d'exploiter les points forts de ces deux technologies.
 
Alcatraz high-detail photogrammetry reconstruction.
Courtesy of Pete Kelsey, VCTO Labs
Alcatraz aerial LiDAR reconstruction.
Courtesy of Pete Kelsey, VCTO Labs
Pour aider ce projet, AMD a mis à disposition un poste de travail surpuissant équipé d'un processeur Threadripper Pro 7995WX avec 96 cœurs. "J'ai ouvert le gestionnaire des tâches et j'ai vu 96 carrés bleus fonctionnant tous à 100% et à 4,7 GHz. Je n'ai pas honte d'avouer que j'ai poussé un cri d'excitation en voyant ça", raconte Pete Kelsey.

Les indicateurs de performances étaient encore plus impressionnants :
  •     Calcul du maillage à partir du LiDAR aérien : 13 minutes et 48 secondes
  •     Reconstruction des détails normaux par photogrammétrie : 1 heure, 38 minutes et 55 secondes
  •     Reconstruction des détails élevés par photogrammétrie : 7 heures, 6 minutes et 22 secondes

De la numérisation à la scène : la visualisation d'Alcatraz avec l'Unreal Engine et Twinmotion

Puisqu'Epic Games développe des outils de rendu puissant tels que l'Unreal Engine et Twinmotion, il était alors logique de visualiser la numérisation d'Alcatraz. Le résultat était à couper le souffle.

Située au milieu de la baie de San Francisco, l'île d'Alcatraz était le sujet idéal. Après avoir importé le maillage haute résolution dans Twinmotion, nous nous sommes rendus dans les options d'ambiance pour ajouter un plan d'océan et des nuages volumétriques. Nous avons également utilisé les ressources intégrées pour enrichir l'environnement. En quelques minutes, nous avons obtenu une vue aérienne photoréaliste de l'île en temps réel. 
 
Alcatraz visualization rendered in Twinmotion 2025.1.
Courtesy of Pete Kelsey, VCTO Labs
Alcatraz visualization rendered in Twinmotion 2025.1.
Courtesy of Pete Kelsey, VCTO Labs
La configuration avec l'Unreal Engine a également été très simple. Nous avons activé le plug-in Water pour ajouter l'océan qui borde l'île et installé le plug-in Cesium for Unreal pour intégrer des données géospatiales du monde réel. Avec Cesium, nous avons ajouté les zones environnantes, y compris des sites emblématiques tels que le pont du Golden Gate grâce à des tuiles 3D photoréalistes de Google. 
Alcatraz scan in Unreal Engine 5.6.
Courtesy of Pete Kelsey, VCTO Labs
Mêler le passé au futur

L'île d'Alcatraz a été témoin de certaines des périodes les plus agitées des États-Unis. Mais aujourd'hui, grâce à Pete Kelsey, son équipe et celle de RealityScan, ce monument est également une preuve qu'il est possible de faire de grandes choses lorsque les technologies de pointe sont utilisées pour la préservation culturelle.

Le projet Alcatraz montre comment le LiDAR et la photogrammétrie peuvent se compléter et comment les créateurs peuvent numériser, préserver et partager l'histoire de façon inédite en associant le pipeline RealityScan 2.0 à l'écosystème de l'Unreal Engine.

Nous sommes désormais tournés vers l'avenir et notre mission est claire : devenir la pierre angulaire de la création de contenu 3D et un outil indispensable pour les créateurs qui souhaitent intégrer le monde réel dans le métavers photoréaliste, en leur offrant le logiciel de numérisation le plus avancé, le plus intuitif et le plus fiable du marché.

Car numériser notre monde, c'est aussi le préserver. Le comprendre. Et surtout le partager.
 

Télécharger RealityScan

L'utilisation de RealityScan est gratuite pour les étudiants, les enseignants, les particuliers et les entreprises dont le revenu annuel brut est inférieur à 1 million de dollars (USD).

Vous dépassez le seuil de 1 million de dollars ? Consultez la page dédiée aux licences pour connaître vos options d'achat.

Téléchargez le lanceur

Avant d'installer et d'exécuter RealityScan, vous devez télécharger et installer le lanceur Epic Games. 

Installez le lanceur Epic Games

Une fois le lanceur téléchargé et installé, ouvrez-le et créez un compte ou connectez-vous à votre compte Epic Games.

Vous rencontrez des problèmes ? Obtenez de l'aide ou relancez le téléchargement du lanceur Epic Games comme décrit dans l'étape 1.

Installez RealityScan

Connectez-vous, puis accédez à l'onglet RealityScan et cliquez sur le bouton Installer pour télécharger la version la plus récente.

Vous souhaitez installer RealityScan Mobile ?

Prenez votre téléphone et commencez à numériser dès maintenant.

En savoir plus