tes d’eva-
particulier
rtures qui
clairer ce
'ancement
èmes de
triels, aux
tilisateurs
; pas faire
> solution
litons au
ou carto-
e champ
lion reste
mples qui
a un bref
; dans le
première
base de
à propre-
| d'objets,
ces outils,
a question
ments de
à l’auto-
ur images
quelques
ition tridi-
routier.
a forme de
ns de la
herche et
LOGIE
la restitu-
cts : d'une
ce à base
ement de
et d'autre
e sépara-
ue. Méme
pplications
liées aussi
tót que les méthodes de mise en correspondance,
leur application au domaine de la photogrammétrie
est plus récente — et les recherches sur ces
thèmes ont même connu un nouvel essor dans ces
dernières années, notamment sous l’impulsion de
programmes de recherche militaires (programmes
de l'ARPA aux Etats-Unis, par exemple), en parti-
culier pour ce qui concerne la restitution des bâti-
ments.
La distinction entre ces deux familles de problèmes
a toutefois également un sens plus fondamental. Les
techniques de mise en correspondance sont des
techniques que l’on peut qualifier de bas niveau au
sens oü elles ne supposent pas d'interprétation de
la scène. A l’inverse, l’extraction d'objets
nécessite (au minimum dans la phase finale de
filtrage des erreurs) une interprétation, c'est à
dire, dans un sens purement informatique, l'asso-
ciation du contenu des images à un modèle de
l’objet cherché.
Il est difficile de faire brièvement un panorama
complet de l’activité de la communauté scientifique
sur ces deux classes de problèmes. Pour ce qui
concerne les techniques de mise en correspon-
dance, on pourra se reporter à (Heipke, 1996). Les
recherches sur l'extraction d'objets peuvent,
quant à elles, étre rapidement esquissées en
fonction de la souplesse des modéles employés.
De façon schématique, les méthodes les plus
contraintes utilisent des modélisations paramé-
triques : la forme de l’objet cherché est connue
avec un nombre limité de degrés de liberté, et le
problème se réduit à la recherche d’un jeu de
paramètres optimaux pour l'ajustement entre
images et modèle. Cette technique reste bien
entendu limitée à un ensemble de formes prédéfi-
nies (e.g. Weidner et Fôrstner, 1995) à moins
d’introduire de l'information externe pour
permettre un choix automatique dans un ensemble
important de modèles. Quint (1995) utilise par
exemple des techniques d'ajustement pour
l'extraction tridimensionnelle de bâtiments dont le
contour 2D a été vectorisé sur un plan à grande
échelle. Une modélisation plus souple consiste à
définir les objets à l’aide de cônes généralisés
(McGlone, 1995), ou comme des assemblages de
modèles paramétriques. Le problème de la
recherche, dans l’image, de la décomposition
appropriée n'est toutefois pas résolu (Braun et al.,
1995). Les modèles les plus souples sont ce que
l’on peut appeler des modèles génériques. Les
objets sont alors définis par des primitives
(segments, points caractéristiques...) et un
ensemble de possibilités d’assemblage. Les
International Archives of Photogrammetry and Remote Sensing. Vol. XXXI, Part B3. Vienna 1996
techniques de groupements perceptuels sont un
exemple d'exploitation de ce type de modèle (e.g.
Lin et al, 1995).
Cet axe d’analyse peut bien entendu être complété
par d’autres. Les objets peuvent être caractérisés
dans l’espace 3D ou uniquement par leurs projec-
tions dans les images ; les modèles utilisés peuvent
être fondés uniquement sur la radiométrie et la
géométrique des objets cherchés (à base de
groupements et de mise en correspondance pour
des bâtiments : Dissard et Jamet, 1995; ou à base
de recherche de chemin optimal pour des éléments
linéaires : Grün et al., 1995), ou intégrer des
relations avec leur environnement (e.g. utilisation
des ombres Bejanin et al., 1994) ; l'implantation
du modèle peut être faite sous forme de règles
(McKeown et al., 1985), d'agents, d'arbre de
déclenchement (Lin et al., 1995) ; l'application
peut intégrer l'intervention d'un opérateur ou
rester entièrement automatique ; etc...
On trouvera dans (Braun et al., 1995) une proposi-
tion de processus de restitution du báti intégrant
plusieurs niveaux de modéles, ainsi qu'une discus-
sion sur les problémes liés au contróle des proces-
sus d'interprétation automatique complexes.
Cette bibliographie sommaire montre la diversité
des travaux de recherche en cours et fait
comprendre que la clef de l'efficacité des méthodes
proposées ne repose que pour trés peu dans le
choix des détecteurs de bas niveau. Pour ne
prendre que l'exemple de la reconnaissance des
bátiments, la plupart des travaux s'appuient sur
les mémes opérateurs de gradient. Le probléme
abordé par les chercheurs aujourd'hui concerne la
limitation des erreurs de détection, que les diffé-
rents modéles employés tentent d'éliminer en
imposant des contraintes rendant improbable un
échec non diagnostiqué.
2.2. Des succès (relatifs)...
Les vidéorestituteurs du marché offrent
aujourd'hui presque tous des fonctions automa-
tiques ou semi-automatiques d'aide à la saisie, les
plus élémentaires étant l’aide au pointé des repères
de fond de chambre pour l’orientation interne, et
les plus sophistiquées étant l’aérotriangulation
automatique (logiciel HATS d'HELAVA, ou PHODIS
AT de ZEISS; fonctionnalité sous peu disponible sur
la plate-forme SAPHIR Geo de SYSECA), ou la
production de modèles numériques de terrain
(présente en option sur la majorité des systèmes :
logiciels ATE pour HELAVA, MATCH-T pour
INTERGRAPH, TopoSurf pour ZEISS).
367