Full text: XVIIth ISPRS Congress (Part B3)

  
ESTIMATION DE L'INCERTAIN DANS LA CLASSIFICATION 
MULTISOURCE UTILISANT LA REGLE DE DEMPSTER 
ZAHZAH E-H, DESACHY J, ZEHANA M. 
Université Paul SABATIER , Institut de recherche en informatique de 
Toulouse, 118 route de Narbonne Toulouse 31062 France. 
Tel (+33)(61-55-65-99) 
Introduction 
Un des plus grand problème auquel sont confrontés 
aujourd'hui les décideurs, est la gestion 
d'informations provenant de diverses sources 
inégalement importantes, fiables, imprécises, 
incertaines, etc... 
Parmi les problémes de gestion posés , celui de la 
combinaison d'informations est le plus crucial . 
Par combinaison , on entend que selon le probléme 
posé, un système doit pouvoir extraire une ou 
plusieurs informations, concernant une entité 
pouvant étre suivant le niveau oü l'on se place, une 
proposition, un événement, objet, etc..., «es 
informations, peuvent provenir de plusieurs 
sources, toutes ayant un avis à donner sur l'entité 
en question. Ces avis sont exprimés soit sous forme 
d'information directement mesurable (numérique) 
soit sous forme symbolique, en termes de 
présence/absence, vrai/faux etc... 
Une application concernant notre probléme 
particulier est celle de la représentation et la gestion 
d'un système d'informations géographiques, ce 
dernier contient pour une région donnée, une 
quantité spatiale d'information (images satellites 
multi-spectrales et multi-temporelles, cartes 
topographiques, géographiques, géologiques, 
météorologiques etc...). 
Mise à part le probléme de fiabilité, on remarquera 
que ce type d'information est trés hétérogene du 
point de vue mesure d'information, les réponses 
des sources "satellites" sont physiques, et donc 
facilement mesurables, par contre les sources 
"géographiques" peuvent contenir des informations 
trés complexes, relevant de la géographie humaine, 
économique, politique, allant jusqu'aux habitudes 
culturelles, la quantification de ces informations est 
plus complexe. 
La quantité et la disparité d'information qu'on peut 
avoir à manipuler pour résoudre un problème 
donné est respectivement importante et complexe. 
Il nous arrive souvent de faire une relation entre 
deux événements par de simples observations, mais 
que cette relation soit difficilement quantifiable. Par 
exemple: 
La relation existant entre la réponse spectrale d'un 
objet, et son contexte topographique: ; 
On sait que la réponse d'un objet terrestre, captée par 
un satellite, dépend de son contexte topographique, 
et que la réponse intrinsèque de l'objet constitue la 
partie la plus importante de la réponse donnée par 
le capteur du satellite, le contexte topographique, 
influe mais à un degré moindre que l'objet lui 
même, nous définissons donc ici, un ordre 
d'importance pour les sources. . 
Le probleme que l'on se pose, est la caractérisation 
d'un objet en ayant à la fois des informations 
exprimées en unités différentes provenant de 
914 
Fax (+33)(61-55-62-58) 
sources différentes, et une relation d'importance et 
de fiabilité de ces sources les unes par rapport aux 
autres. 
Le problème présente une difficulté supplémentaire, 
quand ces informations sont données sous forme 
symbolique. 
Les méthodes statistiques actuelles, ont montré leurs 
limites concernant la combinaison d'informations 
multisources , les principaux inconvénients sont: 
1- impossibilité de manipuler des informations non- 
numériques , ce qui est génant pour des problèmes 
utilisant des données symboliques, 
2- Pour la plupart des méthodes, les données 
manipulées , méme si elles sont numériques, 
doivent présenter une fonction de distribution 
identique, pour toutes les sources, ce qui n'est pas 
vrai dans tout ce qu'on rencontre dans la réalité, 
3- les notions d'importance et de fiabilité, des 
sources les unes par rapport aux autres, méme si on 
sait les quantifier, ne sont pas bien intégrées dans les 
méthodes existantes, permettant de les utiliser à bon 
escient . 
De nouvelle théories ont fait leur apparition, se 
proposant de dépasser les handicaps posés par les 
méthodes statistiques, la théorie des fonctions de 
crédibilité proposée par G.Shafer en 1976, est 
destinée à ce type de traitement. 
Les détails sur le développement de cette théorie 
sont donnés dans  [Dubois88(1)] [Dubois88(2)] 
[Smets88] [Guan91]. 
Théorie des croyances, Application à la classification 
d'images multisource en télédétection. 
La théorie mathématique des croyances appelée 
aussi théorie de l'évidence est un domaine dans 
lequel, les informations provenant de sources 
disparates, peuvent être combinées, pour produire 
un résultat d'inférence, pouvant aider à la prise de 
décision avec un certain degré de certitude, pour un 
problème quelconque du monde réel, où l'on est 
constamment confronté au problème d'utilisation 
de plusieurs sources d'information, provenant soit 
de jugements humains, des statistiques 
etc...[Sandri91] 
La théorie de l'évidence permet de fusionner 
l'information en tenant compte des relations qui 
existent entre les sources, leur importance et 
fiabilité, et cela quelque soit l'unité dans laquelle est 
exprimée l'information constituant la source 
(numérique ou symbolique). J 
Ceci est d'un trés grand intérét pour les systemes 
d'informations géographiques en général, et pour 
l'interprétation des images satellites en particulier 
car ces systémes contiennent une quantité spatiale 
d'informations, stockée dans une base de donnée, 
qui necessite une mise à jour réguliere. 
Cette mise à jour consiste en la fusion 
« o i amh Dad PN OPN A mL pu PAL
	        
Waiting...

Note to user

Dear user,

In response to current developments in the web technology used by the Goobi viewer, the software no longer supports your browser.

Please use one of the following browsers to display this page correctly.

Thank you.