Full text: XVIIIth Congress (Part B3)

   
     
   
    
    
    
    
      
      
   
    
   
   
    
    
   
    
    
    
Überträgt man das MDL-Prinzip auf MRF gelangt man 
zwangsweise zu „dynamischen“ MRF, d.h. Zufallsfelder, die in 
ihrer Struktur — also sowohl in der Anzahl als auch in der 
Anordnung ihrer Elemente (Knoten und Kanten bzw. 
entsprechend Zufallsvariablen und bedingten Dichten) — 
variabel sind. Sie stellen somit praktisch eine Ergänzung und 
Erweiterung der bekannten MRF dar. Während man bisher bei 
  
  
Vegetation 
  
  
  
  
| Waa | Feld | lObjektgruppe || Einzelobjekt | 
Laubwald | -| Wiese | Hecke | H Baum | 
Nadelwald| -| Weide ] |-| Gebüsch ] 
Mischwald | 4^ Acker | Gehôlz | 
  
  
  
   
Nadelbaum 
    
  
Laubbusch 
Nadelbusch 
     
   
  
  
  
  
  
  
  
  
  
Abbildung 4: Objekthierarchie Vegation (Ausschnitt) 
der Suche nach dem Energieminimum der MRF nur die 
Zuweisungen der Variablenwerte ündern konnte, ist es mit 
dynamischen MRF zusätzlich möglich, einzelne Knoten oder 
Kanten hinzuzufügen oder wegzulassen. Dadurch lassen sich 
Bildsegmentierung und Objekterkennung gleichzeitig mit nur 
einem Zufallsfeld bearbeiten. 
Die vorhandenen Verfahren und Algorithmen zur 
Energieminimierung des MRF (z.B. Simulated Annealing) 
können auch für dynamische MRF verwendet werden. Es ist 
lediglich zu beachten, daß mit jeder Iteration die Anzahl von 
Knoten und Kanten variieren kann. 
Es ist offensichtlich, daß bei einer fehlerhaften 
Bildsegmentierung das Ergebnis einer Objekterkennung 
wahrscheinlich — fehlerbehaftet sein wird, wenn keine 
Möglichkeit besteht, aufgrund von Erkenntnissen des 
Objekterkennungsvorgangens die Segmentierung zu 
korrigieren. Arbeitet man mit starren MRF, liegt dann die 
Vermutung nahe, daß etliche Probleme, welche sich bei der 
Anwendung von MRF ergeben (langwierige Iterationen, 
Erreichen von Nebenminima) letzlich darauf zurückzuführen 
sind, daß das MRF selbst in seiner Struktur fehlerhaft ist. Ob 
sich diese Probleme mit dynamischen MRF lösen lassen, ist 
nicht sicher — es ist jedoch wahrscheinlich und sollte deshalb 
unbedingt geprüft werden. 
5. OBJEKTMODELL VEGETATION 
Das  Objektmodell Vegetation besteht aus geometrischen, 
physikalischen, strukturellen und semantischen Elementen. 
Man wird ein Objektmodell nie völlig losgelöst von der 
Methode betrachten, mit welcher man das Modell zu bearbeiten 
gedenkt. Man könnte deshalb die Abbildung des Modells auf 
die verwendete Theorie auch als Bestandteil des Objektmodells 
auffassen. 
Das Objektmodell Vegetation besteht im wesentlichen aus den 
Eigenschaften der Objekte und den Relationen zwischen den 
Objekten. 
Bei der Verarbeitung von Bildern ist zu bedenken, daß man 
nicht mit den Objekten selbst, sondern lediglich mit 
Abbildungen dieser Objekte — den Bilddaten — arbeitet. Ebenso 
wie die Objekte sind auch die Objekteigenschaften dieser 
Abbildung unterworfen, d.h. strenggenommen betrachtet man 
keine Objekteigenschaften, sondern nur die Abbildung der 
Objekteigenschaften in den Bildern. Durch die weitgehende 
Formulierung aller Aufgaben im Objektraum, wollen wir 
versuchen, eine direkte Lösung zu finden. Wir glauben, daß 
sich dadurch viele Bedingungen, wie beispielsweise die 
Formulierung von Sichtbarkeiten erheblich vereinfachen lassen, 
teilweise sogar erst möglich werden. 
5.1. Objekthierarchie 
Ein erster Schritt zum Aufbau eines Objektmodells zur 
Vegetation ist die Erstellung einer Objekthierarchie, welche 
ausschnittsweise in Abbildung 4 dargestellt ist. 
Eine solche Objekthierarchie eignet sich recht gut als 
Grundlage für die Umsetzung in C++ Klassenstrukturen. In der 
Realität trifft man oftmals auf Objekte, welche mehrere 
Eigenschaften anderer Objekte in sich vereinen, beispielsweise 
sei hier nur eine Streuobstwiese genannt. 
5.2. Objektmerkmale, Erkennungsfaktoren 
Für die Erkennung eines Objektes aus Bildern durch einen 
Interpreten lassen sich bestimmte, relevante Kriterien 
heranziehen. Diese werden allgemein als Erkennungs- oder 
auch Interpretationsfaktoren bezeichnet [Albertz, 1991]. Man 
kann sie grob in 3 Gruppen unterteilen: 
1. Radiometrische Erkennungsfaktoren 
e  Objekthelligkeit 
e Farbton 
e Farbsáttigung 
e Textur 
2. Geometrische Erkennungsfaktoren 
e  Objektform 
e  Objektgrófe 
e  Objekthóhe 
e relative Lage von Objekten 
3. Radiometrisch/Geometrische Erkennungsfaktoren 
e  Oberflächentextur 
e  Schlagschatten 
Am einfachsten zu modellieren sind sicherlich die 
radiometrischen Erkennungsfaktoren. Sie lassen sich gut durch 
numerische Werte darstellen und können relativ leicht aus 
Bildmaterial unterschiedlichster Art extrahiert werden. 
Ein Problem stellt dabei immer die Tatsache dar, daß sich alle 
Erkennungsfaktoren auf „Objekte“ beziehen, d.h. auf 
semantische Einheiten. Diese Einheiten jedoch sollen ja gerade 
das Ergebnis der Objekterkennung sein, stehen also zu Beginn 
der Objekterkennung überhaupt nicht zur Verfügung. Man 
versucht dies i.a. dadurch zu umgehen, daß die Bilder mit Hilfe 
von Segementierungsalgorithmen in Gebiete mit homogenen 
Eigenschaften unterteilt werden. 
Anhand der Erkennungsfaktoren sieht man deutlich, daß die 
dritte Dimension einen wesentlichen - Beitrag zur 
Objekterkennung liefert. Deshalb soll die Merkmalsextraktion 
auch auf den Ergebnissen der Objektrekonstruktion (DOM, 
Orthophoto) erfolgen und nicht, wie bisher üblich, direkt auf 
den Bilddaten. 
968 
International Archives of Photogrammetry and Remote Sensing. Vol. XXXI, Part B3. Vienna 1996 
   
< ba > tr) e 6 6 TD a MTZ Un 
Un 
€. % () bj rj c? "m Fr E e c — 6 "O0 rd D 9 A 
"Nan QU AN AN 
  
	        
Waiting...

Note to user

Dear user,

In response to current developments in the web technology used by the Goobi viewer, the software no longer supports your browser.

Please use one of the following browsers to display this page correctly.

Thank you.