Kapitel 1. Photogrammetrie

Inhaltsverzeichnis

Klassifizierung der Photogrammetrie
Aufnahmeort und -entfernung
Anzahl der auszuwertenden Bilder

Ein wichtiger Bestandteil der Computergrafik war schon immer die möglichst realitätsgetreue Modellierung von 3D-Objekten. Trotz andauernd fortschreitender Technik stellt es eine zeitaufwändige Aufgabe für den Benutzer dar, virtuelle Modelle aus geometrischen Daten zu erstellen. Insbesondere für kompliziertere Modelle wie Menschen und Autos kann der hohe Zeitaufwand oft nicht rentabel sein. [Dedieu 2001]

Ein aktueller Trend im Bereich der Modellierung ist es, 3D-Modelle aus Fotografien realer Objekte zu rekonstruieren. Der Ansatz wird als „Bildbasierte Modellierung“ bezeichnet. Diese Technik hat einiges an Bewegung im Bereich der 3D-Modellierung bewirkt. Die Möglichkeit für Künstler, Objekte und Szenen mit Hilfe einfacher Fotografien zu erfassen, hat die Technik zudem attraktiv gemacht. Bildbasierte Techniken umfassen eine Reihe von Themen, wie Inverse Lighting (Vgl. [Marschner 1997]), Light Field Rendering (Vgl. [Levoy 1996]) oder Layered Depth Images (Vgl. [Shade 1998]). Im vorliegenden Text soll speziell auf die Erstellung von 3D-Modellen mit Hilfe normaler Alltagsfotografie eingegangen werden.

Die Basis der bildbasierten Modellierung bildet die Photogrammetrie. Photogrammetrie bedeutet übersetzt Bildmessung. Sie ist eine Sammlung von Methoden, um aussagekräftige Informationen wie räumliche Lage oder dreidimensionale Form von Objekten aus Bildern oder anderen Messdaten, wie Laser- oder Radar-Daten zu erhalten. Darum wird die Photogrammetrie auch als passives Fernerkundungs- und Vermessungsverfahren bezeichnet, da sie die berührungslose Rekonstruktion von räumlichen Koordinaten aus reflektierter oder emitierter Strahlung ermöglicht. [Wiki Photogrammetrie][Burtch 2004]

Die Photogrammetrie lässt sich in vielfältiger Weise begrifflich einteilen. Der Übergang zwischen den Kategorien ist fließend. Liegt der Einsatzschwerpunkt in Industrieanwendungen, wo es um Objektgrößen zwischen 1m und 0,1mm geht, bewegt man sich zwangsweise in der Nahbereichsphotogrammetrie. Wohingegen für Architekturanwendungen sowohl Nahbereichs- als auch Luftbildphotogrammetrie in Frage kommen. Je nach Einsatzgebiet wird die Photogrammetrie nach folgenden Kriterien klassifiziert:

Die gebräuchlichsten Kategorien sind dabei die ersten beiden.

Bei der Luftbildphotogrammetrie werden die Bilder aus Flugzeugen oder Satelliten aufgenommen. Dabei entstehen regelmäßig angeordnete Bildstreifen, die sich teilweise überlagern. Die Idee dahinter ist die Erstellung zusammenhängender Landschaftsaufnahmen. Werden die Bildstreifen mit deutlichen Überlagerungen aufgenommen kann man daraus 3D-Koordinaten gesuchter Geländepunkte berechnen. Damit wird die Luftbildphotogrammetrie verwendet um topografische Karten und Orthofotos zu erstellen. Ferner können digitale Geländemodelle aus den Daten abgeleitet werden.

Die Nahbereichsphotogrammetrie unterliegt im Gegensatz zur Luftbildphotogrammetrie nicht der eingeschränkten Aufnahmeanordnung. Sie befasst sich mit Objekten der Größenordnung von wenigen Zentimetern bis zu etwa 100 Metern. Das Objekt kann aus beliebigen Richtungen und beliebig nah aufgenommen werden. In der Regel benutzt man dafür heutzutage eine Digitalkamera. Wichtige Einsatzgebiete sind die industrielle Messtechnik, die Medizin und die Biomechanik. In der Unfallaufnahme wird sie zur Vermessung und Dokumentation der Unfallstelle verwendet. In der Architektur und Archäologie für die Bauaufnahme und Denkmalpflege. In jüngster Zeit haben auch Kinematografie und die Werbebranche Techniken aus der Photogrammetrie übernommen. Hierzu zählen beispielsweise Bullet Time-Effekte für Filme wie Matrix (Vgl. Abbildung 1.1[1]). Der Effekt wurde dabei mit einer kreisförmigen Anordnung von 122 Spiegelreflexkameras aufgezeichnet. [Wiki Photogrammetrie][Luhmann 2000]

Bei der Einbildphotogrammetrie greift man auf die Konzepte der Zentralperspektive zurück. Eine Rekonstruktion eines Objekts aus nur einer Aufnahme ist möglich, wenn das Objekt flach ist. Also beispielsweise eine Hausfassade oder ein ebenes Gelände. Auf Grund der Zentralperspektive werden oberhalb der Bezugsebene liegende Punkte radial vom Mittelpunkt nach außen versetzt. Mit dieser Kenntnis lässt sich beispielsweise die Höhe eines Objekts bestimmen. (Vgl. Abbildung 1.2)

Für eine genaue Kartierung müssen auch interne Verzerrungen korrigiert werden. Eine Möglichkeit ist die einfache perspektivische Entzerrung, bei der man annimmt, dass der Bildmaßstab überall gleich sein muss. Bei Abweichungen resultiert eine Verzerrung des Maßstabes. Die geometrischen Verzerrungen werden durch Vergleiche mit Passpunkten im Bild ermittelt. Da dieses Verfahren nur für ebene Objekte gültig ist, verwendet man bei größeren Höhenunterschieden im Gelände die Differentialentzerrung. (Vgl. Abbildung 1.3)

Betrachtet man einen Gegenstand mit beiden Augen, bildet das Gehirn aus den beiden Bildern einen räumlichen Eindruck. Jedes Auge nimmt dafür beim Betrachten einen minimal anderen Winkel ein. Dieses Prinzip des stereoskopischen Sehens wird in der sogenannten Stereophotogrammetrie angewandt. Das Objekt wird aus zwei verschiedenen Standpunkten aufgenommen und kann daraus räumlich rekonstruiert werden.

Die nächste Stufe ist die Mehrbildphotogrammetrie. Mit ihrer Hilfe lassen sich aus Bildern genaue geometrische Größen und 3D-Modelle ableiten. Das Objekt wird dabei aus verschiedenen Perspektiven aufgenommen. Bestimmt man eine Referenzstrecke, lassen sich auch Messungen am 3D-Modell vornehmen. Mit Hilfe korrespondierender Markerpunkte in den einzelnen Bildern werden durch Ausgleichsrechnung die Fotostandpunkte und die Koordinaten der Punkte berechnet. Zunächst wird jedes Bild für sich kalibriert. Dies geschieht durch Festlegung von sieben Freiheitsgraden. Drei für die Translation, drei für die Rotation und einen für den Maßstab. In einem weiteren Schritt wird mit etwa sieben Markerpunkten die relative Position zweier Bilder zueinander bestimmt. Weitere Bilder können nun hinzugefügt werden. Punkte die bisher nicht sichtbar waren werden in die Berechnung mit aufgenommen. Um Fehler (etwa durch schlecht gesetzte Punkte) zu beseitigen, ist es sinnvoll, mehr Punkte als nötig zu setzen und Abweichungen darin zu minimieren. Auch die Festlegung rechter Winkel oder vordefinierter geometrischer Formen können zur Verbesserung verwendet werden. Bei einer ausreichenden Anzahl von Bildern erhält man schließlich ein vollständiges 3D-Modell. [Pomaska 2004]