• Projektinhalt
  • Game Engines
  • Glossar
  • Tutorial
  • Download
  • Links

Glossar

Alpha Channel
Der Wert eines Objekts in seinem Alpha Channel bestimmt seine Durchsichtigkeit.
Hat ein Pixel den Wert 0%, so ist es vollkommen transparent, mit einem Wert von 100% ist es undurchsichtig. Bei einem Wert kleiner 100% und größer 0% können im Hintergrund liegende Pixel "durchscheinen". Der Alphawert ist der letzte Wert im RGBA Farbmodell.

Backface Culling
Diese Technik dient der Reduzierung von nicht sichtbaren Polygonen in einer Szene zur Steigerung der Leistung.
Dazu werden nur die Vorderseiten von Objekten dargestellt, nicht aber die ohnehin verdeckten Rückseiten. (Vorderseite = die dem Betrachter zugewandte Seite) Zur Feststellung der Sichbarkeit werden die Normalen der Oberflächenpolygone mit dem Blickrichtungsvektor verglichen.

Clipping Plane
Die Clipping Plane ist die Ebene, welche den sichtbaren Bereich vom nichtsichtbaren Bereich abgrenzt.
Dabei unterscheidet man zwischen Far Clipping Plane und Near Clipping Plane.
Erstere begrenzt den Sichtbereich in der Ferne, d.h., dass alle Objekte, die sich hinter dieser Ebene befinden, nicht mehr gesehen werden können.
Die Near Clipping Plane begrenzt dagegen den Sichtbereich in der Nähe. Alle Objekte, die vor dieser Ebene liegen, können nicht gesehen werden, weil sie sich entweder zu nah am Betrachter oder hinter ihm befinden.

Collision detection deutsch: Kollisionserkennung
Kollisionserkennung oder -abfrage bezeichnet allgemein Algorithmen, die Schnittpunkte von soliden Objekten erkennen.
So wird ermöglicht, dass physikalisch korrektes Verhalten von Objekten bei Kollision oder Berührung simuliert werden kann. Diese Simulation wird auch Collision Response genannt.

Depth Buffer auch: Z-Buffer
Damit Flächen und Linien nicht gezeichnet werden, wenn sie durch ein anderes Objekt verdeckt werden, braucht man ein Verfahren zur Verdeckungsberechnung. Hierfür wird der Depth Buffer gebraucht.
In ihm ist für jedes Pixel der zugehörige Z-Wert gespeichert. Soll nun ein neues Objekt gezeichnet werden, so wird für jedes Pixel dieses Objekts der Z-Wert ermittelt. Umso größer dieser ist, desto weiter entfernt vom Betrachter ist das Pixel. Nur wenn er kleiner ist als der vorhandene Wert wird der Farbwert des Pixels neu berechnet und in den Framebuffer eingetragen.

Flat Shading
Das Beleutungsmodell wird auf auf eine Ecke (Vertex) jedes Polygons angewendet und anschließend das gesamte Polygon mit der berechneten Farbe / Intensität dargestellt.

Framebuffer
Dieser Puffer enthält die Informationen zur Darstellung des gesamten Bildschirminhalts. Er besteht aus den Farbwerten und ggf. dem Alphawert für jedes der Pixel. Sein Speicherbedarf ist unterschiedlich groß, jenachdem welche Auflösung und welche Farbtiefe ausgegeben werden soll.

GeoMipMap
GeoMipMap ist eine Methode zur Reduzierung des LOD von 3D-Objekten.
Für diese Methode werden verschiedene Detailstufen eines Meshes geladen. Wird eine andere Detailstufe gebraucht, wird das momentan dargestellte Mesh durch das der passenden Detailstufe ausgetauscht.

Gouraud Shading auch: Smooth Shading
Das Beleuchtungsmodell wird auf jede Ecke der Polygone angewendet, dazwischen erfolgt für alle Pixel innerhalb eines Polygons eine lineare Interpolation.

Heightmap auch: Heightfield
Eine Heightmap ist ein Graustufenbitmap, dass Informationen über ein Gelände enthält. Die Höhe einer Stelle im Gelände wird dabei mit der Helligkeit der Pixel in der Heightmap kodiert: je heller ein Punkt in der Heightmap, desto höher das Gelände an zugehöriger Stelle.

Level of Detail (LOD) deutsch: Detailstufen
Level of Detail bezeichnet die verschiedenen Detailstufen bei der Darstellung von Objekten. Um die Leistung zu steigern, werden Objekte mit weniger Details dargestellt, wenn diese ohnehin kaum noch zu erkennen sind, z.B. weil das Objekt zu weit weg ist, sich zu schnell vorbeibewegt oder Ähnliches.
Level of Detail kann sowohl auf die Beschaffenheit der 3D-Objekte (Anzahl ihrer Polygone) als auch auf die Auflösung von Texturen bezogen werden.

Light sources deutsch: Lichtquellen
In der Computergrafik kommen verschiedene Lichtquellen zum Einsatz:

  1. Ambient Light: alle Objekte der Szene werden gleichmäßig erhellt; es gibt keine Schattierungen.
  2. Directional Light: alle Objekte werden aus der selben Richtung beleuchtet. Die Lichtquelle ist endlos weit entfernt und unendlich groß; die Objekte werden also gleich beleuchtet ungeachtet ihrer Position.
  3. Point Light: das Licht strahlt von einem angegebenen Punkt aus gleichmäßig in alle Richtungen.
  4. Spotlight: das Licht strahlt von einem angegebenen Punkt aus Kegelförmig in eine Richtung.
  5. Area Light: das Licht hat seinen Ursprung in einer Ebene. Von dort aus beleuchtet es alle Objekte in angegebener Richtung.
  6. Volume Light: alle Objekte innerhalb eines definierten Raumes werden beleuchtet.

Mesh
Ein Mesh bezeichnet ein Polygonnetz, das die Oberfläche eines dreidimensionalen Objekts approximiert. Dabei gibt es verschiedene Datenstrukturen zur Repräsentation von Meshes, die sich in der Art der Speicherung von Knoten, Kanten und Flächen unterscheiden und sich damit unterschiedlich gut für verschiedene Anwendungen eignen.
Beispiele für solche Datenstrukturen sind Face-Vertex Meshes (Eckenliste) und Winged-Edge Meshes.

Mipmapping
Mip Mapping ist eine Methode zur Reduzierung des LOD von Texturen.
Für diese Methode werden verschiedene Detailstufen einer Textur geladen und bei Bedarf ausgetauscht.

Normal (Surface normal) deutsch: Normale
Ein Normalenvektor bezeichnet einen Vektor, der orthogonal auf einer Ebene, einer Geraden, einer Kurve oder einer gekrümmten Fläche steht. Im Fall der Surface Normal muss der Normalenvektor, wie der Name es vermuten lässt, auf einer Ebene (einem Polygon) stehen.
Normalen werden unter Anderem gebraucht um zu bestimmen, welche Fläche die Vorder- und welche die Rückseite ist (natürlich relativ zum Betrachter) und zur Berechnung der Lichtreflexion.
Eine Normale ist eine Längeneinheit lang.

Octree
Ein Octree ist ein gewurzelter Baum, dessen Knoten entweder keine oder genau acht direkte Nachfolger haben. Diese Datenstruktur wird in der Computergrafik zur hierarchischen Einteilung von dreidimensionalen Objekten verwendet. Sie kann unter anderem zum Zweck des Hidden Surface Removal eingesetzt werden.

Phong Shading
Die Normalenvektoren der Polygonecken werden linear interpoliert um Pixel-Normalenvektoren zu erhalten. Auf diese wird das Beleuchtungsmodell angewendet.

Scene Graph deutsch: Szenengraph
Diese Datenstruktur erlaubt eine logisch und auch räumlich aufgeteilte Darstellung einer zwei- oder dreidimensionalen Szene.
Der Wurzelknoten enthält die Gesamtszene, die Kindknoten die Objekte innerhalb dieser. Kindknoten können weitere Kinder haben. Jeder Knoten hat eine Transformationsmatrix, dessen Manipulation ausser des Objekts dieses Knotens selbst auch die Objekte aller untergeordneten Knoten beeinflusst.
Beispielsweise könnten die Räder eines Autos als Kindknoten des Objekts Auto in den Szenengraph eingebunden werden. Bei jeder Bewegung des Autos würden sich die Reifen in dem Fall automatisch mit dem Auto mitbewegen, ihre Position müsste nicht manuell neu berechnet werden.

Shading deutsch: Schattierungsverfahren
Prozess zur Berechnung der Farbe von Pixeln eines Objekts in Abhängigkeit von der Art der vorhandenen Lichtquelle, von der Position relativ zu dieser sowie des Objektmaterials. Außerdem erfüllt shading den Zweck der visuellen Glättung von Polygonnetzen. (außer Flat Shading)
Die drei wichtigsten Shading-Methoden sind Flat Shading, Gouraud Shading und Phong Shading.

Skybox
Die Skybox dient zur Darstellung des Himmels und der Umgebung in der Ferne.
Sie ist ein Würfel, dessen Flächen mit 6 Texturen bedeckt sind, die jeweils den Blick in eine Himmelsrichtung darstellen. (Die Szene befindet sich innerhalb dieses Würfels) Eine Skybox ist normalerweise statisch, was die Illusion der unendlich weiten Ferne erzeug. Auch Wolken sind bewegungsloser Teil der Textur.

Skydome
Der Skydome ist eine Alternative zur Skybox. Auch er dient der Darstellung des Himmels und der unendlich weit entfernten Szenerie.
Er ist eine Kugel oder Halbkugel, die mit einem Panoramabild texturiert ist. Diese Kugel wird über dem Betrachter aufgespannt; sie ist stets an der aktuellen Position des Betrachters zentriert und wirkt so unerreichbar.

Stencilbuffer
Stencilbuffer kann mit "Schablonenpuffer" übersetzt werden.
Seine Aufgabe ist es, nur Fragmente in den Framebuffer zu übergeben, die einer bestimmten Schablone entsprechen. Dafür ist jedem Pixel ein Wert im Stencilbuffer zugeordnet. Ob die gewünschte Eigenschaft vorhanden ist und das Fragment übernommen werden kann, wird mit dem Stenciltest ermittelt. Die Stenciloperation gibt an, wie der Stencilwert bei der Verarbeitung eines Fragments modifiziert wird.
Mit Hilfe dieses Puffers können beispielsweise das Renderinggebiet begrenzt und Schatten erzeugt werden.

Textur
Texturen sind Bilder, die auf der Oberfläche von 3D-Objekten dargestellt werden, um zusätzliche Details zu dem Objekt hinzuzufügen. Der Prozess der Anwendung von Texturen auf Objekte wird Texture Mapping gennant. Ein Pixel einer Textur wird als Texel bezeichnet.

Tile-based Terrain
Tile-based Terrain bezeichnet Terrain, der durch die Aneinanderreihung von verschiedenen Kacheln (tiles) entsteht. Die Kacheln müssen dafür nahtlos ineinander übergehen, ineinander übergeblendet werden oder es muss spezielle Übergangskacheln geben. (Kacheln müssen dabei nicht quadratisch sein.)

UV-mapping
UV-mapping wird gebraucht, wenn Texturen auf Objekte projiziert werden sollen.
U und v sind dabei die Koordinaten, die jeder Ecke eines Polygons zugewiesen werden. Diese Koordinaten geben an, welchem Texel (= Pixel der Textur) die Ecke zugewiesen wird. Ist die Oberfläche des Objekts größer als die der Textur, so wird die Textur meist periodisch wiederholt.

Katarina Boland