3d Flashcards

1
Q

Was ist ein Polygon?

A

Ein Polygon ist eine Area geformt durch mindestens 3 Vertices (ein Dreieck).

Es ist häufig auch eine Approximation einer Oberfläche.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Was ist Modellierung?

A

Im Grunde ist ein 3d Model eine Menge von punkte (die wir Vertices nennen) die definieren die Shape/Geometrie eines Objekts, und die werden zusammengebunden um Polygone zu machen.

Bei Modellierung wird davon ausgegangen, dass wir von 3d Modellierung sprechen

Ein Model beschreibt das Verfahren durch dem man Objekte gestaltet / die Form eines Objektes gestaltet

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Was sind die 2 Gängigste Quellen für 3D Modelle?

A

Manuel (von einem Künstler oder Ingenieur per Hand) gemacht.
&
Eingescannte Modelle.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Was wird modelliert?

A

Die Oberfläche. Und wo die Oberfläche ist (und wo sie auch nicht ist) spricht Geometrie/Topologie

Wir wollen ein Repräsentations-System, welches einen funktionalen Isomorphismus mit Oberfläche, Beziehungen und Operationen in der realen Welt hat.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Wo werden 3D Modelle benutzt? / Wo kann man Computerbilder benutzen?

A

Überall

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Wo wird 3D Modellierung geforscht?

A

Alle Ecken: Geometrie (wie man repräsentiert, was ein repräsentationales System ist), Korrespondenz (wie weiß ich das 2 Objekte ähnlich sind), volume editing, Akquirierung (einscannen/Visualisierung), 3D Darstellungen/printing, usw…

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Was ist der Unterschied zwischen Repräsentationen und ein Repräsentationales System?

A

Eine Repräsentation ist eine Abbildung zwischen Entitäten/Einheiten in einem System (z.B. die Welt) und Entitäten/Einheiten in einem anderen System (z.B. Mathematik).

Ein Repräsentationales System hat nicht nur Entitäten. Es hat Operatoren und Beziehungen. Ein Beispiel davon ist Funktionale Isomorphismus.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Was ist Funktionale Isomorphismus?

A

Alle Entitäten und Operationen eines Systems haben eine 1 zu 1 Abbildung auf ein anderes System.

Geometrie und Algebra sind ein typisches Beispiel, da alles was man in einem System machen kann, kann man auch in einem anderen mache. Bzw., alle Entitäten und alle Operationen kann man gleich abbilden. Das ist ein Beispiel von ein Repräsentationales System.

Durch die Abbildung von geometrischen Entitäten (Linien, Punkte) auf kartesische Koordinaten, kann man eine algebraische Repräsentation bekommen. Dadurch kann man die Beziehungen und Operationen in einem System in den anderen repräsentieren.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Was sind die 3 klassische Operationen die man in Modellierung durchführen kann? Was unterscheidet sie?

A

Evaluation = Abtastung der Oberfläche oder Oberflächeneigenschaften (e.g., Normal). Da wo ich ein Punk habe, frage ich was der Wert an dem Punkt ist

Abfragen = Berechnung von Werten zwischen Punkten. Z.B. Liegt ein Punkt innerhalb eines Polygons? Wie weit entfernt sind 2 Punkte? Zwischen Punkte muss man interpolieren – was ist zwischen den Punkten, und was kann ich zwischen bekannte Punkte tun?

Änderung = Geometrische Änderungen (Deformation, Verschiebung, Drehung) oder sogar auch topologische Änderungen (z.B. Löcher einbauen)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Was sind die verschiedenen Arten von Repräsentationen?

A

Explizit bz. Implizit, und Parametrisch

So oder so wird es schwierig sein eine Gleichung zu haben für das gesamte Objekt. Deswegen in der Regel können wir das tun aber die Gleichung wird so unglaublich komplex, sodass es schwierig wird handzuhaben. Kompromiss = einfache parametrische Gleichung, und dann stecken wir (wie eine Patch/Quillt) mehrere davon zusammen sodass wir ein gesamtes Objekt haben

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Was ist eine Explizite Repräsentation (Explizite Darstellung von Flächen oder Kurven)?

A

Ein Polygon ist durch eine Funktion beschrieben (z.B. y=f(x) oder y = mx+b).

It is a formula that has been solved for one variable in terms of the other.

Probleme/Nachteile:

  • Für ein x darf es nur ein y-Wert geben (ein Kreis ist daher nicht geschlossen darstellbar)
  • Beschreibung nicht invariant gegenüber Rotationen
  • Keine Kurven oder Flächen mit echte vertikalen Tangenten möglich
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Was ist eine Implizite Repräsentation (Implizite Darstellung von Flächen oder Kurven)?

A

Jedes Polygon ist durch eine (implizite) Funktion beschrieben. Die Oberfläche ist dort, wo die Funktion einen Wert von Null hat (z.B. f(x,y) = 0 oder x2 + y2 -1 = 0).

A formula with all the variables on one side is called implicit.

Vorteile:

  • Alle negativen Werte liegen innerhalb der Oberfläche (und positive Werte außerhalb). Gut für geometrische Abfragen und evtl. auch geometrische Änderungen
  • Solang die Funktion kontinuierlich ist, hat die Oberfläche keine Löcher (Implementierung als Gitterstruktur kann aber Löcher haben)
  • Die Oberfläche kann sich selbst nicht durchschneiden

Probleme/Nachteile:

  • Gleichung kann mehr Lösungen als gewollt haben
  • Richtung der Tangenten ist schwer zu ermitteln
  • Nicht einfach darzustellen
  • Nicht einfach zu parametrisieren (texturieren ist schwierig)
  • Kurven: Funktioniert nur für Planar Curves (wo alle Punkte auf einer Ebene liegen, eine “Manifold Curve”)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Was ist eine Parametrische Repräsentation (Parametrische Darstellung von Flächen oder Kurven)?

A

Jedes Polygon ist durch eine Funktion mit ein oder mehr Parametern beschriebe (z.B. x = x(t) oder Q(t) = (t2 , t3 , −t) ).

Kurven: Abbildung von einem eindimensionalen Parameter zu einem zweidimensionalen Raum

Oberflächen: Abbildung von zwei Parametern (jeweils eindimensional) zu einem dreidimensionalen Raum

Unlike an implicit representation of a surface, a parametric representation allows us to directly generate points on the surface. A parametric equation defines a group of quantities as functions of one or more independent variables called parameters.

Vorteile:

  • Keine Mehrdeutigkeiten
  • Invariant gegenüber Rotationen
  • Geometrische Steigung (potenziell unendlich) werden durch Tangentenvektoren (niemals unendlich) ersetzt
  • 3D Problem auf 2D Problem reduziert
  • Einfach Punkte zu erzeugen, die auf Oberlfäche sind

Probleme/Nachteile:

  • Nicht einfach eine Parametrisierung zu erzeugen
  • Topologische oder auch geometrische Änderungen konnten eine neue Parametrisierung nötig machen
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Was ist der Unterschied zwischen Skalenniveau und Skalar?

A

Skalenniveau bezieht sich auf Nominalskala, Ordinalskala, und Intervallskala. Es definiert was für Daten wir haben. n der Regel wird mit Intervallskala gearbeitet.

Skalar ist eine Reelle Zahl (Intervallskala)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Was für Skalenniveaus gibt es, und was ist der Unterschied zwischen denen?

A

Nominalskala = Geht um Identifikation (z.B. Namen)

Ordinalskala = Geht um die Reihenfolge, aka Rangordnung (erste Platz, zweiter Platz, usw.)

Intervallskala = Geht um reelle Zahlen im Prinzip. Hat Rangordnung und definierter Abstand (z.B. 1.75 cm, 2.05 cm)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Was ist ein Vektor? Und was ist ein Einheitsvektor?

A

Ein Vektor hat eine Richtung und ein Betrag. Vektoren sind der Kern von Computer Graphik.

Ein Einheitsvektor ist ein normierter Vektor, oder ein Vektor mit der Länge (Betrag) Eins. (|v| = 1)

Einheitsvektor = Vector with no relevant Betrag/magnitude, just has a magnitude of 1. Normal vectors are einheitsvekotr. Einheitsvektor also called Normal vector or unit-vector.

The surface Normal is a surface Einheitsvekotr. Its oriented straight up.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Was für Koordinatensysteme gibt es?

A

Kartesische Koordinatensysteme, Zylinder Koordinatensysteme, und Sphärische/Kugel Koordinatensysteme

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Was ist ein Kartesisches Koordinatensystem?

A

Es basiert auf 3 oder mehr Einheitsvektoren die alle orthogonal zu einander sind. Es gibt die Richtungen (z.B. x ist eine Richtung), wodurch der Betrag von x eigentlich ein Vektor ist (jeder Punkt in einem Kartesischen System ist ein Vektor –> es entscheidet von einem Ursprungspunkt wie man laufen muss um an dem anderen Punk anzukommen).

Wenn man 3 Werte (x,y,z) hat, dann sind es einfach Beträge entlang die Richtungen x, y, & z.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Was bedeutet Orthogonal?

A

Of or involving right angles; at right angles. // von oder mit rechten Winkeln

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Was ist Topologie?

A

Topology is concerned with the properties of a geometric object that are preserved under continuous deformations, such as stretching, twisting, crumpling and bending, but not tearing or gluing.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Was sind Gitter? Was für Gittersorten gibt es?

A

Topologie beschreibt die Nchbarschaft von Zellen, Geometrie beschreibt die Position von der Oberflächt.

Berücksichtigt nicht die Position der Gitterpunkte, ist d.h. unabhängig von Verzerrungen.

A grid is a structure (2D or 3D) made up of a series of intersecting straight (vertical, horizontal, and angular) or curved lines (grid lines) used to structure content.

Gittersorten:

  • Regelmäßige Gitter (aka regular grid) {Kartesisches Gitter ist Beispiel}
  • Blockstrukturierte Gitter (aka block grid) {Uniforme Gitter ist Beispeil?}
  • Strukturierte Gitter {Beispiele: Kartesische Gitter (im Spezial Fall), Uniforme Gitter, Nichtuniforme Gitter, Curvilinieare Gitter}
  • Unstrukturierte/Irreguläre Gitter {Hybride Gitter sind eine Spezialform}
  • Hybride Gitter
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Was sind Regelmäßige Gitter (regular grids)?

A

Gitter die achsenparallele Gitterlinien haben. Der Abstand von benachbarten parallelen Gitterlinien ist konstant.

Beispiel: Kartesisches Gitter

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

Was sind Blockstrukturiertes Gitter (block grid)?

A

Gitter die achsenparallele Gitterlinien mit unterschiedlichen Abständen habe.

Beispiel: Uniforme Gitter??

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

Was sind Strukturierte Gitter (structured grids / curvilinear grids)?

A

Gitter die beliebige Gitterlinein haben. Die Koordinaten eines Gitterpunktes auf einer Gitterlinie sind analytisch gegeben. Sind die Gitterlinien als Kurven in Parameterform gegeben, sprechen wir auch von “Curvilinearen Gitter.”

Beispiele: Kartesische Gitter (aka äquidistante Gitter) im Spezialfall, Uniforme Gitter, Nichtuniforme Gitter (aka rectilineare Gitter)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
Q

Was ist ein Unregelmäßiges/Unstrukturiertes/Irreguläres Gitter (unstructured/irregular grid)?

A

Gitter die durch beliebige Gitterlinien mit beliebigem Abstand definiert sind. Das Heißt, sowohl die Koordinaten als auch der Verbund der Gitterpunkte muss explizit gegeben sein.

Beispiel: Hybride Gitter sind eine Spezialform

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
26
Q

Was ist ein Hybrides Gitter?

A

Ein Gitter, dass sich aus unterschiedlichen Gittertypen zusamensetzt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
27
Q

Was sind die Vor- und Nachteile eines Strukturierten Gitters?

A

Vorteile:

  • Sichtbarkeitssortierung ist fest (da Konvex)
  • Einfache, kompakte Handhabung durch implizite Adressierung

Nachteile:

  • Lokale Gitterverfeinerung schwierig/nicht möglich
  • Abbildung auf komplexe Strukturen nicht immer möglich
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
28
Q

Was sind die Vor- und Nachteile eines Unstrukturierten Gitters?

A

Vorteile:

  • Lokale Verfeinerung gut möglich
  • Gute Adaption an unregelmäßige Datenräume
  • Wohldefinierte Interpolation innerhalb der Zellen (variierende Zelltypen, variierende Zellgrößen)

Nachteile:

  • Aufwendig in der Speicherung und Auswertung
  • Repräsentation durch explizite Speicherung von Nachbarschaftsbeziehungen
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
29
Q

Was ist der Unterschied zwischen Beleuchtungsmodelle und Shadingmodelle? Welche Rolle spielt Phong dabei?

A

Beleuchtungsmodelle (illumanion models) beschreiben die Faktoren, die die Farbe eines Objekts an einem Punkt bestimmen.

Shadingmodelle (shading models) beschreiben, wann und wie ein Beleuchtungsmodell angewendet wird – und erfüllen häufig (auch) den Zweck der visuellen Glättung von Polygonnetzen.

Shadingmodelle basieren also auf die Faktoren, die durch die Beleuchtungsmodelle beschrieben werden.

Das Phong-Beleuchtungsmodell gibt dir die Faktoren, der Phong-Shader beschreibt wie diese angewandt werden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
30
Q

Was sind die Eigenschaften von Lichtquellen?

A

Eine Lichtquelle hat 2 Eigenschaften: eine Position und eine Richtung

Richtungslicht (directional light) hat eine definierte Richtung aber unendliche Position, Punkquelle (piont light source) hat eine definierte Position aber keine konkrete Richtung, Spot Light (distributed light source) hat eine definierte Position und Richtung aber auch noch eine cut-off Angle dazu.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
31
Q

Was sind die Beleuchtungsmodelle von Lokale Beleuchtung?

A

Die 3 Beleuchtungsmodelle sind Ambient (Hintergrundlicht), Diffuse (Lambertsche Reflektion), und Specular (glänzende Flächen).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
32
Q

Was ist Ambient Beleuchtung?

A

Es ist ein einfaches Beleuchtungsmodell. Es hat keine wirkliche Tiefe (depth) und sieht daher flach aus. Es ist Konstant für ein Objekt.

Die Beleuchtungsintensität (I) ist unabhängig von einfallender Beleuchtung und Beobachtungsrichtung.

Physikalische Erklärung = Ambientes Licht als Sammelterm für Beiträge von Reflexion durch diverse Flächen im Raum.

Gleichung: I = I_a k_a

Intensity for a given pixel or image is defined by the ambient Intensity. K is constant, that determines how a specific object reacts to that light intensity.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
33
Q

Was ist Diffuse Beleuchtung?

A

Bei Diffuse Beleuchtung wird Licht gleichmäßig in alle Richtungen reflektiert. Die Helligkeit ist abhängig vom Winkel θ zwischen Vektor L zur Lichtquelle und Oberflächennormalvektor N.

Großes θ -> flacher Lichteinfall -> kleinere Lichtmenge pro Flächeneinheit -> geringere Intensität der diffusen Reflektion. Kleiners θ = direktere Beleuchtung.

Muss in Weltkoordinaten durchgeführt werden, denn bei der Transformation in den Bildraum wird der Winkel θ verändert.

Gleichung: I = I_l k_d cos θ (außer L&N sind normalisiert, dann I = I_l k_d (N*L) )

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
34
Q

Was ist Specular Reflection/Beleuchtung?

A

Specular Refection/Beleuchtung ist abhängig vom Betrachter-Standpunkt. Dabei haben specular “highlights” die Farbe der Lichtquelle.

Bei perfekten Speigeln wird Licht nur in die Reflektionsrichtung R abgestrahlt.

Gleichung: I = I_l k_s (R*L)^n

Involves where is the light, what is the surface orientation, and where is the viewer. Those 3 HAVE to be involved, although the final formula we use can vary quite a bit.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
35
Q

Was ist die allgemeine Gleichung für Beleuchtung?

A

I_λ = O_dλ I_aλ k_a + f_att I_lλ (O_dλ k_d (NL) + k_sλ O_sλ (RH)^n)

Diffuse und Specular haben eine gemeinsame Lichtquelle und Attenuation Factor (f att).

Diese Gleichung ist der Grund von Beleuchtung an sich -> man hat ein Punkt den man schieben, drehen, skalieren kann, und den muss man beleuchten. Dafür braucht man die 3 Transformationen.

Die Verschiedene Variablen bedueten:

  • I = Beleuchtungsintensität
  • λ = stellt einfach einen Punkt auf der Oberfläche dar (hat mit wavelength / distribution of wavelength at a given piont zu tun)
  • O = Farbmodifikator der Oberfläche (wie Oberfläche zu Farbe reagiert)
  • k = Beleuchtungskonstante (wie stark geht Ambient/Diffuse/Specular)
  • f att = Attenuation Factor (makes intensity of light smaller, since light gets weaker with distance)
  • N = Oberflächennormale
  • L = Richtung der Beleuchtung / Lichtquelle
  • R = Reflektionsrichtung
  • H = Blinn-Phong-Komponente, bzw. Halbvektor der beinhaltet die Normalisierung des Licht-Vektors und des Viewing-Vektors (Halb-Vektor, der L und V beinhaltet)
  • n = Exponent, der bestimmt, wie breit der Specular Highlight ist
  • m = die unterschiedlichen Lichtquellen, die man haben könnte
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
36
Q

Was ist Shading / was wird beim Shading berechnet?

A

Shading berechnet die Farbe zwischen Punkten.

Evaluation: Was ist die Farbe eines Punkts? Abfrage: Was passiert zwischen die Punkte?

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
37
Q

Was für Möglichkeiten gibt es, die Intensität eine Oberfläche eines Polygons zu rechnen? Was sind deren Unterschiede?

A

Flat Shading (aka Constant Shading)

  • Wir berechnen es für einen Punkt, und das gesamte Polygon bekommt das von dem einen Punkt. Dies sieht aber meistens schlecht aus (Glattunsproblem).
  • Wird benutzt wenn Lichtquellen im Unendlichen, Betrachter im Unendlichen, und/oder Polygon repräsentiert die wirkliche Objektoberfläche.

Gourad Shading

  • 3 Eckpunkte werden definiert, und wir interpolieren dann die Intensität entlang der Kante & Scanline
  • Probleme: Specular Highlights wachsen oder verschwinden. Rand immer noch eckig.

Phong Shading

  • Normalen werden interpoliert und werden dann für jeden Punkt den uns angeht dirket berechnet (Interpolation der Normalvektoren dann berechnen wir die Intensitätswerde – Shading für jeden Pixel berechnet).
  • We calculate the normal at every given point and then do a full lighitng calculation there.
  • Sehr aufwendig, aber beste Qualität (Ränder können aber trotzdem noch eckig sein)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
38
Q

Was ist die Grundidee von Radiosity?

A

Radiosity behandelt jeden Punkt in der Szene (also eine neue Lichtquelle).

Grundprinzip: Gleichgewicht zwischen zugeführter Strahlungsenergie von Lichtquellen und absorbierter Strahlungsenergie durch alle Oberflächen.

30% des Lichts in einer Szene stammen nicht unmittelbar von einer Lichtquelle, sondern von Spieglung auf Objektoberflächen.

Radiosity is the “radiant flux per unit area” that is leaving a surface. It describes the physical process of light distribution in a diffuse reflecting environment where every object acts as a secondary light source.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
39
Q

Was ist ein Clipping Fenster? Was ist ein Viewport?

A

Clipping Window = was aus der Welt mich interessiert

Viewport = Dieses Element (vom Clipping Window) schneiden wir raus und das wird irgendwo anders dargestellt (im Viewport dargestellt)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
40
Q

Was ist ein Viewing Frustrum?

A

Viewing Frustrum ist ein 3d Clipping Fenster. Idee ist genau das gleiche wie ein Clipping Fenster aber halt für 3d statt 2d.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
41
Q

Was ist Texturierung?

A

In der Regel erlaubt Texturierung uns die Feinheiten darzustellen ohne jeden einzelnen Punkt zu repräsentieren. Wenn wir alle Punkte repräsentieren wollen würden, bräuchten wir viel zu viel Speicherkapazität, deswegen benutzen wir eher Textur.

Spart Zait, aber sieht nicht immer schön aus.

Beispiel: Anti-Aliasing

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
42
Q

Was ist Anti-Aliasing?

A

Aliasing sind visuelle Artefakte, die dadurch entstehen, dass viele Texel auf einen Pixel abgebildet werden können (blurrs things further away from viewpoint)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
43
Q

Was ist ein Repräsentationales System?

A

Repräsentationale Systeme werden benutzt um Objekte von der Welt erstmal überhaupt zu repräsentieren. Es handelt sich um Abbildungen.

Ein Repräsentationales System hat nicht nur Entitäten (wie eine Repräsentation). Es hat Operatoren und Beziehungen. Ein Beispiel davon ist Funktionale Isomorphismus.

Gesamte Viewing Pipleine ist nichts anders als eine Abbildung und viewpoint transformation ist auch ein Systemwechsel.

44
Q

Was sind die Ziele/Motivationen eines Repräsentationssystems, bzw. was sind die wichtigsten Elemente?

A

Es gibt diverse Repräsentationssysteme und man muss sich fragen was ist gut.

2 Elemente die Notwendig sind (muss das System haben):

  • Große Domäne (viele Objekte möglich… mit Objekt ist ein reales Weltobjekt oder physikalisches Objekt gemeint, z.B. ein Stuhl oder eine Muschel)
  • Eindeutig (jede Repräsentation kann als nur ein einziger fester Körper verstanden werden… fester Körper hier bedeutet auch ein physikalisches Objekt)

6 weitere Elemente die Wünschenswert sind (aka die Klassen von Systemen):

  • Einzigartig (nur eine mögliche Repräsentation pro Objekt)
  • Genau (die Repräsentation bildet das gewünschte Objekt perfekt ab)
  • Garantiert (unmöglich, ungültige Repräsentationen zu erzeugen… viele Systeme haben dies nicht z.B. B-Reps)
  • Einfach zu benutzen (einfach um Bilder darzustellen und feste Körper/Objekte zu erzeugen)
  • Geschlossenheit, Invarianz (feste Körper sollen bei Rotationen, Verschiebungen, Skalierungen, und andere Änderungen geschlossen bleiben… geht mit Garantiert zusammen)
  • Kompakt (Effiziente Nutzung von Speicherkapazität)
45
Q

Was sind die Klassen von Repräsentationssysteme?

A

Zerlegung (aka Decomposition), Aufbauend, Begrenzung, Prozedurale

46
Q

Was ist Zerlegung (aka Decomposition) / ein Zerlegendes System im Prinzip?

A

Es zerlegt den Körper in eine Menge von angrenzende, nicht-durchschneidende Körper, die primitiver sind als das Original

Beispiel: Spacial Numeration & Hierarchical Enumeration

47
Q

Was ist Spacial Numeration? Was sind die Vor- und Nachteiel?

A

Es ist ein Zerlegendes System. Dieses Schema ist im Grunde eine Liste von “spacial cells” die von einem Festkörper besetzt sind. Die Zellen (aka voxels) sind Würfel mit einer festen Größe und sie sind in einem “fixed spacial grid” angeordnet.

Die Zellen sind identisch -> Voxels (volume elements) sind Würfel. Sie sind eingerichtet auf ein regelmäsiges, nicht änderbares Gitter.

Vorteil: Effizient

Nachteile:

  • Alle Voxels haben die gleiche Größe
  • Voxels sind entweder komplett voll oder komplett leer (keine partielle Belegung)
  • Nicht kompakt
48
Q

Was ist Hierarchical Enumeration? Was sind die Vor- und Nachteiel?

A

Es ist ein Zerlegendes System. Es handelt um eine Hierarchische Unterteilung, bis die Bereiche homogen sind.

In 2D werden Quadtrees benutzt. In 3D werden Octrees benutzt, die einen 3D Würfel in “octants” unterteilt (dabei sind Mengenoperationen einfach, Geometrische Transformationen jedoch scwierig).

Vorteile:

  • Repräsentation aller Objekte möglich (große Domäne)
  • Kombination einfach
  • Schnelle Darstellung (fast rendering)
  • Anzahl von Knoten ist proportional zur Oberfläche
  • Räumliche Suche möglich
  • Eindeutig, Garantiert, und einfach zu benutzen

Nachteile:

  • Nicht genau & niedrige Bildqualität
  • Transformationen schwierig
  • Nicht sehr kompakt
49
Q

Was ist Aufbauend / ein Aufbauendes System im Prinzip?

A

Ein Aufbaunendes System nimmt eine Reihe von Primitiven, und denkt sich Regeln aus, um diese Primitiven zusammenzufügen (wie LEGO-Steine).

Beispiel: Constructive Solid Geometry (CSG)

Jedes Objekt wird durch Mengenoperationen aus einfachen Primitiven erstellt (Boolesche Mengenoperationen auf 3D Objekte). Es basiert aus Vereinigung (aus 2 wird 1), Durchschnitt (was herausgeschnitten wird um Platz zu machen für Vereinigung), und Differenz (was übrig bleibt um mit den anderen Objekt vereint zu werden)

Vorteile:
- Genau, Große Domäne möglich, Kompakt, Kombinationen und Transformationen sehr einfach, Eindeutig

Nachteile:
- Hohe Darstellungskosten, nicht einzigartig, nicht immer einfach zu benutzen

50
Q

Was ist Prozedurale / ein Prozedurales System im Prinzip?

A

Beispiel: Sweep Representation (sweeps)

Für Sweeps muss man ein Erzeuger (generator) haben und eine Flugbahn (trajectory). Sie sind beliebt da viele Maschinenteile symmetrisch sind und können als 2D Objekte definiert sein, häufig intuitiver als CSG, und man kann viele Herstellungsmethoden (fräsen, drechseln, usw.) direkt als sweep operationen modellieren.

Es gibt mehre Sorten:

  • Extrusion/Cutout (e in Blender) = Bewegungsbahn ist eine Gerade, die senkrecht zum Erzeuger ist (Spline als Bewegungsbahn).
  • Revolve (r in Blender) = Ähnlich zur Extrusion, aber der Erzeuger wird gedreht, nicht verschoben.

Vorteile:
- Intuitiv, Einfach zu benutzen, Kompakt, Große Domäne (aber nicht alle Objekte möglich)

Nachteile:
- Nicht garantiert (rotate in plane of generator surface), nicht einzigartig, kann schwierig sein (z.B. sicher zu sein dass das Objekt sich selbst nicht durchschneidet), und schwierig zu manipulieren (Mengenoperationen sind nicht immer möglich)

51
Q

Was sind die 3 Klassen von Einscannen-verfahren?

A

Digitalisierung, Photogrammatic, und Laser Scans

52
Q

Was ist Digitalisierung?

A

Es ist eins der 3 Einscannen-verfahren. Es werden dabei seriell, eins nach dem anderen, Orte einliest. Man benutzt dafür in der Regel einen Stift (kann Mechanisch, Akustisch, oder Elektromagnetisch sein). Es ist geeignet für feste, rigide, nicht-bewegliche Objekte.

Vorteile:
- Sehr Robust, kleine Sensoren

Nachteile:
- Es gibt uns lediglich Geometrie, die Topologie (wie die Punkte verbunden sind) muss man explizit geben

53
Q

Mechanisch (vs. Akustisch vs. Elektromagnetisch)

A

Eins der 3 Digitalisierungs-verfahren.

2 Arten: Mechanischer Arm & Trägheitssensor
- Bei Trägheitssensor wird Trägheit über Gyroskope (Kreisel) gemessen… Basically this inertia sensor is an add-on to a mechanical arm to solve inertia issue

Mechanischer Arm Vorteile:
- Sehr genau, Robust, Schnell

Mechanischer Arm Nachteile:
- Geringe Reichweite, Tote Winkel, Unbequem, Trägheit (inertia)

Trägheitssensor Vorteile:
- Autonom (kein Sender), Klein, Keine Bereichsgrenzen

Trägheitssensor Nachteile:
- Drift durch Fehler, Erfordert Stützung alle paar Sekunden, Gestört durch Graviation/Vibrationen

54
Q

Akustisch (vs. Mechanisch vs. Elektromagnetisch)

A

Eins der 3 Digitalisierungs-verfahren.

Benutzt Ultraschall (ähnlich wie “Echo Location”) mit Zeit/Frequenz Messung (“Time of Flight”)

2 Möglichkeiten:

  • 3+ Sensoren woanders gefunden, Triangulation -> Position
  • 3+ Sender und 3+ Sensoren, Triangulation -> Position und Orientierung (Je mehr Sender, desto besser kann man die Position erhalten, insbesondere kann man auch eine Orientierung des Objekts erhalten)

Vorteile:
- Günstig, Schnell, Klein

Nachteile:
- Signalabschwächung, Echos, Gestört durch Umweltbedingungen (Temperatur, Druck, Feuchtigkeit, usw.)

55
Q

Elektromagnetisch (vs. Mechanisch vs. Akustisch)

A

Eins der 3 Digitalisierungs-verfahren.

Feldgenerator (Transmitter) erzeugt Magnetfeld, das von einem Sensor (Receiver) gemessen wird (Drei Empfängerspulen orthogonal angeordnet = neun empfangende Feldstärken).

2 Basistechnologien: DC Pulse Tracking (Ascention) & AC Tracking (Polhemus). Beide haben 9 Messerte basiert auf 3 Spulen.

DC ist weniger empfindlich aber hat geringere Genauigkeit und ein höheres Lag.
AC ist sehr empfindlich gegenüber leitenden Materialien, hat aber eine höhere Genauigkeit und kleineres Lag.

Vorteile:
- Kleine Sensoren, Gute Reichweite, Keine Sichtbarkeit nötig

Nachteile:
- Gestört durch Metall und Magnetfelder, Nicht kabellos, Rauschen

56
Q

Was sind Laser Scans?

A

Es ist eins der 3 Einscannen-verfahren.

Schießt einfach ein Objekt rein (ein Strahl) und der Strahl kommt dann zurück und misst “Time of Flight” mehr oder weniger (im einfachsten Fall).

Anders gesagt: Ein Laser kreist um ein Objekt und scannt eine vertikale Linie für jeden Abstandspunkt auf diesem Kreis. Muss dann von zylindrischen Koordinaten in kartesische Koordinaten transformiert werden.

Probleme:

  • Abdeckung: Teile können nicht eingescannt werden (Licht wird gestreut, absorbiert, verdeckt, usw.)
  • Viel Rauschen
  • Ober- und Unterteile nicht, bzw. schlecht, sichtbar

Lösung zu den Problemen:

  • Interpolation & mehrere Scans (müssen später zusammengenäht werden)
  • Glättung (möglicher Verlust von Genauigkeit)
  • Mehrere Scans
57
Q

Was ist Fairing?

A

In der Regel ist Fairing die Kulmination/der Höhepunkt vom Gesamten.

Idee ist, dass wir eine so sanft wie mögliche Oberfläche gewinnen möchten, gegeben an einem Eingabesystem. Wird gemacht durch eine Funktion auf der Oberfläche

Man versucht, an Hand von differential Ableitungen, die Änderungen eine Funktion zu minimieren (entweder die Änderung an sich, oder die Änderungen der Änderung).

In kurz: Ziel ist Sanftheit.

Dies wird mit Energiefunktionen gemacht:

  • Energiefunktion, um die Oberfläche zu minimieren
  • Energiefunktion, um die Krümmung (curvature) zu minimieren
  • Energiefunktion, um die Dehnung und Biegung (streching and beding) zu minimieren (bzw. Energiefunktion, um die Variation der Krümmung {curvature} zu minimieren)
58
Q

Was ist Free-From Deformation?

A

Idee ist, dass ich keine Definition der Oberfläche habe, ich kriege es nicht so in 2D das ich den frequenzbasiert benutzen kann, also stecke ich das Ding/Objekt dann einfach in ein Gitter, merke mir wo die Gitterlinien sind (als ob ich das Objekt schneiden würde), bewege den Gitter und der Rest folgt als Interpolation zwischen die Gitterpunkte (z.B. mit Splines)

Vorteile:

  • Glatte Deformationen
  • Einfach zu implementieren
  • Effiziente und lokalisierte Steuerungen für die interaktive Bearbeitung
  • Kann mit verschiedenen Anpassungs- oder Energiezielen gekoppelt werden

Nachteile:

  • Zu viele Gitterpunkte in 3D
  • Die Gitterstruktur ist nicht für organische/nicht-kubische Formen geeignet

Steps:

  • 1) Construct a regular grid throughout the entire space (including where the object is).
  • 2) Note the intersection of the object with the grid.
  • 3) Move the grid (and thereby the object’s intersection points)
  • 4) Interpolate between intersection points
  • 5?) Find location of all points on the curve relative to the grid (re-parameterize)
  • 6?) Redefine the lines of the grid as bezier Curves (and use the grid points as control points)
59
Q

Was ist Cube-Based Deformation?

A

Eigentlich ist es dasselbe wie Free-Form aber man hat eine bessere Control-Cage

Anders gesagt: Anstelle eines regelmäßigen Gitters wird ein “Kontrollkäfig” definiert (ein grobes Dreiecksnetz, das das Objekt umschließt)

Vorteile (im Vergleich zu Free-Form):

  • Viel geringere Anzahl von Kontrollpunkten
  • Flexible Struktur geeignet für organische Formen

Nachteile:

  • Das Aufbauen des Käfigs kann zeitaufwendig sein
  • Der Käfig muss eine geschlossene Form haben
  • Nicht so flexibel wie “point handles”
60
Q

Was ist Animation?

A

Definition laut Duden: “aus einer Folge einzelner, den Bewegungsablauf wiedergegebener Bilder einen Film drehen”

Ziel: Erzeuge und steuere Bewegung

Problem: zu viele Zahlen

Lösung: Hierarchische Steuerung (“Obere” Ebene Konzepte/Konstrukte sind auf “niedrige” Ebene Konzepte/Konstrukte abgebildet)

61
Q

Was sind die modernen Animation Techniken/Verfahren?

A

Prozedural: benutzt eine Funktion um Werte über die Zeit zu ändern (z.B. parametrisches Keyframing, Kinematik und inverse Kinematik, Dynamik/physikalische Simulation, Blendshapes/Gesichtsanimation)

Repräsentative: gelenkige Objekte (Skelette), weiche Objekte (Deformation), performance

Stochastisch (Wasserfall, Partikelsystemen)

Verhaltens-basiert (agent animation)

62
Q

Was ist Surfacing?

A

Surfacing ist was man tut, wenn man das Model nicht richtig machen kann. Dies und andere Konzepte die wir schon hatten (Objekt-Koordiante, Welt-Koordinate, Projektion, Pläne-Koordinate, Sphärische-Koordinate, Zylindrische-Koordinate, Koordinat-Systeme, usw.) kommen nochmal auf

Grundidee: Wir haben ein 3D Objekt wo alles was uns interesiert ist die Oberfläche. Das es 3D ist geht uns in der Reihe nichts an. Irgendwie müssen wir das 3D Objekt entfalten, sodass wir eine 2D Abbildgun davon haben. Dieses Verfahren (un-wrapping) ist sehr Komplex. Dies sorgt dafür, dass wir eine 1-zu-1 Abbildung der Textur Bild zur Oberfläche Bild schaffen können.

63
Q

Was ist Texture mapping?

A

Hinzufügen eines Musters zu einer glatten Fläche.

64
Q

Was ist Environment Mapping?

A

Es ist eine Simulation der Umgebung auf der Fläche… und eine Art texture Mapping.

Ist ein Objekt klein im Vergleich zum Abstand zu umgebenden Objekten, so hängt die einfallende Beleuchtungsstärke nur von der Richtung, nicht von der Position eines Punktes auf dem Objekt ab -> die einfallende Beleuchtung kann für ein Objekt vorberechnet und in einer 2D-Textur, der Environment Map, gespeichert werden.

Das reflektierende Objekt wird von einer virtuellen Zwischen-fläche umgeben, auf deren Innenseite die Szenenumgebung als 2D-Textur (Environment Map) aufgetragen ist

Vorteile:

  • Schnell und einfach zu berechnen
  • Liefert gute Ergebnisse, wenn die Textur z.B. der Himmel oder einen weit entfernten Horizont repräsentiert
  • Kann verwendet werden, um Reflexe von ausgedehnten Lichtquellen darzustellen

Nachteile:

  • Die Reflexionsberechnung ist nur dann korrekt, wenn sich der Objektpunkt P im “Weltmittelpunk” (Zwischenflächen-Mittelpiunkt) W befindet. Je größer der Abstand zwischen P und W, desto stärker die Verzerrung
  • Ist die Environment Map schlecht parametrisiert, können Aliasing-Probleme aufteten
  • Es wird keine Verdeckungsrechnung durchgeführt
  • Szenenobjekte können sich nicht gegenseitig widerspiegeln
  • Vorsicht vor Artefakten an den Kanten und “Nahtstellen” des Projektion-Körpers und durch Interpolation
65
Q

Was ist Bump Mapping?

A

Hinzufügen des Eindrucks von Rauheit zu einer glatten Fläche… und eine Art Texture mapping.

Bump maps (scalar/normal).

Bumps sind wegen der Schattierung sichtbar… Die Modellierung von Bumps ist sehr aufwendig. Trick: Füge eine Detailstruktur T ein.

Idee des Bump-Mapping:

  • Für kleine Bumps reicht es aus, die Visualisierung mit der Originalgeometrie durchzuführen, bei der Beleuchtungs-Gleichung aber die Normalen der unebenen gemachten Oberfläche zu
  • Oberflächenrauhigkeit durch lokale Variationen der Oberflächennormale durch Störfunktion erzeugt
  • Bump Map definiert das Raster Image

Fehlerquellen (Spezielle Algorithmen notwendig, um jeden Fehler zu reparieren):

  • Verzerrungen bei “grazing angles” (z.B. Dinge, die zu flach erscheinen)
  • falsche Silhouette (da die Geometrie nicht verändert wird!)
  • falsche Schatten
  • fehlende Schatten von Bumps
  • Lichteffekte auf der Rückseite

Vorteile von Bump Maps:

  • Faster than displacement, but much lower quality results
  • No extra memory necessary
66
Q

Was ist Interpolation?

A

Die Interpolation ist eine Art der Approximation: die betrachtete Funktion wird durch die Interpolationsfunktion in den Stützstellen exakt wiedergegeben und in den restlichen Punkten immerhin näherungsweise.

Interpolation is a type of estimation, a method of constructing new data points within the range of a discrete set of known data points.

67
Q

Was ist Displacement Mapping?

A

Manchmal auch als “correct version of bump mapping” genannt.

Displacement maps (scalar/vector).

Surface pionts are moved from their origianl position outline of object changes. Much harder to implement than bump mapping and thus rarer in practice. Latest hardware is necessary/partially supports it.

In Displacement Mapping, the actual geometric position of points over the textured surface are displaced, often along the local surface normal, according to the value the texture function evaluates to at each point on the surface.

Vorteile:

  • higher quality, real, geometric details on your surfaces
  • being a geometric feature, displacement casts accurate ray-traced shadows
  • better and more accurate outline detections, especially at the silhouette of objects
  • due to the real geometric nature of displacement, it is easy to understand how much to displace inward and outward in physical unit scale
  • subsurface effects will take into account of the displacement and produce more realistic results

Nachteile:

  • Slower than bump but much better visual quality (and not as slow as other rendering engines)
  • More memory is necessary compared to Bump.
68
Q

Was ist ein Texel?

A

In computer graphics, a texel, texture element, or texture pixel is the fundamental unit of a texture map.

69
Q

Was ist Viewpoint Transformation?

A

Eine Viewpoint Transformation besteht aus ein Clipping Fenster und ein Viewport, und hat Translation, Rotation, Skalierung, und Kippen.

Am Anfang Zeigte es uns eine Menge von Abbildungen zwischen Repräsentationale Systeme.

Welt- zu Viewportkoordinaten Transformation:

  • Initialisiere eine rotierte Weltfenster in Viewing Koordinaten und die dazu gehörige normalisierte Viewportkoordinaten
  • Ein Punkt (xw,yw) in Weltkoordinaten soll in Viewportkoordinaten (xv,yv) so abgebildet, so das die relative Postionen dasselbe sind.

A window-viewport transformation describes the mapping of a (rectangular) window in one coordinate system into another (rectangular) window in another coordinate system. This transformation is defined by the section of the original image that is transformed (clipping window), the location of the resulting window (viewport), and how the window is translated, scaled or rotated.

70
Q

Was ist die Viewing Pipeline?

A

Der Begriff Viewing Pipeline beschreibt eine Reihe von Transformationen, die von Geometriedaten durchlaufen werden, um als Bilddaten zu enden, die auf einem Gerät angezeigt werden. Die 2D-Viewing-Pipeline beschreibt diesen Prozess für 2D-Daten.

– Model (or Objekt) Coordinates ⟶ [construction of objects and scenes] – World coordinates ⟶ [definition of mapping region + orientation] – Viewing Coordinates ⟶ [transformation to normalized viewing frame] – Normalized Coordinates ⟶ [mapping to deveice dependent values] – Device Coordinates ⟶

The coordinates in which individual objects (models) are created are called model (or object) coordinates.
When several objects are assembled into a scene, they are described by world coordinates.
After transformation into the coordinate system of the camera (viewer) they become viewing coordinates.
Their projection onto a common plane (window) yields device-independent normalized coordinates.
Finally, after mapping those normalized coordinates to a specific device, we get device coordinates.
_

In den Modelingkoordinate haben wir punkte, bzw. ein Objekt an sich in seine eigenen Koordinatensysteme gemodelt. Wir haben dann die Punkte gelegt, die Kanten zwischen den Punkten gelegt, und in Kartesische Koordinate eingebettet. Aber gegeben das wir ein Rad haben, ein Baum, usw. wird jeder für sich modelliert und irgendwie müssen wir sie zusammenbasteln um eine Welt zu haben. Ich muss eine Transformation, bzw. Repräsentationale Abbildung, zwischen den verschiedenen Objekten und die Welt an sich.

Aber World Koordinate sind wo die Beleuchtung stattfindet, dann müssen wir diese Viewing Fenster / Window / clipping Fenster definieren, dieser Clipping Fenster definiert dann was wir nehmen, der viewing coordinate definiert wo es hingeht… usw. {World to Viewpoint ist eine Abbildung}. Dann normalisieren wir das und projizieren es auf das Gerät und das ist reine 2D. In 3d kommt eine 3d of 2d projkektion dazu.

For 3D Pipeline: ….. – viewing coordinates ⟶ [projection to viewing plane] – projection coordiante ⟶ [transformation to normalized…]….

71
Q

Was ist Clipping?

A

Da wir nur was in dem Clipping-Fenster drinnen ist behalten wollen, und das was draußen ist nicht, wird Clipping benutzt um die neuen Informationen hinzuzufügen

Wenn wir einfach alle Punkte die draußen sind ignorieren, dann haben wir auch die Linien die auf den Punkten basiert sind nicht mehr (da nur die Punkte haben eine Existenz, die Linien sind immer auf die Punkte basiert). Deshalb ist es keine gute Idee alle Punkte die draußen sind einfach zu ignorieren. Scrolled Wrapping kann benutzt werden um das alles im Fenster zu zeigen, aber das ist auch doof. Am Ende was man tut, ist einfach abschneidet.

Clipping is the method of cutting away parts of a picture that lie outside the displaying window (see also picture above). The earlier clipping is done within the viewing pipeline, the more unnecessary transformations of parts which are invisible anyway can be avoided.

72
Q

Was ist Parallel Projektion?

A

Linien die parallel sind, blieben so (Größenverhältnis ist behalten).

A parallel projection is a projection of an object in 3D space onto a fixed plane (referred as the projection plane or image plane), where the rays (known as lines of sight or projection lines) are parallel to each other. The projection is referred to as orthographic if the rays are perpendicular to the image plane and oblique or skew if they are not.

73
Q

Was ist der Unterschied zwischen Orthographic und Oblique Projektion?

A

Beides sind Parallele Projektionen (lines that are parallel in the source are parallel in the projection).

In an orthographic projection, the projector lines intersect the plane being projected on to at a perpendicular angle (thus, they are orthogonal, hence the name of the projection), whereas in an oblique projection those lines form oblique angles (non-right angles) with the projection plane.

74
Q

Was ist Perspektivische Projektion?

A

Perspektivische Projektion: Realistisch
- It is a linear projection where 3D objects are projected on a picture plane. This has the effect that distant objects appear smaller than nearer objects.

A perspective projection can be described as the projector lines (lines of sight) that converge at the center of projection, which results in many visual effects of an object. Perspective projection depends on the relative position of the eye and the viewplane. A perspective projection of an object is often considered more realistic than a parallel projection, since it nearly resembles human vision and photography.

75
Q

Was ist Begrenzung / ein Begrenzendes System im Prinzip?

A

Beispiel: Boundary Representations (B-Reps)

Das Objekt ist von einer Menge von Grenzenoberflächen eingeschlossen. Die Oberflächen (bzw. jede Grenzoberfläche) sind von Grenzkurven eingeschlossen. Grenzoberflächen haben i.d.R. eine kompakte, mathematische Repräsentation (Ebene, Toroid, Zylinder, Parametrisch)

Viele Programme benutzen B-Reps um Körper zu speichern

BReps brauchen zusätzliche Randbedingungen, um sicher zu sein, dass der Körper immer geschlossen, komplett, usw. ist.

  • Jede Grenzoberfläche ist eine geschlossene Oberfläche, hat eine Oberflächennormale, und kann nicht eine andere Grenzenoberfläche durchschneiden
  • Jede Kante muss zwei Eckpunkte verbinden und kann höchstens zwei Oberflächen angrenzend sein
  • Jeder Eckpunkt muss mindestens 3 Kanten treffen

BRep is a mathematically precise representation of a 3D object. This representation defines the geometric boundaries between solid and non-solid geometries. The shape and contours of a BRep object are not built out of reducible objects like polygons or vertices. Instead, a BRep object is defined by the mathematical relationships between its surfaces.

Vorteile:

  • BRep objects are mathematically precise, and allow designers and engineers to build “perfect” representations of their designs
  • Unlike other forms of modeling, BRep allows you to “zoom in” without losing “resolution.” A BRep curve will remain curved at every level of magnification

Nachteile:

  • BRep file formats are heavy, and store a lot of meta-data that takes up disk space
  • When an object needs to be visualized, rendered, or animated – BRep takes too much processing power
  • Organic / natural objects are hard to recreate with the precise mathematical formulas of BRep
76
Q

Was ist Photogrammatic?

A

Es ist eins der 3 Einscannen-verfahren. Es benutzt viele Kameras, macht Bilder damit, und bringt die Objekte die in den Bildern abgebildet sind mit einander in Korrespondenz. Das heißt, dass die Kernproblematik Korrespondenzprobleme sind. (e.g. ich hab Foto 1&2, woher weiß ich auf welches Objekt Pixel 12 in Foto 1 auf Foto 2 geht. Wenn es nur 90 Grad Winkel dazwischen gibt, dann ist es nur Epipolar geometry und man bekommt es schnell hin, wenn es komplexer ist, muss man eindeutig Linien drauf zeichnen, usw.)

2 Varianten:

  • Strukturiertes Licht = Projiziert Barcode drauf und versucht dann einen zeitlichen Barcode benutzen um eine eindeutige Korrespondenz zu definieren
  • Optical Tracking = Outside in, Inside out (Infrarot-Licht und die Punkte was in Movies/Video Spiele hauptsächlich benutzt wird)

In kurz: Photogrammatic benutzt viele simultan aufgenommene Bilder, und berechnet die 3D-Daten durch Triangulation.

Einfachste Methode = Zwei Photos, die auf das Objekt zielen, aber die 90 Grad zu einander stehen.
- Probleme: Selbstverdeckung, Objektiv-basierte Verzerrung (Perspektivische Projektion)

Komplexere Methode = Mindestens zwei Kameras, die festmontiert sind, und 6 bekannte “Anhaltspunkte”.

77
Q

Was ist eine Bezier Kurve?

A

A Bézier curve is a parametric curve used in computer graphics and related fields.

Bezier curves are used in computer graphics to produce curves which appear reasonably smooth at all scales (as opposed to polygonal lines, which will not scale nicely).

78
Q

Was ist die Grundidee von Einscannen?

A

Digitale Darstellung von Objekten. Spart Zeit und erlaubt einem aktuell vorhandenen Design/Objekte neu zu erstellen, verbessern, usw.

Vorteile: schnelle Datenerfassung, einfache Informationserfassung, gute Genauigkeit, kosteneffizient

Nachteile: Initialkosten, Line of Sight Einschränkungen, Umgebungstörungen

79
Q

I_λ = O_dλ I_aλ k_a + f_att I_lλ (O_dλ k_d (NL) + k_sλ O_sλ (RH)^n)

Was für eine Gleichung ist dies, und was bedeuten die verschiedene Variablen?
I, λ, f att, N, R, L, k, H, m, O, n

A

Diese Gleichung ist der Grund von Beleuchtung an sich -> man hat ein Punkt den man schieben, drehen, skalieren kann, und den muss man beleuchten. Dafür braucht man die 3 Transformationen.

Die Verschiedene Variablen bedueten:

  • I = Beleuchtungsintensität
  • λ = stellt einfach einen Punkt auf der Oberfläche dar (hat mit wavelength / distribution of wavelength at a given piont zu tun)
  • O = Farbmodifikator der Oberfläche (wie Oberfläche zu Farbe reagiert)
  • k = Beleuchtungskonstante (wie stark geht Ambient/Diffuse/Specular)
  • f att = Attenuation Factor (makes intensity of light smaller, since light gets weaker with distance)
  • N = Oberflächennormale
  • L = Richtung der Beleuchtung / Lichtquelle
  • R = Reflektionsrichtung
  • H = Blinn-Phong-Komponente, bzw. Halbvektor der beinhaltet die Normalisierung des Licht-Vektors und des Viewing-Vektors (Halb-Vektor, der L und V beinhaltet)
  • n = Exponent, der bestimmt, wie breit der Specular Highlight ist
  • m = die unterschiedlichen Lichtquellen, die man haben könnte
80
Q

Was ist Ray-Tracing?

A

Grundidee: folgt Lichtstrahl vom Auge (oder der Kamera) zurück zur Lichtquelle.

Schattenberechnung: Man sendet von den Auftreffpunkten des Sehstrahls Schattenstrahlen zu den Lichtquellen der Szene. Wenn kein undurchsichtiges Objekt zwischen auf eine Schattenstrahle liegt, trägt sie zur (lokalle) Beleuchtung bei.

3 sekundäre Strahlen, die in jedem Auftreffpunkt erzeugt werden:
- Primärstrahl a vom Betrachter
- Sekundärstrahl l zur Lichtquelle (Schattenstrahl)
- Sekundärstrahl r (perfekt reflektierter Strahl)
- Sekundärstrahl t (gebrochener Strahl)
Eine Lichtquelle beeinflusst die Beleuchtung direkt nur wenn es keine Objekten dazwischen gibt.

Raytracing ist eine Rendering-Technik (Rekusriv) zur Erzeugung eines Bildes, bei der der Weg des Lichts als Pixel in einer Bildebene nachgezeichnet und die Auswirkungen seiner Begegnung mit virtuellen Objekten simuliert werden.

Diese Technik ist in der Lage, einen hohen Grad an visuellem Realismus zu erzeugen, mehr als typische Scanline-Rendering-Methoden, jedoch mit einem höheren Rechenaufwand.

Raytracing folgt allen Strahlen vom Auge des Betrachters zurück zu den Lichtquellen.
Raytracing ist besonders gut bei der Wiedergabe von Punktlicht, specular reflection und refraction.

Bei Raytracing gibt es 3 möglichkeiten: das licht kommt von einem Objekt dahinter (transparency), es kommt von einem Objekt davor (reflection), oder es kommt direkt vom licht (um dies zu kalkulieren können wir Blinn-Phong benutzen, oder noch besser, wir benutzen Radiosity).

81
Q

Was sind die einzelnen Schritte (aka der Pseudocode) von Ray-Tracing?

A
  1. bestimme nächstliegenden Schnittpunkt des entspr Sehstrahls mit einem Objekt der Szene
  2. berechne ideal reflektierten Lichtstrahl
  3. berechne die Leuchtdichte aus dieser Richtung
  4. berechne ideal gebrochenen Lichtstrahl
  5. berechne die Leuchtdichte aus dieser Richtung
  6. berechne Schattenstrahl(en) zu den Lichtquellen
  7. werte das (Phong-)Beleuchtungsmodell an dieser Stelle aus und addiere die gewichteten Leuchtdichten des reflektierten und des gebrochenen Sekundärstrahls

Die Gleichung (für shadow ray along l) ist I = k_a I_a + I_l (k_d (NL) + k_s (HN)^n_s)

82
Q

Was ist der Unterschied zwischen Ray Tracing & Radiosity?

A

Beides sind „globale“ Verfahren und werden eingesetzt bei angestrebtem hohen Grad an Fotorealismus.

Der Unterschied ist der Anfangspunkt: Das Raytracing folgt allen Strahlen vom Auge des Betrachters zurück zu den Lichtquellen. Radiosity simuliert die diffuse Ausbreitung des Lichts ausgehend von den Lichtquellen.

Raytracing ist besonders gut bei der Wiedergabe von Punktlicht, specular reflection und refraction. Radiocity hingegen rendert effektiv Modelle, die Flächenlichtquellen enthalten, und kann diffuse Reflexionen, realistische Schatten und Farbverblutungseffekte erzeugen

Aka -> Ray tracing follows all rays from the eye of the viewer back to the light sources. Radiosity simulates the diffuse propagation of light starting at the light sources.

Ray tracing is particularly good at rendering point light, specular reflection, and refraction. Radiocity, on the other hand, effectively renders models containing area light sources, and can produce diffuse reflections, realistic shadows and color bleeding effects.

83
Q

Was ist Re-Parameterization?

A

Es ist ein “fancy” Begriff für Repräsentation, und das war es eigentlich.

Die Idee ist: Ich habe eine Gerade (eine Geometrische Form), die Gerade will ich aber nicht haben, sondern die Algebra dahinter.

Beispiel 1:

Das erste was wir tun, ist eine algebraische Gleichung für die geometrische Form zu definieren. Das ist eine Funktionale Isomorphismus / eine Repräsentation.

In der Regel haben wir aber nicht die Gleichung an sich, sondern entweder die parametrische Form oder bloß Punkte. Wenn wir Punkte haben (z.B. eine Linie), dann müssen wir dies zu einer parametrischen Funktion umwandeln (für Punkte weiß ich, dass wenn ich Parameter wert 0 habe, dass x=0&y=0, usw. z.B)

Man kann aber auch, ohne Verlust von Allgemeinheit, noch einen weiteren Parameter mit reinnehmen. Man kann damit steuern, wie die Punkte gesammelt sind, gegeben dass ich die Punkte habe, parametrization gewinne, um-parameterizieren, um dann bestimmte Formen oder Eigenschaften zu haben. Das ist die einfachste Form von Re-Parameterization.

Beispiel 2:

Eine andere Form wäre Koordinatensystem-Transformation -> Wenn wir eine Sphäre haben, wollen wir lediglich die Punkte auf der Oberfläche dieser Kugel haben. Die Kugel ist im Kartesischen Raum. Um es einfacher zu machen, wir dies häufig um-gebastelt in ein Polar Koordinatensystem. Damit kann ich eine zylindrische oder kubische Form wie ein Kopf oder eine Kaffeetasse gut definieren in dem ich einfach für jeden Strahl der von Zentrum des Objekts rausgeht den Radius angebe.

Durch die Konvertierung von sphärischen Koordinaten haben wir eine 3d-Fläche in eine 2d-Darstellung umgewandelt.

84
Q

Was ist Fourier-Analyse (Fourier-Transformation)?

A

Fourier-Analyse (Fourier-Transformation) wird zur Abbildung zwischen Ortsraum (Spatial Domain) und Frequenzraum (Frequency Domain) verwendet
- Statt Ortsraum f(x) wird oft Zeitraum f(t) verwendet

85
Q

Was ist ein Voronoi-Diagramm?

A

GEG.: eine Menge von Punkten Q={q_1,…,q_k} aus R^n und eine Distanzfunktion dist(q,r)
DEF.: Das Voronoi-Diagramm Vor(Q) enthält für jeden Punkt q_i eine Zelle V(q_i) mit V(q_i)={q|dist(q,q_i) wir sagen die 2 haben eine gemeinsame Voronoi-Kante, deswegen können wir die verbinden. Eine Duale-Graph von einem Voronoi-Diagramm ist eine Delaunay-Triangulation und das ist eine optimale Triangulation.

_
Im Prinzip, das einfachste ist das man fängt einfach irgendwo mit 2 Punkte an, definiert den halb-raum dazwischen (die Voronoi-Kante dazwischen) und dann fügen wir noch einen Punk dazu und aktualisieren alle Kanten. Am Ende bekommt man dann ein vollständiges Voronoi-Diagramm.

Der Sinn für uns von einer Voronai Diagramm ist dass es uns erlaubt die Abtastpunkte / die Vertices / die Topologie zu finden ohne das wir es per Hand definieren müssen. Es gibt uns die Dreiecke die wir für Gouroud Shading, Phong Shading, usw. brauchen. Es gibt uns die Dreiecke die wir für Visibility und überhaupt für unsere Objekte brauchen. In der Regel ist unser Objekt nur die Stutzpunkte, und die Oberfläche rekonstruieren wir in dem wir die Dreiecke, Topologie, und Kanten zwischen Punkten finden

86
Q

Was sind Voronoi-Zellen, Voronoi-Kante, Voronoi-Knoten, und natürliche Nachbarn?

A

Voronoi-Zelle = Halbraum / Die gesamte Nachbarschaft was den Stutzpunk gehört.

Voronoi-Kante = die perfekte Äquidistanz zischen 2 Stutzpunkten. Alle Punkte an.

Voronoi-Knoten = wo mindestens 3 Kanten sich treffen. Alle die Punkte an diesem Voronoi-Knoten sind äquidistant zu mindestens 3 Stutzpunkte.

Natürliche Nachbarn = Stutzpunkte die eine gemeinsame Voronoi-Kante haben sind natürliche Nachbarn.

87
Q

Was ist eine Delaunay Triangulation?

A

Der Duale Graph des Voronoi- Diagramms Vor(Q) wird Delaunay- Graph Del(Q) genannt. Eine Duale-Graph von einem Voronoi-Diagramm ist eine Delaunay-Triangulation und das ist eine optimale Triangulation.

Die Punkte einer Delaunay-Zelle liegen auf einem Kreis. Wenn keine 4 Punkte auf einem Kreis liegen, sind die Punkte Q in allgemeiner Position und der Delaunay-Graph ist eine Triangulierung. –> eine Triangulierung des Delaunay-Graphs wird Delaunay-Triangulierung genannt.

Beispiel:
Eine Delaunay Triangulation wäre, wenn ich alle natürlichen Nachbarn eines Voronoi-Diagramms verbinde. Das wäre die Vollständige Triangulation (blaue Linie). Um die Kurve zu rekonstruieren behalten wie diese Linie, da die Kurve von einem Punkt zu einem andereren geht. Ganz genau wo die Kurve ist wissen wir nicht, nur das sie von ein Punkt zum anderen geht, was wir durch die Kanten wissen (die durch die Kurve schneiden), die wir behalten haben. Es ist eine Schnittstelle zwischen Voronoi-Kante und die Kurve. Wenn wir das tun bekommen wir eine Rekonstruktion der Kurve.
Was man auch nehmen kann, ist die Medial Axis. Die Medial Axis ist genau die Linie in der Mitte, die von mindestens 2 Punkte genau gleich entfernt ist (die Oberste Kante, und die Unterste Kante). Es ist fast so wie ein Skelet, da es steht genau (per Definition) in der Mitte des Objekts.

Gegeben ein Voronoi Diagramm können wir die Kurve rekonstruieren, aber auch das Skelet einer Volumen finden. Desshalb ist eine Voronoi Diagramm und die dazu passende Delaunay Triangulation sehr wichtig.

IN KURZ: eine Delauny Triangulation ist eine Art Algorithmus wie man aus einem Eingescannten Objekt eine sinnvolle Triangulation bekommt

{Man kann es aber missbrauchen um andere Sachen zu tun: z.B. gegeben das man weiß wo die Kurve ist, könnte man checken ob es optimal abgetastet ist oder ob es eine engere Abtastung braucht (in dem man neue Punkte hinzufügt), oder vlt merkt man, dass ein Scan nicht optimal ist, dann kann man mehr hier oder da wegstecken, oder man könnte das Zentrum/Skelet herausfinden von ein eingescanntes Objekt um es dann bewegen zu können, z.B.}.

In erster Linie ist es aber dafür um eine Triangulation zu finden.

88
Q

Was ist die Basis von Lokale Beleuchtung?

A

Licht wird durch seine Interaktion mit eine Oberfläche strukturiert.

Diese Interaktion wird von mehrere Faktoren beeinflusst:

  • Eigenschaften der Lichtquelle
  • Evtl. durch weitere „Objekte“ (z.B., Nebel)
  • Optische Eigenschaften des beleuchteten Materials (durch die Struktur, Aufbau und Bearbeitung der Oberfläche bestimmt)

idR gibt es viele Vereinfachungen, z.B. wo nur betrachtet wird:

  • Lichtquellen (emittieren Licht)
  • Objekte (absorbieren, reflektieren, transmittieren Licht)

Ignoriert wird dabei:
- Atmosphärische Effekte (e.g., Nebel), Diffraktion (Beugung), Refraktion (Brechung), Dispersion (Streuung), Interferenz, Polarisation, usw…

89
Q

Was ist die Texture pipeline?

A

Hat mit “Adding Surface Detial” und Texture Mapping zu tun.

Texturierung = die Oberfläche z.B. einer Wand kann (zunächst) als ein einziges Polygon modelliert werden. Das Objekt “tapezieren” – kann als Aufbringen eines Bildes auf die Oberfläche interpretiert werden.

Ein Muster (Textur) wird auf einer Oberfläche abgebildet.

Pipeline Stufen:
- [Texture Space (Array Coordinates)] – Texture-Surface Transformation ⟶ [Object Space (Surface Paramaters)] – Viewing & Projection Transformation ⟶ [Image Space (Pixel Coordinates)]

2 Hauptideen:

  • Oberflächendetailpolygone (Basispolygone & Detailpolygone), ist aber aufwändig
  • Benutze 2D Bilder, die auf die Oberfluache eines 3D-Objketes abgebildet wird
90
Q

Was ist erforderlich für 3D Viewing?

A

Kamera Position, Richtung, Orientation, und “fenster” (Kameraöffnung / aperture).

3D Viewing Pipeline sieht so aus wie 2D Pipeline aus, nur dass eine 3d of 2d projkektion dazu kommt.

For 3D Pipeline: ….. – viewing coordinates ⟶ [projection to viewing plane] – projection coordiante ⟶ [transformation to normalized…]….

2D:
– Model (or Objekt) Coordinates ⟶ [construction of objects and scenes] – World coordinates ⟶ [definition of mapping region + orientation] – Viewing Coordinates ⟶ [transformation to normalized viewing frame] – Normalized Coordinates ⟶ [mapping to deveice dependent values] – Device Coordinates ⟶

91
Q

Was ist 3d auf 2d Projektion? / Wie wird es gemacht?

A

Parallel / perspective projection

92
Q

Was sind Cavalier und Cabinet?

A

Cavelier Parallel Projection = depth of the cube is projected equal to the width and the height

Cabinet Parallel Projection = depth of the cube is projected as one-half the width and height

93
Q

Warum würde man Parallel oder Perspektivische Projektion wählen?

A

Perspektivische = realistisch aber rechenintensiv.

Parallel = weniger rechenintensiv und mehr exakt. Behält metrische Qualitäten die identisch mit dem Original sind.

Parallele Projektion behält halt Seiten-/Größenverhältnisse bei und erlaubt einem so also genauer zu sagen, wie lang Seiten sind, ist halt z.B. wichtig im Ingenieursbereich, wobei Perspektive halt mehr Realismus gibt.

94
Q

Was ist der Unterschied zwischen ein Repräsentationssystem und ein Repräsentationales System?

A

Repräsentationales System hat mit Abbildungen von Entitäten/Einheiten, Operationen und Beziehungen zu tun. Repräsentationssystem hat mit Systemen zu tun die 2 Notwendige Elemente (Große Domäne & Eindeutig) haben, sowie evtl. auch einige der weiteren 6 wünschenswerte Elemente.

95
Q

Spacial Numeratoin vs. Hierarchical Enumeration

A

Der Grad der Kompaktheit ist der Hauptunterschied

Beide können gleich genau sein, aber Spacial ist sehr ineffizient (zu viel Spacial). Hierarchisch hingegen können wir durch Octrees effizienter machen, aber kann ebenso genau sein.

96
Q

Erkläre das Konzept von Fourier-Raum/Frequenzraum

A

Konzept von Fourier-Raum ist einfach das wir die diversen Frequenzen (also langsame Änderungen und schnelle Änderungen) die Amplitude jeweils repräsentieren können. Wenn wir das Signal mit gewisse Filter falten, dann kriegen wir was.

Fourier-Raum ist essenziell Frequenzruam, und bezieht sich eigentlich auf Fourier-Transformation, was von Ortsraum (normal space) zu Frequenzraum (frequency space) geht.

Je nachdem wie viel Filter wir wechseln können, können wir dann mehr Frequenzen wegfiltern sodass es noch sanfter ist, oder weniger sodass es schneller ist.

Im Frequenzraum ist es lediglich Multiplikation, im Ortsraum ist es eine Verschiebung von Multiplikation. Die Multiplikation geht uns nicht an, aber dass wir Tiefpass Filter haben um Frequenzen zu entfernen und Hochpass Filter um Kanten zu betonen ist wichtig

97
Q

Hochpassfilter vs. Tiefpassfilter vs. Band-Pass

A

Tiefpassfilter (aka Linearer Filter oder Glättungsfilter) = Schneidet Frequenzen ÜBER einer Grenzfrequenz v0 ab, durch Faltung mit sin-Funktion. Sieht meistens Blurry aus.

  • Zweck: Glätten von scharfen Kanten, Ruaschunterdrückung
  • Beispiele: Rechteck-Filter (Box-Filter), Dreieck-Filter, Gauss-Filter (curved, aka not as sharp as Dreieick)

Hochpassfilter (aka Kantenfilter) = Schneide Frequenzen UNTER einer Grenzfrequenz v0 ab, durch Faltung mit sin-Funktion. Sieht meistens sehr scharf/kantig aus.
- Zweck: Erkennen/betonen von Kanten

Band-Pass = Betonung von Mittelfrequenzen.

Dies ist alles möglich (diese Filter zu setzen), da das Objekt erst in eine Polar Koordinatensystem Transformiert wurde. Dadurch sieht man warum/wie das Koordinatensystem, bzw. Gittersystem, wichtig ist (sowie das Konzept von Repräsentation)

98
Q

Was ist eine Deformation?

A

Eine Deformation hat mit bend, twist, skew, taper, squash, stretch, usw. zu tun.
Structure Deforming Transformations:
- Taper basiert auf Skalierung.
- Twist basiert auf Drehung (Der Winkel wird durch eine Funktion ersetzt).
- Bend ist eine nicht lineare Drehung (Der Winkel wird durch eine Funktion ersetzt).
- Usw…

Die 4 Hauptformen von Deformationen sind Curve-Based (auch Surface-Based oder Equation-Based), Frequency-Based, Freeform, und Cage-Based!

Wenn man ein Punkt auf einer Kurve bewegt, muss man wissen, was mit den anderen Punkten passiert, sowie was mit den Punkten dazwischen ist.

Einfachste Version wäre nur den einen Punkt zu bewegen, und Linear Interpolation zwischen den Punkten.

Interessanter ist, wenn man Nachbarpunkte auch bewegt, und Transformation interpoliert als eine “function of distance” (Linear Interpolation zwischen den Punkten).

In Blender gibt es 3 Optionen: Local Transformation (nur den einen Punkt), Smooth Transfer Function (concave), oder Sharp Transfer Function (convex)

99
Q

Was sind die wichtigsten Definitionen von einer Deformation einer Kurve?

A

C ⟶ Originale Kurve
C‘ ⟶ Kurve nach Deformation
P = {p0, p1,…,pn} ⟶ Alle (n+1) Punkte auf Kurve C
P‘ = {p‘0,…,p‘n} ⟶ Alle (n+1) Punkte auf Kurve C‘
D(pi) ⟶ Die Deformation am Punkt p_i
T ⟶ Die Volle Transformation (an den “handle” Punkten)

p’i = pi +d(pi) ∀ pi∈C ⟶ Deformiert Kurve C zur Kurve C‘

H = Handle Region ⟶ Mittlepunkt (wo hochgezogen wird)
F = Fixed Region ⟶ Außerhalb der Deformierten Region
R = Rest ⟶ Der Ort um den Handle herum, aber innerhalb der Fixed Region
S = Originale Surface ⟶ Die gesamte Surface inkl. F, R, H
S‘ = Surface nach Deformation

Distance Function:

  • Bestimmt, wie viel von der Deformation die Punkte in R erhalten sollen (je weiter sie von H entfernt sind, desto weniger sind sie deformiert)
  • K(p) = dist F(p) / {dist F(p) + dist H(p)}
100
Q

Was ist die Distance Function für Deformationen?

A

Es bestimmt, wie viel von der Deformation die Punkte in R erhalten sollen (je weiter sie von H entfernt sind, desto weniger sind sie deformiert)
- K(p) = dist F(p) / {dist F(p) + dist H(p)}

K = wie viel Deformation der Punkt bekommt
F = Fixed Region
p = der Punkt
H = Handle Region
dist F(p) = die Distanz von Punkt p zur Fixed Region F
dist H(p) = die Distanz von Punkt p zur Handle Region
101
Q

Was ist Curve-Based (Surface-Based / Equation-Based) Deformation?

A

Equation-Based = Gleichungsbasiert

Distance Function ist hier sehr wichtig: K(p) = dist F(p) / {dist F(p) + dist H(p)}
Es wird damit bestimmt, wie viel von der Deformation die Punkte in R erhalten sollen (je weiter sie von H entfernt sind, desto weniger sind sie deformiert)

Man kann die Distance Function verwenden, um die Deformation als Funktion des Abstands zu modifizieren. Man kann sie aber auch modifizieren, um andere Interpolationen durchzuführen.

Problem: Physikalisch falsche (oder nicht-intuitive) Interpolation innerhalb des Handles

Lösung: Optimieren für eine geometrische Eigenschaft (durch Energy-Functoins ähnlich wie bei Fairing)

  • Energiefunktion, um die Oberfläche zu minimieren
  • Energiefunktion, um die Krümmung (curvature) zu minimieren
  • Energiefunktion, um die Dehnung und Biegung (streching and beding) zu minimieren (bzw. Energiefunktion, um die Variation der Krümmung {curvature} zu minimieren)
102
Q

Was ist Frequency-Based Deformation?

A

Hat mit Frequenraum zu tun (mit Tiefpass- und Hochpassfilter).

Definiert die Oberfläche als “basis plane” und “details” (Hochfrequenz).
- Basis-Pane ist dabei die mittel der Frequency. Die Details sind alles über oder unter dieser “basis plane”.

Problem: Das Speichern der “Displacements” im globalen Koordinatensystem führt nicht zum gewünschten Ergebnis.

Lösung: Die Details sind Abweichungen von der “Basis Plane” entlang der Richtung der Normalen… Normal-based (was wir haben wollen) vs. Global Coordinate System (geht immer noch nach oben).

103
Q

Was ist Keyframing?

A

Parametrisches Keyframing = eine Zeichnung, die den Anfangs- und Endpunkt einer “smooth transition” definiert.

Keyframes = ausgewählte Standbilder, die vorgegeben sind.

Ziel = möglichst stufenloser Übergang

Computer-Version der traditionellen Keyframe-Animation.

3D-Parametrisches Keyframing:

  • Szenenbeschreibung wird parametrisch dargestellt
  • Parameterwerte werden für Keyframes eingestellt
  • Inbetweens (die entsprechenden Parameter) werden durch Interpolation ermittelt

Vorteile:

  • universelles Animationsverfahren: anwendbar auf alle Modell-, Szenen- und Rendering-Parameter
  • Parameter und Änderungsverhalten vollständig unter Benutzerkontrolle
  • kombinierbar mit anderen Verfahren

Nachteile:

  • nicht jeder Parameter eignet sich für eine Interpolation
  • bei einigen Parametern zusätzliche Umformungen / Darstellungen nötig – Bsp. Rotationen (Euler-Winkel etc.); Farbspezifikationen (evtl. Wechsel des Farbmodells, um natürlichere Farbabstände zu erhalten)
  • oft Schwierigkeit, verschiedene Parameter miteinander zu koordinieren: beachte Abhängigkeiten zwischen Parametern
  • ggf. sehr viele Parameter zu kontrollieren: einige Hundert oder Tausend
  • wünschenswert: Berücksichtigung von Einschränkungen, die sich z.B. durch physikalische Randbedingungen ergeben (dies ist zunächst nicht gewährleistet – sehr große Freiheiten!)
104
Q

Was sind Blend Shapes?

A

Wird für die Modellierung von “poses” oder Ausdrücken verwendet.

Jeder gegebene Rahmen ist ein “weighted average” vieler dieser Posen.

105
Q

Was sind Velocity Curves?

A

Goal: Translate a rigid object through space

Ziel: Ein rigides Objekt durch den Raum verschieben