Joeys 3D Questions (2024) (!!!!!!!) Flashcards

Enthält alle Joey Fragen, wenn er diese nach dem Fachbereichsfeedback nicht abgeändert hat.

1
Q

Unterschied Kopie & Instanz? (asked 2024)

Bonus: Erkläre anhand eines selbst ausgedachten Beispiels!

A

Instanz: Verweist auf das Originalobjekt und übernimmt alle Änderungen, kann jedoch eigenständig transformiert werden.

Kopie: Ist ein vollständig unabhängiges Duplikat des Originalobjekts und kann unabhängig verändert und transformiert werden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Parent Child Beziehung? - Unterschied zum Parent Constraint? (asked 2024)

Bonus: Erkläre anhand eines selbst ausgedachten Beispiels!

A

In Parent-Child-Beziehungen werden alle Transformationen entlang der lokalen Achse des Parents auf die Childs übertragen. Es handelt sich um eine hierarchische Objektbeziehung mit mehreren möglichen Childs.

Beim Parent Constraint ist der Einfluss (Weight) der Transformationen des Target-Parents einstellbar. Mehrere Target-Parents sind möglich, und es können spezifische Transformations-Parameter (x, y, z) gewählt werden. Die Skalierung wird nicht übernommen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Was ist PreViz und warum ist das in den letzten Jahren so wichtig geworden?

A

Previs (Previsualization) ist eine detaillierte, oft 3D-animierte Planung von Szenen zur Visualisierung von Kameraeinstellungen und visuellen Effekten, während
Animatics einfache, animierte Storyboards zur Planung der Erzählstruktur und des Timings dienen;
Postvis (Post-Visualization) kombiniert in der Nachbearbeitung reale Szenen mit computergenerierten Effekten, um den finalen Schnitt zu verfeinern.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Unterschied Game Asset – VFX Asset?

A

Game Assets: Optimiert für Performance, benötigen geringe Polygonanzahl, verwenden meistens Normalmaps, LODs und Mip Maps. Müssen aus allen Blickwinkeln gut aussehen.

VFX Assets: Höhere Polygonanzahl möglich, Detailgrad je nach Relevanz, weniger auf Performance optimiert, Optimierung nur bei Animationen notwendig.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Unterschied VFX – SFX

A
  • VFX (Visual Effects):
    • Werden in der Post-Produktion hinzugefügt.
    • Beispiele: Digitale Effekte, Computergenerierte Elemente, 3D-Modelle.
  • SFX (Special Effects):
    • Werden während der Produktion verwendet.
    • Beispiele: Feuer, Nebel, Animatronics.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Was ist das Uncanny Valley? (asked 2024)

A

Uncanny Valley:

Ein Phänomen, bei dem künstliche Charaktere zunächst gut akzeptiert werden, aber bei fast menschenähnlicher Darstellung plötzlich abgelehnt werden. Erst bei extrem realistischer Darstellung verbessert sich die Akzeptanz wieder. Das Konzept wurde 1970 von Masahiro Mori eingeführt und stammt aus der Robotik.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Was ist FACS? (asked 2024)

A

FACS (Facial Action Coding System):

Ein System zur Beschreibung von Gesichtsausdrücken, entwickelt von Paul Ekman 1978. Es verwendet 46 „Action Units“ zur Darstellung und Kombination von Basis-Emotionen wie Wut, Freude, Trauer, Ekel, Verachtung, Angst und Überraschung. Auch KI nutzt FACS zur Analyse von Gesichtsausdrücken.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Color Grading / Color Correction?

A

Color Correction:

Anpassung von Farbwerten durch Transformationen wie Linear zu ACES oder Log zu Rec.709, oder durch Angleichen an einen Color Chart/Color Checker.

Color Grading:

Ein künstlerischer Prozess zur Definition und Verstärkung der Atmosphäre eines Films.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Schildere den Ablauf eines Animationsprojekts!

A

Idee – Konzept – Teamaufstellung – Projektplan/Kostenplan/Zeitplan/etc. – Storyboarding – PreViz – Animatic – Production (Character, Animation, Effects, Audio, Modelling, etc.) – (PostViz) – Compositing – Grading – Export

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Utah – Teapot?

A

Das Utah Teapot wurde 1975 von Martin Newell an der Universität Utah erstellt. Es ist ein Referenzmodell in der Computergrafik, bekannt für seine Sattelpunkte und konkaven Elemente. Es wird als Bezier-Fläche beschrieben und gilt als Ikone in der Computergrafik.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Fraktale? (asked 2024)

A

Fraktale:

Bezeichnet von Benoît Mandelbrot 1975. Fraktale haben eine gebrochene Hausdorff-Dimension und bestehen aus selbstähnlichen, sich wiederholenden Strukturen (z.B. Koch-Snowflake). Sie basieren auf Selbstähnlichkeit und Skalenvarianz und sind in der Natur (Bäume, Blutgefäße, Flusssysteme) zu finden. In der Computergrafik werden Fraktale für prozedurale Texturen, Shader, Simulationen und 3D-Fractal-Art verwendet.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Was ist Mipmapping?

A

MIP-Mapping:

Eine Technik zur Verbesserung der Texturqualität bei Skalierung. Sie erstellt Texturen in verschiedenen Auflösungen und wählt je nach Größe des Bildpixels die passende MIP-Map aus. Das reduziert Aliasing und verbessert Bildqualität und Speicherbandbreite.

Trilineare Filterung:

Ergänzt MIP-Mapping, indem sie benachbarte MIP-Maps interpoliert, um Banding-Effekte zu minimieren und Texturen gleichmäßiger darzustellen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Was ist die Rotation Order?

A

Die Rotation Order gibt die Reihenfolge an, in der Rotationen um die Achsen eines Koordinatensystems ausgeführt werden. Sie ist wichtig aus folgenden Gründen:

  1. Vermeidung von Gimbal Lock: Verschiedene Rotationsreihenfolgen können Gimbal Lock vermeiden oder minimieren, indem sie verhindern, dass zwei Achsen der Rotationsebene zusammenfallen.
  2. Konsistenz und Standardisierung: Die Festlegung einer Rotation Order sorgt für Konsistenz und Standardisierung bei der Animation und Datenübertragung, was wichtig ist, um sicherzustellen, dass Rotationsergebnisse über verschiedene Systeme hinweg übereinstimmen.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Wer war Lotte Reiniger?

A

Lotte Reiniger (1899-1981) war eine Pionierin der Silhouetten-Animation. Sie ist bekannt für ihren abendfüllenden Trickfilm „Die Abenteuer des Prinzen Achmed“ (1926), der als der erste erhaltene abendfüllende Animationsfilm gilt. Reiniger erfand die „Multi-Camera-Plane“, eine Technik, die später von Disney weiterentwickelt wurde. Ihre Filme basierten oft auf Märchen. Sie floh mit ihrem Ehemann vor den Nazis, wurde jedoch gezwungen, Propagandafilme zu produzieren.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Wer war Walt Disney?

A

Walt Disney (1901-1966) gründete 1923 mit seinem Bruder die Walt Disney Company in Hollywood. Er wurde 1928 durch Mickey Mouse berühmt und revolutionierte Zeichentrickfilme mit Ton und Farbe. 1937 veröffentlichte er den ersten abendfüllenden Zeichentrickfilm „Schneewittchen“ und prägte sich als führender Märchenerzähler der Nation.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Wer war Ray Harryhausen?

A

Ray Harryhausen (1920-2013) perfektionierte die Stop-Motion-Animation. Berühmt für Filme wie „Jason and the Argonauts“ (1963), beeinflusste er die Spezialeffekte-Industrie.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Wer war Ruth Weiss?

A

Ruth Weiss entwickelte 1965 bei Bell Labs den Hidden-Line Removal Algorithm. Dieser Algorithmus teilt Kanten in Linien-Segmente an Raster-Schnitten und prüft die Sichtbarkeit jedes Segments gegenüber den Flächen des Modells. Beziehungsweise entfernt nicht sichtbare Linien.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Wer war John Withney?

A

John Whitney (1917-1995) war ein Pionier der Computeranimation und Experte für Motion Graphics. Er arbeitete mit Saul Bass an den Titel-Sequenzen für „Vertigo“. Whitney gründete Motion Graphics Incorporated und gilt als einer der Väter der Computeranimation. Sein bekanntestes Werk ist „Arabesque“ (1975).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Wer war

Wer war Ivan Sutherland?

A

Ivan Sutherland ist Professor und Entwickler, der am Utah-Computing-Projekt arbeitete. Er entwickelte Sketchpad, den Vorläufer des Grafiktabletts, und das Head Mounted Display (HMD), bekannt als „Sword of Damocles“ (1968), eines der ersten Virtual-Reality-Geräte. Das System war so schwer, dass es an der Decke befestigt werden musste. Die Grafik bestand aus einfachen Wireframe-Räumen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Wer war Ed Catmull?

A

Ed Catmull ist ein Pionier der 3D-Computergrafik. Er entwickelte die erste 3D-Hand und das erste 3D-Gesicht („A Computer Animated Head“). Catmull erfand das Z-Buffering zur Verdeckungsberechnung, das festlegt, welche Teile einer Szene sichtbar sind. Er entwickelte auch Texture Mapping (2D-Texturen auf 3D-Objekte anwenden), B-Splines und den Catmull-Clark Subdivision Surface Algorithmus. Zusammen mit Steve Jobs gründete er Pixar, wo unter seiner Leitung RenderMan entwickelt wurde.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Wer war Jim Blinn?

A

Jim Blinn ist bekannt für seine Arbeiten in der Computergrafik, insbesondere:

  • Reflection and Environment Mapping: Eine Methode zur Simulation von spiegelnden Oberflächen durch Projektion einer Textur, die die Umgebung des Objekts darstellt.
  • Blinn-Shader: Ein Shading-Modell zur besseren Simulation von Licht und Materialien.
  • Bump Mapping: Eine Technik zur Verbesserung der Oberflächenstruktur von 3D-Modellen, um Details wie Unebenheiten ohne zusätzliche Geometrie zu erzeugen.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Wer war Paul Ekman?

A

Paul Ekman (1934-) ist ein Psychologe, bekannt für seine Forschung zu Universal-Mikroexpressionen und FACS (Facial Action Coding System). Er studierte non-verbale Kommunikation und identifizierte grundlegende, universelle Emotionen, die in Gesichtsausdrücken weltweit erkannt werden können.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

Wer war Paul Debevec?

A

Paul Debevec ist bekannt für die Entwicklung von Image-Based Lighting und HDR Workflow, Techniken zur Verwendung von Lichtwerten aus High-Dynamic-Range-Fotografien in 3D-Szenen, wie in „Matrix Reloaded“ und „Spider-Man 2“. Er entwickelte auch Image-Based Modeling, eine Methode zur Erstellung von 3D-Modellen aus Bildern.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

Was ist saubere Topologie?

A

Saubere Topologie bedeutet:

  • Keine Ngons: Vermeide Polygone mit mehr als vier Ecken.
  • Saubere Loops: Halte Edge-Loops und Edge-Flows klar und geordnet.
  • Idealerweise Quads: Nutze vorzugsweise Vierecke statt Dreiecke oder Ngons.
  • Durchschnittliche Dichte an Polygonen: Vermeide zu viele oder zu wenige Polygone.
  • Edge-Flow: Richten sich entlang der konvexen und konkaven Stellen des Modells aus.
  • Alignte Normals: Richtige Ausrichtung der Hard- und Soft-Normals.
  • Keine nicht-planaren Faces: Vermeide Flächen, die nicht plan sind.
  • Keine non-manifold Geometrie: Vermeide Geometrie, bei der ein Punkt mehr als vier benachbarte Punkte oder eine Kante mehr als zwei Flächen hat.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
Q

Was ist Non-Manifold Geometry?

A

Non-manifold Geometrie:

  • Punkt mit mehr als vier benachbarten Punkten: Ein Punkt (Vertex), der mehr als vier Kanten oder Flächen teilt.
  • Edge mit mehr als zwei Flächen: Eine Kante, die mehr als zwei Flächen verbindet.

Diese Geometrie kann zu Problemen bei der Modellierung und beim Rendering führen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
26
Q

Was versteht man unter Water Tight Geometry?

A

Water Tight Geometry:

Bezeichnet eine Geometrie ohne Löcher oder offene Stellen, bei der man sich vorstellen kann, dass sie vollständig mit Wasser gefüllt werden kann, ohne dass das Wasser herausläuft. Diese Art von Geometrie ist wichtig für genaue Simulationen und Rendering oder 3D Print.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
27
Q

Was versteht man unter Duplicate Edges und Duplicate Vertecies?

A

Overlapping Geometry:

  • Doppelte Edges: Wenn zwei unterschiedliche Kanten (Edges) dieselben zwei Punkte (Vertices) verbinden.
  • Doppelte Punkte: Wenn zwei Punkte (Vertices) sich exakt an den gleichen Positionen befinden und jeweils mit Kanten verbunden sind, die sich überlagern.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
28
Q

Was versteht man unter Self Intersection?

A

Self-Intersecting Polygons:

  • Falsche Vertex-Order: Die Reihenfolge der Punkte ist inkonsistent, was dazu führt, dass mindestens zwei nicht benachbarte Kanten sich schneiden.
  • Nicht orientierbare Flächen: Eine konsistente Auswahl eines Normalenvektors ist nicht möglich, da die Fläche in der gewählten Richtung (im Uhrzeigersinn oder gegen den Uhrzeigersinn) nicht eindeutig orientierbar ist.

Beispiele: Die Kleinflasche und der Möbiusband sind nicht orientierbar. Während die Kleinflasche self-intersecting sein kann, ist das Möbiusband zwar nicht self-intersecting, aber dennoch non-orientable.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
29
Q

Unterschied Polygone – NURBS?

A

NURBS (Non-Uniform Rational B-Splines):

Mathematisch definierte Kurven oder Flächen zur Modellierung beliebiger Formen. Sie sind stetig differenzierbar und können beliebige Grade annehmen.

Polygon:

Ein Vieleck, das durch einen geschlossenen Streckenzug (Linie) aufgespannt wird.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
30
Q

Was versteht man unter Retopology?

A

Retopology:

Der Prozess, bei dem aus einem hochauflösenden oder unregelmäßig tessilierten Objekt (wie einem Sculpt oder Scan) ein neues Modell mit besserer Topologie erstellt wird. Dies verbessert die Handhabung, z.B. für saubere UVs, Optimierung für Animation oder bessere Objekttrennung.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
31
Q

Flächennormalen – Vertex Normalen?

A

Flächennormalen:

  • Definition: Vektoren, die senkrecht auf der Fläche eines Polygons stehen.
  • Eigenschaften: Einheitsvektoren, die im rechten Winkel zur Tangentialfläche stehen.
  • Ausrichtung: Hängt von der Windungsrichtung der Vertices ab (im Uhrzeigersinn oder gegen den Uhrzeigersinn).

Vertex-Normalen:

  • Definition: Richtungsvektoren an jedem Vertex zur Definition der Oberflächenorientierung.
  • Berechnung: Meistens als Durchschnitt der Flächennormalen der an diesem Vertex angrenzenden Polygone. Der Durchschnitt kann gewichtet werden.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
32
Q

UV -Koordinaten Erstellung und deren Einsatz?

A

UV-Koordinaten:

  • Zweck: Dienen dazu, die Oberfläche eines 3D-Modells auf einem 2D-Bild darzustellen.
  • Koordinaten: u und v beschreiben Texturkoordinaten innerhalb eines 0-1 kartesischen Koordinatensystems.
  • Funktion: Weisen jedem Vertex oder Polygon einen Pixel einer 2D-Textur zu und helfen, die Oberfläche des Modells zu „entfalten“ (UV-Unwrapping) für eine verzerrungsfreie Texturdarstellung.
  • Texel Density: Wichtig, um eine konsistente Texturqualität zu gewährleisten.
  • Edge Flow: UV-Koordinaten sollten entlang von Edge-Flows verlaufen und rechteckig sein, um Anti-Aliasing-Fehler zu vermeiden.
  • Schnitte im UV: Sollten minimiert werden, um die Anzahl der Einzelteile zu reduzieren und Verzerrungen zu minimieren.
  • NURBS: Bei NURBS-Modellen sind UV-Koordinaten aufgrund der mathematischen Eigenschaften automatisch enthalten.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
33
Q

Modelling Techniques?

A

Modeling Techniques:

  1. Box Modeling: Startet mit einem Primitive (z.B. Würfel) und formt es durch Extrudieren und Bearbeiten.
  2. Edge Modeling: Konturenmodellierung basierend auf Blueprint.
  3. Curve-Based Modeling (NURBS): Nutzt Kurven oder Splines für die Modellierung, z.B. durch Drehen für symmetrische Objekte.
  4. Sculpting: Modellierung ähnlich wie in der Bildhauerei, durch direktes Bearbeiten der Oberfläche.
  5. 3D Scanning:
    • Contact-Based: Scannen mit Koordinatenmessmaschinen (CMM).
    • Lidar: Lichtlaufzeit-Scan für Umgebungen.
    • Photogrammetry: Erzeugt 3D-Modelle aus Fotos durch Triangulation.
  6. Procedural Modeling: Erzeugt Modelle durch parametrische Methoden, z.B. für Bäume, Landschaften, Städte und Stoffe.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
34
Q

Unterschied Shader – Texture?

A

Texturen und Shader:

  • Textur: Speichert pixelweise Informationen, die vom Shader genutzt werden.
  • Shader: Ein Algorithmus, der die Texturwerte interpretiert und darstellt.
  • Zusammenarbeit: Texturen liefern die Daten, Shader verarbeiten diese und definieren das Aussehen des Materials.
  • Zusätzliche Inhalte: Texturen können auch Noises, Gradients und andere Generatoren oder User Data enthalten.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
35
Q

Nenne ein paar Standard Shader!

A

Standard Shader:

  1. Gouraud Shading: Entwickelt von Henri Gouraud. Interpoliert Vertex-Farben, um Kanten von Polygonen weich darzustellen.
  2. Lambert Shading: Für perfekte Diffusität der Oberflächen (veraltet).
  3. Phong Shading: Verbessert Gouraud durch Interpolation der Pixelwerte, was die Qualität von Highlights und Shading erhöht.
  4. Blinn-Phong Shading: Weiterentwicklung des Phong-Shadings von Jim Blinn. Bietet bessere Kontrolle über Highlights und komplexere Materialdarstellung.
  5. PBR (Physically Based Rendering): Ermöglicht physikalisch plausible Ergebnisse durch standardisierte Parameter wie Metallness (0 bis 1).
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
36
Q

Unterschied Normal Map - Bump Map?

A

Normal Map vs. Bump Map:

  1. Normal Map:
    • Zweck: Überträgt Beleuchtungsnormale von einem hoch aufgelösten Modell auf ein niedrig aufgelöstes Modell, ohne Vertices zu verschieben.
    • Speicherung: Richtungen der Normalen werden in RGB-Kanälen des Bildes gespeichert.
    • Verwendung: Kann auch für Oberflächenunregelmäßigkeiten wie Wölbungen oder Kratzer verwendet werden.
  2. Bump Map:
    • Erfinder: Jim Blinn.
    • Zweck: Nutzt ein Graustufenbild zur Simulation von Oberflächenstrukturen, indem es die Normalen für die Lichtberechnung anpasst.
    • Wirkung: Ändert die Lichtberechnung, ohne die Geometrie tatsächlich zu deformieren; die Wahrnehmung der Struktur hängt von der Kameraansicht ab.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
37
Q

Welche Arten von Displacement gibt es?

A

Displacement Maps:

  1. Height Displacement: Verschiebt Vertices entlang ihrer Normalen nach Graustufenwerten (Schwarz = Erosion, Weiß = Erhöhung).
  2. Vector Displacement: Verschiebt Vertices basierend auf Richtungsvektoren aus der RGB-Textur für komplexe Formen.
  3. Parallax Mapping: Simuliert Displacement in Echtzeit durch Textur-Koordinaten-Verschiebung (veraltet).
  4. Height Map: Ähnlich wie Displacement Map, zeigt Höhenänderungen (Schwarz = keine Veränderung, Weiß = Erhöhung); wird im Vertex Shader verwendet.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
38
Q

Unterschied Roughness/Glossiness?

A

Roughness/Glossiness:

  • Roughness: Beschreibt die Rauheit der Oberfläche. Höhere Werte (1) bedeuten maximale Rauheit.
  • Glossiness: Ist das Gegenteil von Roughness. Höhere Werte (1) bedeuten maximale Glattheit.
  • Zweck: Simuliert Mikrostrukturen und Unebenheiten der Oberfläche, um physikalische Oberflächen-Eigenschaften realistisch darzustellen.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
39
Q

Was ist Anisotrophy?

A

Anisotropic:

  • Definition: Oberflächen mit gerichteten Unebenheiten, die Highlights in eine bevorzugte Richtung verzerren.
  • Beispiel: Materialien wie gebürstetes Aluminium oder der Boden eines Topfes.
  • Effekt: Führt zu langgezogenen, anisotropen Highlights bei Reflexionen.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
40
Q

Was ist Transparenz/Opacity?

A

Unterschied zwischen Transparenz und Opacity:

  • Transparency: Bezieht sich auf den Grad, in dem ein Material Licht durchlässt. Höhere Werte (z.B. 1) bedeuten vollständige Transparenz, d.h., das Material ist unsichtbar.
  • Opacity: Bezieht sich auf den Grad, in dem ein Material Licht blockiert oder undurchsichtig ist. Höhere Werte (z.B. 1) bedeuten vollständige Opazität, d.h., das Material ist nicht durchsichtig. (Opakheit)

Zusammenfassung:
- Transparenz misst, wie viel Licht durch das Material hindurchgeht.
- Opazität misst, wie viel Licht vom Material blockiert wird.

Beide Begriffe sind komplementär und oft als Gegenpole zu verstehen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
41
Q

Unterschied Vertex Shader / Pixel Shader?

A

Unterschied zwischen Vertex Shader und Pixel Shader:

  • Vertex Shader:
    • Aufgabe: Manipuliert die Geometrie der Szene durch Transformationen wie Verschiebung, Skalierung und Rotation.
    • Aufruf: Pro Vertex (Eckpunkt) eines Modells.
    • Einschränkung: Kann keine Tesselierung durchführen. Dies übernehmen Geometry Shader oder Tesselation Shader.
  • Pixel Shader (Fragment Shader):
    • Aufgabe: Bestimmt die Farbe und Eigenschaften jedes einzelnen Pixels eines Objekts, einschließlich Effekten wie Transparenz und Bump Mapping.
    • Aufruf: Pro Pixel (Fragment) auf dem Bildschirm.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
42
Q

Toonshader – Was definiert den Look – wie wird dieser erstellt?

A

Toonshader:

  • Look:
    • Gestufte Helligkeitsstufen: Statt eines kontinuierlichen Lichtabfalls werden Lichtstufen in klare, separate Bereiche unterteilt.
    • Outlines: Charakteristische schwarze oder farbige Umrisse, die den Cartoon-Look verstärken.
  • Erstellung:
    • Non-Photorealistic Rendering (NPR): Der Toonshader gehört zur NPR-Kategorie, die nicht photorealistische, stilisierte Darstellungen ermöglicht.
    • Cell Shader: Oft verwendet, um den Toon-Look zu erzeugen, indem Lichtstufen in Zonen unterteilt und harte Kanten statt sanfter Übergänge verwendet werden.

Zusammenfassung: Der Toonshader erstellt einen cartoonhaften Look durch schrittweise Helligkeitsstufen und betont Outline-Effekte.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
43
Q

Vorteile von “Substances”?

A

Substances:

  • Parameter: Ermöglichen die direkte Anpassung und Kontrolle jeder Texturkomponente.
  • Oberflächen: Ideal zur Generierung komplexer, schwer einscannbarer Oberflächen.
  • Textur-Bombing: Erzeugt prozedural verschiedene Maps für vielfältige Texturanpassungen.
  • Eigenschaften:
    • Auflösungsunabhängig: Hohe Detailgenauigkeit ohne Qualitätsverlust bei Skalierung.
    • Non-destruktiv: Änderungen können jederzeit vorgenommen werden, ohne die Originaltextur zu zerstören.
44
Q

Nenne ein paar Blending Modes!

A

Blending Modes:

  • Copy: Legt den Vordergrund über den Hintergrund; häufig mit Alpha-Kanälen verwendet.
  • Add: Addiert die Pixelwerte des Vordergrunds zu denen des Hintergrunds.
  • Subtract: Subtrahiert die Pixelwerte des Vordergrunds von denen des Hintergrunds.
  • Multiply: Multipliziert die Pixelwerte des Vordergrunds mit denen des Hintergrunds.
  • Divide: Teilt die Pixelwerte des Vordergrunds durch die des Hintergrunds.
  • Max: Wählt den helleren Pixelwert zwischen Vordergrund und Hintergrund.
  • Min: Wählt den dunkleren Pixelwert zwischen Vordergrund und Hintergrund.
  • Screen: Ähnlich wie Multiplikation, aber invertiert; hellt das Bild auf.
45
Q

Nenne ein paar Lichttypen?

A

Lichttypen im Rendering:

  1. Point Light: Strahlt Licht in alle Richtungen aus, ähnlich einer Glühbirne.
  2. Directional Light: Licht, das aus einer Richtung kommt und parallel strahlt, wie Sonnenlicht; kein Lichtabfall.
  3. Area Light: Licht, das von einer Fläche ausgeht. Bei Pathtracing berechnet, bei Raytracing oft simuliert.
  4. Ambient Light: Gleichmäßiges Licht über die gesamte Szene hinweg, oft in Biased Renderern verwendet.
  5. Spotlight: Licht, das innerhalb eines Kegels aus einem Punkt strahlt.
  6. Mesh Light: Lichtquelle, die auf der Geometrie eines Polygons basiert, gut für realistische Beleuchtung.
  7. Volumetric Lighting: Licht, das innerhalb eines definierten Volumens sichtbar ist.
  8. IBL (Image Based Lighting): Nutzt HDRI-Bilder für realistisches Umgebungslicht über 360 Grad.
46
Q

Wie funktioniert Raytracing?

A

Raytracing:

Funktionsweise:
Raytracing ist ein Algorithmus zur Verdeckungsberechnung, der Strahlen (Rays) von der Kamera in die Szene sendet. Hier ist, wie es funktioniert:

  1. Strahlensendung: Ein Ray wird von jedem Pixel der Bildfläche (Image Plane) der Kamera ausgesendet.
  2. Objekterkennung: Der Ray bewegt sich, bis er auf ein Objekt trifft.
  3. Lichtberechnung: Vom Treffpunkt des Rays wird geprüft, ob Lichtquellen (mehrere oder alle) das Objekt erreichen oder blockiert sind.
  4. Reflexion und Refraktion: Für Reflexionen und Brechungen werden zusätzliche Rays entsprechend den Materialeigenschaften des Objekts ausgesendet.
  5. Global Illumination: Über Path Tracing können indirekte Lichtquellen (Global Illumination) berücksichtigt werden.
  6. Super Sampling: Mehrere Rays pro Pixel (Super Sampling) verbessern die Bildqualität und reduzieren Aliasing.

Probleme:
Raytracing kann rechenintensiv sein, da es viele Rays und Berechnungen benötigt, um realistische Bilder zu erzeugen.

47
Q

Depth Map Shadows (Wie berechnet, Probleme?)

A

Shadow Mapping:

Berechnung:
Lance Williams beschrieb in seinem Paper „Casting Curved Shadows on Curved Surfaces“ das Shadow Mapping-Verfahren. Dabei wird aus der Sicht der Lichtquelle ein Depth Map erstellt, die speichert, welche Punkte im Licht liegen und welche im Schatten. Diese Map wird beim Rendering verwendet, um Schatten auf den Objekten in der Szene zu berechnen.

Probleme:
- Halbtransparente Schatten: Shadow Mapping kann keine Schatten von halbtransparenten Objekten korrekt berechnen.
- Auflösung: Die Genauigkeit der Schatten ist durch die Auflösung der Depth Map begrenzt, was zu Artefakten wie „Schatten-Spritzern“ führen kann.

48
Q

Was ist Ambient Occlusion?

A

Ambient Occlusion (AO):

  • Was es ist: Technik zur Simulation von Schatten in Ecken und Rissen, wo weniger Licht hinkommt. Es faked die Global Illumination und ist nicht physikalisch exakt.
  • Wie es funktioniert: AO verwendet Rays, um die Nähe von Geometrie zu überprüfen und damit die Lichtblockierung zu simulieren. Es benötigt keine Lichtquellen, sondern nur die Geometrie des Modells.
  • Funktioniert AO ohne Licht?: Ja, AO benötigt keine Lichtquellen zur Berechnung. Es verwendet Rays, um die Lichtverhältnisse basierend auf der Umgebungsgometrie zu approximieren.
49
Q

Image Based Lighting (Workflow, wer hats erfunden?)

A

Image-Based Lighting (IBL):

  • Erfinder: Paul Debevec.
  • Methode: IBL verwendet 360-Grad-Bilder, die durch Stitchen vieler Fotos oder durch die Aufnahme einer Chrome-Kugel (Light Probe) erstellt werden. Alternativ kann eine 360-Grad-Kamera verwendet werden.
  • Vorteil: Monte Carlo Raytracing mit Importance Sampling hat die Performance dieser Technik erheblich verbessert.
50
Q

Was sind Caustics?

A

Caustics:

  • Erfinder: Erstmals 1995 von Henrik Wann Jensen durch den Photon-Mapping-Algorithmus approximiert.
  • Moderne Ansätze: In aktuellen Path-Tracing-Algorithmen werden Caustics automatisch berechnet.
  • Beschreibung: Caustics entstehen durch die Bündelung von Licht durch Reflektion oder Refraktion. Immer noch sehr Rechenintensiv.
51
Q

Was ist PBR? Physically Based Rendering?

A

Physical Based Rendering (PBR):

  1. Reflektions- und Refraktionsgesetz: Der Einfallswinkel entspricht dem Ausfallswinkel des Lichts.
  2. Energieerhaltung: Reflektiertes Licht ist immer weniger als das eingestrahlte Licht.
  3. BRDF & BSDF: Akkurate Modelle zur Beschreibung der Lichtverteilung (Bi-Directional Reflectance Distribution Function und Bi-Directional Scattering Distribution Function).
  4. Fresnel-Reflexionen & IOR: Fresnel-Effekte und der Index of Refraction beeinflussen die Lichtreflexion.
  5. Materialtypen: Dielektrika reflektieren die Lichtfarbe, Metalle reflektieren ihre eigene Farbe.
  6. Linear Spaced Rendering: Einheitlicher Farbraum für Texturen und Shader, z.B. Glossiness/Roughness in Linear, Base Color in sRGB.
  7. Spektral Path Tracing: Sehr präzises Rendering, das eine physikalisch korrekte Lichtberechnung bietet.
52
Q

Was ist der Linear Workflow?

A

Linear Workflow:

  1. Farbmanagement: Renderings werden im linearen Farbraum exportiert, um eine präzise Lichtberechnung zu gewährleisten.
  2. Hohe Bitrate: Export in 16 oder 32 Bit pro Kanal, um eine hohe Bildqualität und Nachbearbeitungsflexibilität zu sichern.
  3. Keine Tonemapping: Rendering erfolgt ohne Tone Mapping, um Farbveränderungen zu vermeiden und die Bilddaten unverfälscht zu erhalten.
  4. Texturkonvertierung: Texturen werden ebenfalls in einem passenden Farbraum bearbeitet und konvertiert, um Konsistenz im Workflow zu gewährleisten.
53
Q

Was sind Renderlayers - Renderpasses?

A

Renderlayer / Renderpasses:

  1. Renderpasses: Teilen ein Bild in verschiedene Kanäle auf, z.B. Reflection Pass, Diffuse Pass, um Flexibilität in der Post-Production zu ermöglichen. Neben sichtbaren Passes gibt es auch Info Passes (wie ZDepth) und Utility Passes (wie Crypto Matte) für spezielle Effekte wie Depth of Field oder Motion Blur.
  2. Renderlayers: Ordnen verschiedene Objekt-Sammlungen in logischen Gruppen, z.B. Background, Character. Dies erleichtert die Organisation und das Compositing im finalen Bild.
54
Q

Was sind Renderartefakte die auftreten können?

A

Renderartefakte:

  1. Fireflies: Helle, zufällige Pixel, verursacht durch zu wenig Sampling, sehr kleine Lichtquellen oder niedrige Roughness-Werte.
  2. Hot Pixels: Helle, unerwünschte Pixel durch zu wenig Anti-Aliasing, Licht-Samples oder Caustics. Ähnlich wie bei Fireflies.
  3. Noise: Körnige Bildbereiche aufgrund unzureichender Samples oder falschem Global Illumination Mode (z.B. Path Tracing). Lösung: Mehr Samples, Denoising.
  4. Flickering (Animation): Unregelmäßige Helligkeit in Animationen durch Denoising, Irradiance Cache, oder unterschiedliche Polygon-Dichte. Lösung: Höheres Sampling, GI-Modus wechseln.
  5. Aliasing: Treppeneffekte durch zu wenig Kamera-Samples, dünne Objekte oder schlechtes Mip Mapping. Lösung: Mehr Samples, bessere Mip Mapping-Strategien.
  6. Z-Fighting: Zwei überlappende Faces an derselben Position, die visuell “glitchen”. Lösung: Geometrie überprüfen und anpassen.
  7. Light Bleeding: Licht, das durch Mesh-Ecken scheint, oft durch falsche Normals oder ineinandersteckende Meshes verursacht. Lösung: Normals korrigieren, Meshes trennen.
55
Q

Welche Realismusfördernde Bildstörungen gibt es?

A

Chromatic Aberration: Abbildungsfehler durch unterschiedliche Brechung von Lichtwellenlängen an Bildrändern oder kontrastreichen Stellen. Meist in der Postproduktion hinzugefügt, um die Kameraoptik zu simulieren.

Lens Distortion: Verzerrung durch die gewölbte oder unregelmäßige Oberfläche der Linse, die zu verzogenen Bildrändern führt.

Lens Textures: Texturen wie Fingerabdrücke oder Schmutz auf der Kamera-Linse, die in der Postproduktion hinzugefügt werden können.

Motion Blur: Verschwommene Darstellung von sich bewegenden Objekten, simuliert durch Bewegung der Kamera oder des Objekts während der Belichtung.

Überstrahlung (Bloom): Effekt, bei dem helles Licht über die Grenzen seiner Quelle hinausstrahlt und einen leuchtenden Halo-Effekt erzeugt.

Depth of Field (DOF): Unschärfeeffekt, bei dem nur Objekte in einem bestimmten Bereich der Szene scharf dargestellt werden, während Objekte außerhalb dieses Bereichs unscharf sind.

56
Q

Was für Effekte kennst du um Filmmaterial zu verbessern?

A
  • Denoising: Entfernen von Bildrauschen für klarere Renderings.
  • Upscaling: Erhöhung der Bildauflösung für mehr Detail.
  • De-Interlacing: Umwandlung von interlaced in progressives Video zur Verbesserung der Bildqualität.
57
Q

Was bedeutet Animation?

A

Animation, vom lateinischen „animare“ (zum Leben erwecken), beschreibt Techniken, bei denen durch schnelles Abspielen von Einzelbildern ein flüssiges Bewegtbild erzeugt wird.

58
Q

Welche Stopmotion Techniken gibt es?

A
  1. Puppet Animation: Puppen werden Bild für Bild verändert und aufgenommen, um flüssige Bewegungen zu erzeugen. Beispiele: „Nightmare Before Christmas“ (1993), „Coraline“ (2009).
  2. Clay Animation: Figuren aus Ton oder Knetgummi werden bildweise verändert und fotografiert. Beispiele: Aardman Animation mit Wallace & Gromit.
  3. Cutout / Silhouette Animation: Figuren aus Karton oder Papier werden bewegt, um Animationen zu erzeugen. Silhouetten-Animation verwendet Licht, um nur schwarze Silhouetten sichtbar zu machen. Beispiel: Lotte Reiniger.
  4. Model Animation: Stop-Motion-Figuren und Live-Action-Footage werden kombiniert. Beispiele: Ray Harryhausen in „Jason and the Argonauts“.
  5. Object Animation (Brick Films): Nicht-formbare Objekte wie Lego werden animiert. Beispiel: Brickfilm.
  6. Pixilation: Personen oder Gegenstände werden Bild für Bild gefilmt, um skurrile Bewegungen und Effekte zu erzeugen.
59
Q

Welche Animationstechnik wurde beim TV-Spot “Can Girl” eingesetzt und warum?

A

“Can Girl” – Brute Force Animation:

Technik:
- Brute Force Animation: Ein Live-Model wird gefilmt, und dessen Bewegungen werden mit Referenzpunkten in den Computer übertragen.
- Vektor-Grafik-Animation: Die Bewegungen des Live-Models werden in eine animierte Vektor-Grafik übertragen.
- Rastered Graphics: Form und Farbe werden dem Bild durch Rastergrafiken hinzugefügt.

Ziel:
Die Technik wurde eingesetzt, um den Roboter im TV-Spot so organisch und natürlich wie möglich zu bewegen. Durch die Verwendung von realen Bewegungsreferenzen wurde sichergestellt, dass die Animation des Roboters flüssig und glaubwürdig wirkt.

Beispiel-Video: Can Girl TV-Spot

60
Q

Animation Principles?

A

Principles of Animation: Zusammenfassung

  1. Staging: Komposition der Szene; sorgt dafür, dass die Hauptaktion klar und verständlich präsentiert wird.
  2. Timing: Bestimmt die Gewichtung und das Gefühl von Masseneffekten. Richtiges Timing ist entscheidend für die Wirkung der Animation.
  3. Squash & Stretch: Erlaubt es, die Form eines Objekts zu dehnen und zu komprimieren, während sein Volumen konstant bleibt. Es betont Materialeigenschaften und verstärkt Bewegungen.
  4. Anticipation: Vorbereitung für die Hauptaktion durch eine Gegenbewegung. Zum Beispiel, das Zurückziehen einer Hand vor dem Wurf eines Balls.
  5. Ease In / Ease Out: Bewegungen beginnen langsam, beschleunigen und verlangsamen sich am Ende. Dies vermittelt einen natürlichen Bewegungsfluss.
  6. Overlapping & Follow Through:
    Overlapping: Verschiedene Teile eines Objekts bewegen sich nicht gleichzeitig, was eine organische Bewegung erzeugt.
    Follow Through: Bewegungen setzen sich nach dem Stopp fort, wie Haare oder Kleidung, die nach einem Sprung noch nachschwingen.
  7. Arcs: Organische Bewegungen folgen Bögen statt geraden Linien. Dies macht Bewegungen natürlicher und dynamischer.
  8. Solid Drawing: Sicherstellen, dass die Bewegung in der Silhouette erkennbar ist. Beispiel: Eine Tasse wird in der Seitenansicht getrunken.
  9. Exaggeration: Übertreibung von Bewegungen und Ausdrücken zur Verstärkung der Wirkung und des Stils.
  10. Secondary Action: Nebeneffekte oder Bewegungen, die die Hauptaktion unterstützen und bereichern. Beispiel: Die zweite Hand bewegt sich beim Klopfen an der Tür.
  11. Straight Ahead vs. Pose to Pose:
    • Pose to Pose: Arbeiten mit Schlüsselposen; der Computer generiert die Zwischenposen.
    • Straight Ahead: Frame-für-Frame-Animation, ideal für flüssige Bewegungen.
  12. Appeal: Design des Charakters, das Charisma und Aussagekraft verstärkt. Dies ist oft subjektiv.

Zusätzliche Prinzipien von Michi:

  1. Scale: Relatives Größenverhältnis der Objekte zueinander.
  2. Density: Detailgrad und Konsistenz des Bildes. Einheitliche Texel-Dichte und Stil beugen einem „Clusterfuck“ vor.
61
Q

Bewegungsmöglichkeiten in der Animation?

A

Bewegungsmöglichkeiten in der Animation:

Keyframe Animation
- Definiert Werte zu bestimmten Zeitpunkten; Computer interpoliert dazwischen.

Expressions
- Nutzt Code, um Eigenschaften dynamisch zu beeinflussen, entweder einmalig oder pro Frame.

Driven Keys
- Verknüpft Werte eines Objekts mit einem anderen; Werte können begrenzt werden.

Path Animation
- Bewegt ein Objekt entlang eines vordefinierten Pfades.

Simulation
- Berechnet Bewegungen basierend auf Algorithmen und Parametern.

Motion Capture
- Erfasst und überträgt Bewegungen von Schauspielern auf digitale Modelle.

62
Q

Eigenschaften eines Keyframes?

A
  • Zeitpunkt: Spezifischer Moment auf der Zeitachse
  • Eigenschaftswert: Werte für Position, Rotation, Skalierung, etc.
  • Interpolation: Übergang zwischen Keyframes (linear, Bezier, etc.)
  • Tangentenkontrolle: Form der Kurven zwischen Keyframes
  • Stepped: Abrupter Übergang ohne Glättung
  • Linear Interpolation: Gleichmäßige Veränderung ohne Beschleunigung oder Verzögerung
  • Bewegungskurven: Graphen zur Glättung der Animation
  • Keyframe-Editing: Anpassung und Feinabstimmung von Keyframes
63
Q

Was ist non Linear Animation?

A

Non-Linear Animation:

  • Definition: Speicherung und Kombination verschiedener Animations-Clips in einem Editor.
  • Blending: Übergänge zwischen Clips zur Erstellung einer zusammenhängenden Animation.
  • Beispiel: Lauf-Clip + Sprung-Clip + Lande-Clip = Sprung über ein Hindernis.
  • Tools: In Maya werden Character Sets verwendet, um Animations-Clips zu erstellen und zu verwalten.
64
Q

Facial Animation (Phoneme & Viseme) – Lipsnyc / Emotions?

A

Phoneme und Viseme:

  • Phoneme: Abstrakte Laute einer Sprache, die die kleinsten bedeutungsunterscheidenden Einheiten darstellen.
  • Viseme: Mundbilder, die die visuelle Darstellung von Phonemen zeigen. Sie repräsentieren die Lippen- und Gesichtsbewegungen beim Sprechen.
  • Lipsyncing: Animatoren verwenden Phoneme zur Synchronisierung von Lippenbewegungen mit gesprochenem Dialog.
  • Disney-Standard: Disney-Animatoren nutzen 12 klassische Viseme zur Darstellung der Lippenbewegungen in Animationen.
65
Q

MAYA – was ist ein Character Set und wo findet dieser Einsatz ?

A

Character Set:

  • Definition: Ein Werkzeug zur Gruppierung und Verwaltung von animierbaren Attributen in der Animation.
  • Funktion: Ermöglicht die gleichzeitige Animation mehrerer Attribute von unterschiedlichen Objekten.
  • Beispiel: Armen, Fingern und Beinen eines Charakters.
  • Vorteil: Erleichtert die Animation durch zentrale Steuerung und Verwaltung, ähnlich einem nichtlinearen Schnittprogramm.
66
Q

Camera – animation (Möglichkeiten, Fallen?)

A

Kameraanimationstechniken:

  • Per Hand: Direkte manuelle Steuerung und Animation der Kamera.
  • Kamera-Rig: Einsatz von physischen oder virtuellen Rigging-Systemen zur Steuerung der Kamera.
  • Ziel (Aim): Die Kamera wird auf ein bestimmtes Ziel ausgerichtet, während sie sich bewegt.
  • Virtuelles Kamera-Rig: Einsatz von digitalen Rigs, die komplexe Bewegungen und Steuerungen ermöglichen.

Fallen bei Kameraanimation:
- Unrealistische Bewegungen: Kameras können keine realistische Trägheit oder Rotationslimitationen simulieren.
- Interaktion mit der Umgebung: Fehlende physikalische Interaktion mit der Umgebung, wie Gewicht oder Reibung.

67
Q

Was ist der Character Animation Workflow?

A
  • Referenzen suchen/filmen (Beispiele für Bewegungen)
  • Blockout von Keyposen (grobe Positionsbestimmung)
  • Timing im Stepped Modus bearbeiten (Bewegungspunkte festlegen)
  • In den Spline Modus wechseln (Übergänge glätten, Bugs fixen, “Kurvenhygene”)
  • Animation detaillierter ausarbeiten (Feinabstimmung)
68
Q

Wozu braucht man einen Rig?

A

Wozu braucht man ein Rig?
- Ermöglicht die Bewegung von Meshes oder Objekten durch ein Skelett oder Joints.
- Erleichtert Animation durch Kontroll-Objekte und -Kurven (z.B. Locators, Curves).

69
Q

Welche Arten von Rigs gibt es?

A

Types of Rigs

Character Rig: Animiert Charaktere durch ein Skelettsystem, das Bewegungen steuert.

Facial Rig:
- Blendshapes: Verschiedene Versionen der gleichen Geometrie für Gesichtsausdrücke, die durch Slider angepasst werden können. Erlaubt feine Verformungen wie Stirnrunzeln.
- Joint Based: Verformung von Vertex-Gruppen durch Joints und Weight Painting, geeignet für weniger detaillierte Bewegungen wie Augenlider und Mund.
- Cluster Based: Bewegt Vertex-Gruppen durch Cluster Deformer, wobei der Einfluss auf die Punkte angepasst wird. Oft ineffizient.

Camera Rig: Steuert und animiert Kamerabewegungen.

Technical Rigs: Animiert Objekte wie Maschinen, die mechanische Bewegungen benötigen.

70
Q

Was sind Joints?

A

Joints: Hierarchische Hilfsobjekte zur Steuerung von Bewegungen. Sie sind in einer Baumstruktur angeordnet und können Bewegbarkeit einschränken. Sie werden verwendet, um Geometrie zu deformieren, an die sie gebunden sind.

71
Q

IK - FK Unterschied?

A

Unterschied IK / FK:

IK (Inverse Kinematics): Bewegt das letzte Glied der Kette, der Rest folgt diesem (Parent follows child). Ideal für Animationen, bei denen Endpunkte fixiert bleiben sollen, z.B. Füße am Boden. Man animiert von hinten nach vorne.

FK (Forward Kinematics): Bewegt das oberste Glied der Kette, der Rest folgt diesem (Child follows parent). Bietet realistischere Bewegungen und mehr Kontrolle, da jeder Bone einzeln animiert wird. Man animiert von vorne nach hinten.

72
Q

Was macht ein Rig weniger Performant?

A

Für bessere Performance sollte alles auf Joints basieren. Deformer, Muscle-Systeme oder Cloth-Simulationen sind nicht empfohlen. Blendshapes sind nur abhängig von der Engine möglich. Ein zusammenhängendes Skelett und sparsamer Einsatz von Joints sind erforderlich, wobei Performance über Qualität steht.

73
Q

Wie funktioniert Skinning? Was können Probleme sein?

A

Skinning – Funktionsweise

Skinning definiert, wie sich das Mesh bei der Animation verformt. Durch Weight Painting wird der Einfluss der Joints auf die Geometrie angepasst, um problematische Verformungen zu vermeiden. Der Delta Mush Deformer verbessert die Blending-Qualität von Bewegungen und Deformationen.

Probleme und Lösungen

  • Self Intersection: Vermeidung durch sorgfältige Gewichtung und gute Mesh-Struktur.
  • Stretching: Anpassen der Gewichtung und Optimierung der Joints.
  • Animation Input ist zu klein für das Mesh: Sicherstellen, dass das Mesh in den Bewegungsbereich passt.
  • Arme sind nicht lang genug: Anpassen der Joints und der Arm-Längen.
  • Joints sind nicht an der richtigen Stelle: Korrektur der Joints-Positionen.
  • Double Transformations: Verhindern durch genaue Gewichtskontrolle und Korrektur der Einflussbereiche.

Der Delta Mush Deformer und glatte Übergänge an Gelenken helfen, diese Probleme zu minimieren und die Verformung zu optimieren.

74
Q

Constraints und deren Einsatzmöglichkeiten?

A

Constraints und deren Einsatzmöglichkeiten

  • Point Constraint: Steuert die Position eines Objekts oder eine Achse. Beispiel: Position eines Auges oder einer Kamera.
  • Aim Constraint: Orientiert ein Objekt an einem Zielobjekt. Beispiel: Augen, Kamera, Taschenlampe.
  • Orient Constraint: Beeinflusst nur die Rotation eines Objekts. Beispiel: Räder eines Zuges.
  • Parent Constraint: Übernimmt Transformationsparameter (Position, Rotation) von einem oder mehreren Ziel-Objekten. Beispiel: Ein Ball wird zwischen der Hand und dem Zielobjekt als Parent gewechselt.
  • Pole Vector Constraint: Bestimmt die Ausrichtung der Joints entlang einer IK-Spline, um unerwünschtes Flipping zu vermeiden. Beispiel: Vermeidung von Knieflexionen.
75
Q

IK – Spline: Funktionsweise und Einsatzmöglichkeiten?

A

IK-Spline

Die IK-Spline verwendet eine NURBS-Kurve, um eine Joint-Kette zu steuern. Die Joints folgen den Vertices der Kurve, was flexible und organische Bewegungen ermöglicht. Einsatzmöglichkeiten umfassen:

  • Wirbelsäule: Ermöglicht natürliche Bewegungen und Biegungen.
  • Schlangen: Simuliert fließende, geschmeidige Bewegungen.
76
Q

Was sind Deformer? Allgemeine Funktionsweise?

A

Deformer

Deformer verändern die Geometrie eines Modells, indem sie Punkte gemäß festgelegten Regeln verschieben, ohne die Struktur direkt zu ändern.

  • Lattice Deformer (FFD - Free Form Deformation): Verändert die Geometrie innerhalb eines Quaders durch Bewegen von Deformationspunkten. Das Mesh passt sich der Bewegung dieser Punkte an.
  • Non-Linear Deformers: Bieten einfache Deformationen und haben eine eigene Transform-Node zur Steuerung der Deformation. Beispiele sind:
    • Bend: Beugt die Geometrie entlang einer Achse.
    • Sine (Wave): Verformt das Objekt entlang einer Sinuskurve.
    • Squash: Staucht oder dehnt das Objekt entlang einer Achse.
    • Twist: Verdreht das Objekt entlang einer Achse.
  • Wrap Deformer: Projiziert ein Detail-Objekt auf ein Ziel-Objekt, z.B. für Retopologie oder zur Übertragung von Details eines High-Resolution-Meshs auf ein Low-Resolution-Mesh.
77
Q

Was sind Blendshapes?

A

Blendshapes

Funktionsweise – Voraussetzungen:
- Blendshapes sind verschiedene deformierte Versionen derselben Geometrie.
- Sie ermöglichen das Blenden zwischen vorgefertigten Formen, z.B. Gesichtsausdrücke, mittels Slidern.
- Auch Mischungen von Blendshapes (Action Units) sind möglich, um feine Verformungen zu erzielen.
- Vertexdifferenzen werden gespeichert und zwischen diesen geblendet.
- Voraussetzungen: Gleiche Topologie und Vertex-Order müssen gewährleistet sein.

In-Between Blendshapes:
- Für komplexe Deformationen, bei denen nicht linear zwischen zwei Zuständen geblendet werden soll (z.B. Blüte, die aufblüht).
- Ermöglichen beliebig viele Zwischenstufen für detailliertere Übergänge.

78
Q

Welche dynamischen Systeme gibt es?

A

Simulationstechniken

  • Partikel-Systeme: Beeinflusste Partikel durch Gravitation, Wind etc.
  • Rigid Bodies: Stabile Körper mit Masse, Reibung, Elastizität.
  • Soft Bodies: Weiche, volumenbewahrende Materialien.
  • Hair/Fur: Simulation von Haaren und Fell.
  • Cloth: Textilsimulation; gleich große Faces, Stretch-free UVs.
  • Fluid: Flüssigkeitssimulation; Viskosität, Partikeltrennung.
  • Muscle: Simulation von Muskelausdehnung und -verformung.
  • Crowd/Flocking: Gruppendynamik und Agentensteuerung.
79
Q
  1. Worauf ist beim Arbeiten mit Dynamics grundsätzlich zu achten?
A

Time & Scale

80
Q

Welche Emitter Types gibt es bei dynamischen Simulationen?

A

Emitter Types
- Point: Emittiert Partikel von einem einzelnen Punkt im Raum.
- Directional: Emittiert Partikel in eine bestimmte Richtung.
- Spread: Emittiert Partikel in einem bestimmten Winkelbereich.
- Volume: Emittiert Partikel aus einem Volumen innerhalb eines Objekts.
- Emit from Object Surface: Emittiert Partikel von der Oberfläche eines Objekts.

81
Q

Nenne ein paar dynamic Fields!

A

Fields
- Air: Simuliert Luftwiderstand und -bewegung.
- Gravity: Simuliert die Anziehungskraft, die Partikel nach unten zieht.
- Turbulence: Fügt zufällige, wirbelartige Bewegungen hinzu.
- Vortex: Erzeugt rotierende, spiralförmige Bewegungen.
- Wind: Simuliert kontinuierliche, geradlinige Luftbewegungen.
- Radial: Bewegt Partikel radial nach außen oder innen.
- Drag: Reduziert die Geschwindigkeit von Partikeln durch Widerstand.

82
Q

Was sind Particle Goals?

A

Particle Goals

  • Einfluss: Partikel werden zu Zielen hin bewegt.
  • Animation: Der Einfluss auf die Partikelbewegung kann animiert werden.
  • Mehrere Ziele: Ein Partikelsystem kann mehrere Ziele haben.
83
Q

Wie können Particles gerendert werden?

A
  • Sprites/Billboards: Flache 2D-Bilder, die immer zur Kamera ausgerichtet sind.
  • Instanced Geometry: Wiederholende 3D-Modelle, Effizienz durch Instancing.
  • Point Rendering/Spheres: Punkte als Darstellung kleinster Partikel, eventuell mit Point Scale
  • Volumetrics/Clouds: Partikelwolken als Volumina, z.B. Rauch oder Nebel.
  • Metaballs/Blobby Surface: Partikel, die sich zu glatten, organischen Formen verbinden.
  • Streaks: Partikel, die gestreckte Streifen erzeugen
84
Q

Nenne Attribute die ein Particle haben kann?

A

Particle Attributes

  • Velocity
  • Per Particle Scale
  • Color
  • Age
  • Lifetime
85
Q

Nenne Attribute die ein RBD Object haben kann?

A
  • Velocity
  • Mass
  • Friction
  • Stickiness
  • Bounce
86
Q

Particle Caching – Wozu? Evntl. Probleme

A

Particle Caching

  • Funktion: Speichert alle Attribute an jedem Frame (z.B. Position).
  • Zweck: Ermöglicht das Wiederverwenden von Simulationen ohne Neuberechnung und erleichtert das Rendern.
  • Probleme: Große Dateigrößen und mögliche Speicherprobleme.
87
Q

MAYA – M.A.S.H - Funktionsweise, Möglichkeiten, Vorteile

A

M.A.S.H

  • Definition: Particle-System/Dynamics-Tool für parametrisierte und prozedurale Effekte.
  • Nodes: Verschiedene Funktionen, aufeinander aufbaubar und mit externer User Data (z.B. Audio) verknüpfbar.
  • Möglichkeiten: Scattering, MoGraph, Dynamics, Trails, Audio Reactive Visuals, etc.
  • Vorteile: Performant und prozedural.
88
Q

Was ist Tracking, wofür?

A

Zweck: Integration von virtuellen Objekten/Flächen in einer Aufnahme.

  • Matchmoving (manuell): Verfolgt Track-Punkte verschiedener Objekte. Position und Bewegung der Kamera und Objekte im Raum werden errechnet. Gegebenenfalls Marker platzieren.
  • 2D Tracking / Planar Tracking: Tracken von Flächen oder Ankerpunkten innerhalb eines Bildes (z.B. Screen Replacement, Aushängeschilder). Probleme: Motion Blur, Focal Shift.
  • 3D Camera Tracking / 3D Object Tracking: Errechnet eine virtuelle Kamera anhand bestimmter Trackingpunkte, identisch zur realen, für Arbeiten in einem 3D-Programm.
89
Q

Was ist Keying?

A

Keying

Zweck: Freistellen von Bildelementen aus dem Hintergrund, basierend auf einer Schlüsselfarbe (Keying). Dabei wird eine Maske (Alphakanal) erstellt, die für jeden Bildbereich oder Pixel eine Transparenz definiert.

  • Warum hat sich Greenscreen als Standard etabliert?
    • Grün kommt am wenigsten bei Menschen vor, daher leichter zu keyen.
    • Bessere Trennung von menschlicher Hautfarbe.
  • Wann Bluescreen verwenden?
    • In der Natur (besserer Kontrast zu natürlichem Grün).
    • Bei hellerem Licht (natürlicheres Lichtstrahlung).
90
Q

Was ist Rotoscoping?

A

Rotoscoping

2D Anwendungsbereich:
- Nachzeichnen von Live-Action-Aufnahmen.

Für VFX:
- Ausschneiden von Live-Action-Footage bestimmter Charaktere oder Objekte.

91
Q

Was ist Projection Mapping?

A

Projection Mapping

  • Definition: Stereoskopische Projektion von Videomaterial oder Ähnlichem zur Illusion von Tiefe oder Hintergrund.
92
Q

Was ist 3D Object Integration?

A

Einfügen von 3D-Objekten in reale Szenen

  • Kameraeinstellungen: Übernehmen der Kameraeinstellungen, besonders der Brennweite.
  • Tracking: Kamera-Tracking bei Kamerabewegungen.
  • Lichtsituation nachahmen: Verwenden von HDRI und Umgebung Blockout für realistisches Global Illumination (GI).
  • Rendering: Rendern mit Alphakanal.
  • Matte Shadow Catcher/Receiver: Verwenden für Schattenfang und -empfang.
  • Stand-In References: Verwenden von Stand-Ins für Referenzen.
  • Noise Matching: Anpassen des Rauschens.
  • Reflection Matte: Erstellen von Reflexionsmasken.
93
Q

Nenne ein paar VFX – Workflows?

A

Erweiterte Postproduktions-Techniken

  • Set Extension: Erweiterung des Sets um digitale Elemente wie 3D-Objekte, Backplanes oder Matte Paintings. Anforderungen wie bei Tracking und Greenscreen gelten hier ebenfalls.
  • Characters & Creatures:
    • Characters: Verwendung von DigiDoubles, 3D-Scans und Motion Capture für die Integration von Schauspielern.
    • Creatures: High-Resolution-Modelle und Texturen, präzises Rigging und Animation. Integration erfolgt wie bei der 3D-Objekt-Integration.
  • Digital Makeup / Body Replacement: Verwendung von DigiDoubles, die mithilfe von Motion Capture an dieselbe Position im Live Footage eingefügt werden.
  • Weather Effects:
    • Ideal als Spezialeffekte (SFX).
    • Tracking der Effekte in den Shot ist erforderlich; Wind-Effekte sind in der Postproduktion schwer umzusetzen.
  • Crowds:
    • Implementierung als Set Extension.
93
Q

Qualitätskriterien Video Footage für angenehme Postproduction?

A

Qualitätskriterien für Video Footage in der Postproduktion

  • Kamera-Daten: Position, Rotation, Brennweite, Sensor, ISO-Wert, Objektiv, Schärfe (Fokus), ggf. Focus Pull.
  • Color Space: Log oder ProRes 444.
  • Auflösung: Möglichst hochauflösendes Footage.
  • Motion Blur: Minimieren bei Tracking-Shots (wichtig für Tracking und Rotoscoping).
  • Noise: Niedriges Rauschen (geringer ISO-Wert oder Native ISO).
  • Überstrahlte Lichter: Vermeiden.
  • Green/Bluescreen: Gleichmäßige, saubere Ausleuchtung.
  • 3D-Integration: HDRI und Lichtwerte, ggf. gescannte Hero-Objekte.
94
Q

Grundsätzliche Anforderungen an Game Assets?

A
  • 360° Funktionalität: Game Assets müssen aus allen Richtungen gut aussehen und funktionieren, einschließlich der Animation und Detailgenauigkeit.
  • Optimierte Topologie: Für Game Engines muss die Topologie der Assets optimiert sein, um Performance zu gewährleisten.
  • Baking von Maps: Um die Details effizient zu speichern, sollten wichtige Informationen wie Normals und Ambient Occlusion in Maps gebaked werden.
  • Materialoptimierung: Verwenden Sie so wenige Materialien wie möglich, um die Performance zu verbessern.
  • LODs (Level of Detail): Erstellen Sie verschiedene Detailstufen (LODs) für unterschiedliche Entfernungen, um die Renderleistung zu optimieren.
  • Pre-baked Mip Maps: Nutzen Sie Mip Maps für eine bessere Texturqualität und Performance.
95
Q

Games: Was sind Limits bei Character Deformation?

A

Character Deformation – Limits

  • Blendshapes: Können in der Performance eingeschränkt sein, da sie viele verschiedene Geometrien speichern müssen.
  • Physics: Bei physikalischen Simulationen wie Cloth-Simulationen ist es oft besser, diese zu binden statt in Echtzeit zu simulieren. Alternativ können Simulationen vorab gebaked werden.
  • Bone Skalierung: Die Skalierung von Bones wird nicht immer von allen Systemen unterstützt und kann zu Problemen führen.
96
Q

Games: Character) Animation – Anforderungen?

A
  • Vielseitigkeit: Animationen müssen aus allen Blickwinkeln funktionieren und realistisch wirken.
  • Gebaked und Loops: Animationen werden gebaked und in Loops organisiert, um nahtlose Übergänge zu ermöglichen.
97
Q

Was ist Mipmapping?

A

Mipmapping in Games

  • Aggressive Nutzung: Mipmapping ist in Games besonders wichtig, um die Performance zu optimieren und Aliasing-Effekte zu reduzieren.
  • Texturen in Zweierpotenzen: Texturen sollten in Zweierpotenzen vorliegen (z.B. 256x256, 512x512), da sie auf die nächste höhere Potenz hochgerechnet werden, was die Texturverarbeitung effizienter macht.
  • Vorab gebaked: Mip Maps werden meist vorher gebaked und berechnet. Diese Mip Maps werden in Level of Detail (LODS) organisiert oder maßgeschneidert, um die Sichtbarkeit und Performance in verschiedenen Entfernungen zu optimieren.
98
Q

Facial Animation in Game Engines?

A
  • Joints für Facial Animation: In Game Engines werden Gesichtsanimationen häufig durch Joints und Rigging realisiert, um eine performante und kontrollierte Animation zu ermöglichen.
  • Blendshapes: Blendshapes sind weniger performant in Game Engines, da sie viele Berechnungen und komplexe Mesh-Deformationen erfordern.
99
Q

Level of Detail?

A

LOD’s (Level of Detail)
- Definition: Distanzabhängige Dezimierung von Geometrie und Mip Mapping von Texturen.
- Unreal Engine 5: Ersetzt LOD’s durch den Nanite-Algorithmus, der Meshes dynamisch trianguliert.

100
Q

Was ist Realtime Light?

A

Berechnet Helligkeitswerte an Oberflächen in Echtzeit. Wirft Schatten bis hin zur Shadow Distance. Rechenintensiv. Nur Direct Light (Schatten komplett schwarz).

101
Q

Baked Light - Probleme?

A

Baked Light – Probleme
- Light Maps: Baked Lichter werden in Light Maps gespeichert und sind auf die Auflösung angewiesen.
- Eingeschränkte Anpassung: Eigenschaften der gebackenen Lichter können zur Laufzeit nicht verändert werden.
- Reflektionen: Baked Lights erscheinen nicht in Reflektionen.
- Dynamische Objekte: Erhalten keine Schatten von gebackenen Lichtern.
- Leistung vs. Speicher: Rechenkostensparend, aber erfordern mehr Arbeitsspeicher.
- UV-Unverzerrung: Light Maps erfordern möglichst unverzerrte UVs aller Objekte.

102
Q

Was versteht man unter Mixed Light?

A

Mixed Light
- Kombination: Vereint Baked Light und Realtime Lighting.
- Indirektes Licht: Nutzt baked lighting für indirekte Beleuchtungseffekte.
- Echtzeit-Schatten: Ermöglicht Echtzeit-Schatten für dynamische Objekte.
- Anwendung: Ideal für Szenen, die sowohl statische als auch dynamische Beleuchtung benötigen.

103
Q

Wie funktioniert AO in Games?

A

Ambient Occlusion in Games

  • Baked Ambient Occlusion: Vorkalkuliert und in Texturen gespeichert; rechenaufwändig in der Erstellung, aber performant im Spiel.
  • Screen Space Ambient Occlusion (SSAO):
    • Pixel Shader: Analysiert Tiefenpunkte (Z-Buffering) zur Berechnung der Occlusion.
    • Dynamisch: Echtzeit-Berechnung, konsistent mit der Kameraansicht.
    • GPU-basiert: Läuft über die Grafikkarte, einfach zu implementieren.
  • Horizon-Based Ambient Occlusion:
    • Höchste Qualität: Erzeugt detaillierte Schatten basierend auf der Umgebung.
    • Performance: Höchster Leistungsaufwand, daher weniger häufig verwendet.
104
Q

Wie kann man in Games Reflektionen erzeugen? (asked 2024)

A

Reflection Mapping

  • Planar Reflections: Reflektionen auf flachen Flächen.
  • Cubemaps: Texturen auf einem Würfel für Umgebungsreflexionen. Erweiterung von Planar Reflections.
  • Screen Space Reflections (SSR): Reflektiert auf Basis des Geometry Buffers. Nur sichtbare Objekte werden reflektiert, ideal in Kombination mit Cubemaps.

Reflection Probes

  • Funktion: Erfasst 360-Grad-Bilder als Cubemap zur Reflexionserzeugung für reflektierende Materialien.

Raytracing

  • Funktion: Berechnet Reflektionen durch Raytracing im Z-Buffer und Geometry Buffer, sehr rechenintensiv. NVIDIA optimiert mit CUDA Cores.
105
Q

Was ist Hardware Instancing?

A

Hardware Instancing

  • Funktion: Erlaubt das gleichzeitige Zeichnen mehrerer Instanzen eines Objekts mit nur einem Draw Call.
  • Anwendung: Ideal für viele gleichartige Objekte wie Gras, Blätter oder einfache Set-Dressing-Objekte (Bücher, Pflanzen).
  • Vorteil: Reduziert die Anzahl der Draw Calls und verbessert die Performance.
106
Q

Was ist ein Draw Call?

A

Draw Call

  • Definition: Anweisung an die GPU, ein Objekt (inklusive Texturen, Shader, Buffers) zu laden und anzuzeigen.
  • Relevanz: Draw Calls sind rechenintensiv. Jeder Materialwechsel und jede Lichtquelle erfordert einen eigenen Draw Call.
  • Leistungsimpact: Hohe Anzahl von Draw Calls kann zu „Bottlenecks“ führen, da die CPU Zeit benötigt, um die Daten für die GPU vorzubereiten.
  • Optimierung: Neuere APIs wie DirectX 12 und Vulkan verbessern die Handhabung und Effizienz von Draw Calls.