Joeys 3D Questions (2024) (!!!!!!!) Flashcards
Enthält alle Joey Fragen, wenn er diese nach dem Fachbereichsfeedback nicht abgeändert hat.
Unterschied Kopie & Instanz? (asked 2024)
Bonus: Erkläre anhand eines selbst ausgedachten Beispiels!
Instanz: Verweist auf das Originalobjekt und übernimmt alle Änderungen, kann jedoch eigenständig transformiert werden.
Kopie: Ist ein vollständig unabhängiges Duplikat des Originalobjekts und kann unabhängig verändert und transformiert werden.
Parent Child Beziehung? - Unterschied zum Parent Constraint? (asked 2024)
Bonus: Erkläre anhand eines selbst ausgedachten Beispiels!
In Parent-Child-Beziehungen werden alle Transformationen entlang der lokalen Achse des Parents auf die Childs übertragen. Es handelt sich um eine hierarchische Objektbeziehung mit mehreren möglichen Childs.
Beim Parent Constraint ist der Einfluss (Weight) der Transformationen des Target-Parents einstellbar. Mehrere Target-Parents sind möglich, und es können spezifische Transformations-Parameter (x, y, z) gewählt werden. Die Skalierung wird nicht übernommen.
Was ist PreViz und warum ist das in den letzten Jahren so wichtig geworden?
Previs (Previsualization) ist eine detaillierte, oft 3D-animierte Planung von Szenen zur Visualisierung von Kameraeinstellungen und visuellen Effekten, während
Animatics einfache, animierte Storyboards zur Planung der Erzählstruktur und des Timings dienen;
Postvis (Post-Visualization) kombiniert in der Nachbearbeitung reale Szenen mit computergenerierten Effekten, um den finalen Schnitt zu verfeinern.
Unterschied Game Asset – VFX Asset?
Game Assets: Optimiert für Performance, benötigen geringe Polygonanzahl, verwenden meistens Normalmaps, LODs und Mip Maps. Müssen aus allen Blickwinkeln gut aussehen.
VFX Assets: Höhere Polygonanzahl möglich, Detailgrad je nach Relevanz, weniger auf Performance optimiert, Optimierung nur bei Animationen notwendig.
Unterschied VFX – SFX
-
VFX (Visual Effects):
- Werden in der Post-Produktion hinzugefügt.
- Beispiele: Digitale Effekte, Computergenerierte Elemente, 3D-Modelle.
-
SFX (Special Effects):
- Werden während der Produktion verwendet.
- Beispiele: Feuer, Nebel, Animatronics.
Was ist das Uncanny Valley? (asked 2024)
Uncanny Valley:
Ein Phänomen, bei dem künstliche Charaktere zunächst gut akzeptiert werden, aber bei fast menschenähnlicher Darstellung plötzlich abgelehnt werden. Erst bei extrem realistischer Darstellung verbessert sich die Akzeptanz wieder. Das Konzept wurde 1970 von Masahiro Mori eingeführt und stammt aus der Robotik.
Was ist FACS? (asked 2024)
FACS (Facial Action Coding System):
Ein System zur Beschreibung von Gesichtsausdrücken, entwickelt von Paul Ekman 1978. Es verwendet 46 „Action Units“ zur Darstellung und Kombination von Basis-Emotionen wie Wut, Freude, Trauer, Ekel, Verachtung, Angst und Überraschung. Auch KI nutzt FACS zur Analyse von Gesichtsausdrücken.
Color Grading / Color Correction?
Color Correction:
Anpassung von Farbwerten durch Transformationen wie Linear zu ACES oder Log zu Rec.709, oder durch Angleichen an einen Color Chart/Color Checker.
Color Grading:
Ein künstlerischer Prozess zur Definition und Verstärkung der Atmosphäre eines Films.
Schildere den Ablauf eines Animationsprojekts!
Idee – Konzept – Teamaufstellung – Projektplan/Kostenplan/Zeitplan/etc. – Storyboarding – PreViz – Animatic – Production (Character, Animation, Effects, Audio, Modelling, etc.) – (PostViz) – Compositing – Grading – Export
Utah – Teapot?
Das Utah Teapot wurde 1975 von Martin Newell an der Universität Utah erstellt. Es ist ein Referenzmodell in der Computergrafik, bekannt für seine Sattelpunkte und konkaven Elemente. Es wird als Bezier-Fläche beschrieben und gilt als Ikone in der Computergrafik.
Fraktale? (asked 2024)
Fraktale:
Bezeichnet von Benoît Mandelbrot 1975. Fraktale haben eine gebrochene Hausdorff-Dimension und bestehen aus selbstähnlichen, sich wiederholenden Strukturen (z.B. Koch-Snowflake). Sie basieren auf Selbstähnlichkeit und Skalenvarianz und sind in der Natur (Bäume, Blutgefäße, Flusssysteme) zu finden. In der Computergrafik werden Fraktale für prozedurale Texturen, Shader, Simulationen und 3D-Fractal-Art verwendet.
Was ist Mipmapping?
MIP-Mapping:
Eine Technik zur Verbesserung der Texturqualität bei Skalierung. Sie erstellt Texturen in verschiedenen Auflösungen und wählt je nach Größe des Bildpixels die passende MIP-Map aus. Das reduziert Aliasing und verbessert Bildqualität und Speicherbandbreite.
Trilineare Filterung:
Ergänzt MIP-Mapping, indem sie benachbarte MIP-Maps interpoliert, um Banding-Effekte zu minimieren und Texturen gleichmäßiger darzustellen.
Was ist die Rotation Order?
Die Rotation Order gibt die Reihenfolge an, in der Rotationen um die Achsen eines Koordinatensystems ausgeführt werden. Sie ist wichtig aus folgenden Gründen:
- Vermeidung von Gimbal Lock: Verschiedene Rotationsreihenfolgen können Gimbal Lock vermeiden oder minimieren, indem sie verhindern, dass zwei Achsen der Rotationsebene zusammenfallen.
- Konsistenz und Standardisierung: Die Festlegung einer Rotation Order sorgt für Konsistenz und Standardisierung bei der Animation und Datenübertragung, was wichtig ist, um sicherzustellen, dass Rotationsergebnisse über verschiedene Systeme hinweg übereinstimmen.
Wer war Lotte Reiniger?
Lotte Reiniger (1899-1981) war eine Pionierin der Silhouetten-Animation. Sie ist bekannt für ihren abendfüllenden Trickfilm „Die Abenteuer des Prinzen Achmed“ (1926), der als der erste erhaltene abendfüllende Animationsfilm gilt. Reiniger erfand die „Multi-Camera-Plane“, eine Technik, die später von Disney weiterentwickelt wurde. Ihre Filme basierten oft auf Märchen. Sie floh mit ihrem Ehemann vor den Nazis, wurde jedoch gezwungen, Propagandafilme zu produzieren.
Wer war Walt Disney?
Walt Disney (1901-1966) gründete 1923 mit seinem Bruder die Walt Disney Company in Hollywood. Er wurde 1928 durch Mickey Mouse berühmt und revolutionierte Zeichentrickfilme mit Ton und Farbe. 1937 veröffentlichte er den ersten abendfüllenden Zeichentrickfilm „Schneewittchen“ und prägte sich als führender Märchenerzähler der Nation.
Wer war Ray Harryhausen?
Ray Harryhausen (1920-2013) perfektionierte die Stop-Motion-Animation. Berühmt für Filme wie „Jason and the Argonauts“ (1963), beeinflusste er die Spezialeffekte-Industrie.
Wer war Ruth Weiss?
Ruth Weiss entwickelte 1965 bei Bell Labs den Hidden-Line Removal Algorithm. Dieser Algorithmus teilt Kanten in Linien-Segmente an Raster-Schnitten und prüft die Sichtbarkeit jedes Segments gegenüber den Flächen des Modells. Beziehungsweise entfernt nicht sichtbare Linien.
Wer war John Withney?
John Whitney (1917-1995) war ein Pionier der Computeranimation und Experte für Motion Graphics. Er arbeitete mit Saul Bass an den Titel-Sequenzen für „Vertigo“. Whitney gründete Motion Graphics Incorporated und gilt als einer der Väter der Computeranimation. Sein bekanntestes Werk ist „Arabesque“ (1975).
Wer war
Wer war Ivan Sutherland?
Ivan Sutherland ist Professor und Entwickler, der am Utah-Computing-Projekt arbeitete. Er entwickelte Sketchpad, den Vorläufer des Grafiktabletts, und das Head Mounted Display (HMD), bekannt als „Sword of Damocles“ (1968), eines der ersten Virtual-Reality-Geräte. Das System war so schwer, dass es an der Decke befestigt werden musste. Die Grafik bestand aus einfachen Wireframe-Räumen.
Wer war Ed Catmull?
Ed Catmull ist ein Pionier der 3D-Computergrafik. Er entwickelte die erste 3D-Hand und das erste 3D-Gesicht („A Computer Animated Head“). Catmull erfand das Z-Buffering zur Verdeckungsberechnung, das festlegt, welche Teile einer Szene sichtbar sind. Er entwickelte auch Texture Mapping (2D-Texturen auf 3D-Objekte anwenden), B-Splines und den Catmull-Clark Subdivision Surface Algorithmus. Zusammen mit Steve Jobs gründete er Pixar, wo unter seiner Leitung RenderMan entwickelt wurde.
Wer war Jim Blinn?
Jim Blinn ist bekannt für seine Arbeiten in der Computergrafik, insbesondere:
- Reflection and Environment Mapping: Eine Methode zur Simulation von spiegelnden Oberflächen durch Projektion einer Textur, die die Umgebung des Objekts darstellt.
- Blinn-Shader: Ein Shading-Modell zur besseren Simulation von Licht und Materialien.
- Bump Mapping: Eine Technik zur Verbesserung der Oberflächenstruktur von 3D-Modellen, um Details wie Unebenheiten ohne zusätzliche Geometrie zu erzeugen.
Wer war Paul Ekman?
Paul Ekman (1934-) ist ein Psychologe, bekannt für seine Forschung zu Universal-Mikroexpressionen und FACS (Facial Action Coding System). Er studierte non-verbale Kommunikation und identifizierte grundlegende, universelle Emotionen, die in Gesichtsausdrücken weltweit erkannt werden können.
Wer war Paul Debevec?
Paul Debevec ist bekannt für die Entwicklung von Image-Based Lighting und HDR Workflow, Techniken zur Verwendung von Lichtwerten aus High-Dynamic-Range-Fotografien in 3D-Szenen, wie in „Matrix Reloaded“ und „Spider-Man 2“. Er entwickelte auch Image-Based Modeling, eine Methode zur Erstellung von 3D-Modellen aus Bildern.
Was ist saubere Topologie?
Saubere Topologie bedeutet:
- Keine Ngons: Vermeide Polygone mit mehr als vier Ecken.
- Saubere Loops: Halte Edge-Loops und Edge-Flows klar und geordnet.
- Idealerweise Quads: Nutze vorzugsweise Vierecke statt Dreiecke oder Ngons.
- Durchschnittliche Dichte an Polygonen: Vermeide zu viele oder zu wenige Polygone.
- Edge-Flow: Richten sich entlang der konvexen und konkaven Stellen des Modells aus.
- Alignte Normals: Richtige Ausrichtung der Hard- und Soft-Normals.
- Keine nicht-planaren Faces: Vermeide Flächen, die nicht plan sind.
- Keine non-manifold Geometrie: Vermeide Geometrie, bei der ein Punkt mehr als vier benachbarte Punkte oder eine Kante mehr als zwei Flächen hat.
Was ist Non-Manifold Geometry?
Non-manifold Geometrie:
- Punkt mit mehr als vier benachbarten Punkten: Ein Punkt (Vertex), der mehr als vier Kanten oder Flächen teilt.
- Edge mit mehr als zwei Flächen: Eine Kante, die mehr als zwei Flächen verbindet.
Diese Geometrie kann zu Problemen bei der Modellierung und beim Rendering führen.
Was versteht man unter Water Tight Geometry?
Water Tight Geometry:
Bezeichnet eine Geometrie ohne Löcher oder offene Stellen, bei der man sich vorstellen kann, dass sie vollständig mit Wasser gefüllt werden kann, ohne dass das Wasser herausläuft. Diese Art von Geometrie ist wichtig für genaue Simulationen und Rendering oder 3D Print.
Was versteht man unter Duplicate Edges und Duplicate Vertecies?
Overlapping Geometry:
- Doppelte Edges: Wenn zwei unterschiedliche Kanten (Edges) dieselben zwei Punkte (Vertices) verbinden.
- Doppelte Punkte: Wenn zwei Punkte (Vertices) sich exakt an den gleichen Positionen befinden und jeweils mit Kanten verbunden sind, die sich überlagern.
Was versteht man unter Self Intersection?
Self-Intersecting Polygons:
- Falsche Vertex-Order: Die Reihenfolge der Punkte ist inkonsistent, was dazu führt, dass mindestens zwei nicht benachbarte Kanten sich schneiden.
- Nicht orientierbare Flächen: Eine konsistente Auswahl eines Normalenvektors ist nicht möglich, da die Fläche in der gewählten Richtung (im Uhrzeigersinn oder gegen den Uhrzeigersinn) nicht eindeutig orientierbar ist.
Beispiele: Die Kleinflasche und der Möbiusband sind nicht orientierbar. Während die Kleinflasche self-intersecting sein kann, ist das Möbiusband zwar nicht self-intersecting, aber dennoch non-orientable.
Unterschied Polygone – NURBS?
NURBS (Non-Uniform Rational B-Splines):
Mathematisch definierte Kurven oder Flächen zur Modellierung beliebiger Formen. Sie sind stetig differenzierbar und können beliebige Grade annehmen.
Polygon:
Ein Vieleck, das durch einen geschlossenen Streckenzug (Linie) aufgespannt wird.
Was versteht man unter Retopology?
Retopology:
Der Prozess, bei dem aus einem hochauflösenden oder unregelmäßig tessilierten Objekt (wie einem Sculpt oder Scan) ein neues Modell mit besserer Topologie erstellt wird. Dies verbessert die Handhabung, z.B. für saubere UVs, Optimierung für Animation oder bessere Objekttrennung.
Flächennormalen – Vertex Normalen?
Flächennormalen:
- Definition: Vektoren, die senkrecht auf der Fläche eines Polygons stehen.
- Eigenschaften: Einheitsvektoren, die im rechten Winkel zur Tangentialfläche stehen.
- Ausrichtung: Hängt von der Windungsrichtung der Vertices ab (im Uhrzeigersinn oder gegen den Uhrzeigersinn).
Vertex-Normalen:
- Definition: Richtungsvektoren an jedem Vertex zur Definition der Oberflächenorientierung.
- Berechnung: Meistens als Durchschnitt der Flächennormalen der an diesem Vertex angrenzenden Polygone. Der Durchschnitt kann gewichtet werden.
UV -Koordinaten Erstellung und deren Einsatz?
UV-Koordinaten:
- Zweck: Dienen dazu, die Oberfläche eines 3D-Modells auf einem 2D-Bild darzustellen.
-
Koordinaten:
u
undv
beschreiben Texturkoordinaten innerhalb eines 0-1 kartesischen Koordinatensystems. - Funktion: Weisen jedem Vertex oder Polygon einen Pixel einer 2D-Textur zu und helfen, die Oberfläche des Modells zu „entfalten“ (UV-Unwrapping) für eine verzerrungsfreie Texturdarstellung.
- Texel Density: Wichtig, um eine konsistente Texturqualität zu gewährleisten.
- Edge Flow: UV-Koordinaten sollten entlang von Edge-Flows verlaufen und rechteckig sein, um Anti-Aliasing-Fehler zu vermeiden.
- Schnitte im UV: Sollten minimiert werden, um die Anzahl der Einzelteile zu reduzieren und Verzerrungen zu minimieren.
- NURBS: Bei NURBS-Modellen sind UV-Koordinaten aufgrund der mathematischen Eigenschaften automatisch enthalten.
Modelling Techniques?
Modeling Techniques:
- Box Modeling: Startet mit einem Primitive (z.B. Würfel) und formt es durch Extrudieren und Bearbeiten.
- Edge Modeling: Konturenmodellierung basierend auf Blueprint.
- Curve-Based Modeling (NURBS): Nutzt Kurven oder Splines für die Modellierung, z.B. durch Drehen für symmetrische Objekte.
- Sculpting: Modellierung ähnlich wie in der Bildhauerei, durch direktes Bearbeiten der Oberfläche.
-
3D Scanning:
- Contact-Based: Scannen mit Koordinatenmessmaschinen (CMM).
- Lidar: Lichtlaufzeit-Scan für Umgebungen.
- Photogrammetry: Erzeugt 3D-Modelle aus Fotos durch Triangulation.
- Procedural Modeling: Erzeugt Modelle durch parametrische Methoden, z.B. für Bäume, Landschaften, Städte und Stoffe.
Unterschied Shader – Texture?
Texturen und Shader:
- Textur: Speichert pixelweise Informationen, die vom Shader genutzt werden.
- Shader: Ein Algorithmus, der die Texturwerte interpretiert und darstellt.
- Zusammenarbeit: Texturen liefern die Daten, Shader verarbeiten diese und definieren das Aussehen des Materials.
- Zusätzliche Inhalte: Texturen können auch Noises, Gradients und andere Generatoren oder User Data enthalten.
Nenne ein paar Standard Shader!
Standard Shader:
- Gouraud Shading: Entwickelt von Henri Gouraud. Interpoliert Vertex-Farben, um Kanten von Polygonen weich darzustellen.
- Lambert Shading: Für perfekte Diffusität der Oberflächen (veraltet).
- Phong Shading: Verbessert Gouraud durch Interpolation der Pixelwerte, was die Qualität von Highlights und Shading erhöht.
- Blinn-Phong Shading: Weiterentwicklung des Phong-Shadings von Jim Blinn. Bietet bessere Kontrolle über Highlights und komplexere Materialdarstellung.
- PBR (Physically Based Rendering): Ermöglicht physikalisch plausible Ergebnisse durch standardisierte Parameter wie Metallness (0 bis 1).
Unterschied Normal Map - Bump Map?
Normal Map vs. Bump Map:
-
Normal Map:
- Zweck: Überträgt Beleuchtungsnormale von einem hoch aufgelösten Modell auf ein niedrig aufgelöstes Modell, ohne Vertices zu verschieben.
- Speicherung: Richtungen der Normalen werden in RGB-Kanälen des Bildes gespeichert.
- Verwendung: Kann auch für Oberflächenunregelmäßigkeiten wie Wölbungen oder Kratzer verwendet werden.
-
Bump Map:
- Erfinder: Jim Blinn.
- Zweck: Nutzt ein Graustufenbild zur Simulation von Oberflächenstrukturen, indem es die Normalen für die Lichtberechnung anpasst.
- Wirkung: Ändert die Lichtberechnung, ohne die Geometrie tatsächlich zu deformieren; die Wahrnehmung der Struktur hängt von der Kameraansicht ab.
Welche Arten von Displacement gibt es?
Displacement Maps:
- Height Displacement: Verschiebt Vertices entlang ihrer Normalen nach Graustufenwerten (Schwarz = Erosion, Weiß = Erhöhung).
- Vector Displacement: Verschiebt Vertices basierend auf Richtungsvektoren aus der RGB-Textur für komplexe Formen.
- Parallax Mapping: Simuliert Displacement in Echtzeit durch Textur-Koordinaten-Verschiebung (veraltet).
- Height Map: Ähnlich wie Displacement Map, zeigt Höhenänderungen (Schwarz = keine Veränderung, Weiß = Erhöhung); wird im Vertex Shader verwendet.
Unterschied Roughness/Glossiness?
Roughness/Glossiness:
- Roughness: Beschreibt die Rauheit der Oberfläche. Höhere Werte (1) bedeuten maximale Rauheit.
- Glossiness: Ist das Gegenteil von Roughness. Höhere Werte (1) bedeuten maximale Glattheit.
- Zweck: Simuliert Mikrostrukturen und Unebenheiten der Oberfläche, um physikalische Oberflächen-Eigenschaften realistisch darzustellen.
Was ist Anisotrophy?
Anisotropic:
- Definition: Oberflächen mit gerichteten Unebenheiten, die Highlights in eine bevorzugte Richtung verzerren.
- Beispiel: Materialien wie gebürstetes Aluminium oder der Boden eines Topfes.
- Effekt: Führt zu langgezogenen, anisotropen Highlights bei Reflexionen.
Was ist Transparenz/Opacity?
Unterschied zwischen Transparenz und Opacity:
- Transparency: Bezieht sich auf den Grad, in dem ein Material Licht durchlässt. Höhere Werte (z.B. 1) bedeuten vollständige Transparenz, d.h., das Material ist unsichtbar.
- Opacity: Bezieht sich auf den Grad, in dem ein Material Licht blockiert oder undurchsichtig ist. Höhere Werte (z.B. 1) bedeuten vollständige Opazität, d.h., das Material ist nicht durchsichtig. (Opakheit)
Zusammenfassung:
- Transparenz misst, wie viel Licht durch das Material hindurchgeht.
- Opazität misst, wie viel Licht vom Material blockiert wird.
Beide Begriffe sind komplementär und oft als Gegenpole zu verstehen.
Unterschied Vertex Shader / Pixel Shader?
Unterschied zwischen Vertex Shader und Pixel Shader:
-
Vertex Shader:
- Aufgabe: Manipuliert die Geometrie der Szene durch Transformationen wie Verschiebung, Skalierung und Rotation.
- Aufruf: Pro Vertex (Eckpunkt) eines Modells.
- Einschränkung: Kann keine Tesselierung durchführen. Dies übernehmen Geometry Shader oder Tesselation Shader.
-
Pixel Shader (Fragment Shader):
- Aufgabe: Bestimmt die Farbe und Eigenschaften jedes einzelnen Pixels eines Objekts, einschließlich Effekten wie Transparenz und Bump Mapping.
- Aufruf: Pro Pixel (Fragment) auf dem Bildschirm.
Toonshader – Was definiert den Look – wie wird dieser erstellt?
Toonshader:
-
Look:
- Gestufte Helligkeitsstufen: Statt eines kontinuierlichen Lichtabfalls werden Lichtstufen in klare, separate Bereiche unterteilt.
- Outlines: Charakteristische schwarze oder farbige Umrisse, die den Cartoon-Look verstärken.
-
Erstellung:
- Non-Photorealistic Rendering (NPR): Der Toonshader gehört zur NPR-Kategorie, die nicht photorealistische, stilisierte Darstellungen ermöglicht.
- Cell Shader: Oft verwendet, um den Toon-Look zu erzeugen, indem Lichtstufen in Zonen unterteilt und harte Kanten statt sanfter Übergänge verwendet werden.
Zusammenfassung: Der Toonshader erstellt einen cartoonhaften Look durch schrittweise Helligkeitsstufen und betont Outline-Effekte.