Filmtechnik Flashcards

1
Q

Welche zwei Modelle für Licht kennen wir?

A

Licht ist weder eine Welle noch ein Teilchen. Aber beide Modelle sind nützlich, um uns die Eigenschaften des Lichts zu erklären und vorherzusagen.

Welle → Doppelspalt
Teilchen → Schrotrauschen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Wie erklären wir uns das Schrotrauschen?

A

Licht als diskrete Teilchen „Photonen“. Und da diese Teilchen nicht gleichmäßig z.B. auf die „Fotooberfläche“ treffen entsteht ein Rauschen im Bild, da einzelne Stellen beleuchtet wurden, mache aber auch nicht.

Dieses Rauschen kann nicht durch technische Maßnahmen unterdrückt werden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Wie erklären wir uns Farbe physikalisch?

A

Licht als Zusammensetzung von verschiedenen Wellenlängen. Die Spektrale Strahlenverteilung zeigt an wie viel Energie eine Lichtquelle in welcher Wellenlänge abstrahlt, bzw. wie viel Prozent der Energie ein Objekt pro Wellenlänge reflektiert.

Bei Sonnenlicht ist diese Strahlenverteilung sehr gleichmäßig. Anders bei z.B. Glühlicht welches kaum Blau-Anteile und viele Rot-Anteile enthält.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Warum erzeugt RGB-Licht oft eine schlechte Farbwiedergabe?

A

In der Strahlenverteilung von RGB-Licht kann man sehen, dass dies sehr hohe Peaks bei Rot, Grün und Blau aufweist. Dies kann sich dadurch erklären, dass RGB-Licht, wie schon im Name enthalten, aus rotem, grünen und blauen Licht besteht. Wenn alle Farben gemischt werden, entsteht zwar als Endeindruck weiß, aber da zwischen den einzelnen Farben „Lücken“ entstehen, können Farben in diesen Lücken schwer dargestellt werden.

Die orangene Paprika ist nicht von der Roten zu unterscheiden.

Hauttöne, die sich auch in dem orangenen Bereich befinden, werden rot-grün fleckig wiedergegeben. Dies entsteht dadurch, dass Hautfarbe hier nur durch Grün bzw. Rot dargestellt werden kann.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Wie ist das Auge aufgebaut?

A

Iris/Pupille → Ist sozusagen die „Blende“ des Auges. Sie steuert wieviel Licht ins Auge fällt und dehnt sich dementsprechend aus oder zieht sich zusammen.

Linse → Ist das Glaselement des Objektivs. Dieses ist jedoch nicht starr, sondern kann sich verformen um auf verschiedene Distanzen zu Fokussieren.

Netzhaut → Ist der „Sensor“ des Auges. Diese wandelt das Licht in elektrische Ströme und und leitet diese durch den Sehnerv ins Gehirn. Die Netzhaut ist dunkel um Streulicht zu absorbieren

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Welche Sehnerven gibt es in der Netzhaut?

A

Stäbchen: Sie sind fürs Nachtsehen zuständig.

Zapfen: Sind fürs Tagessehen und Farbsehen zuständig.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Wann und wie sehen wir mit den Stäbchen?

A

Wir sehen nur bei Dunkelheit mit den Stäbchen. Dadurch dass diese keine Farbe wahrnehmen können wir nachts nur Schwarz-weiß sehen. Daher kommt der Spruch „Nachts sind alle Katzen grau“.

Säugetiere haben mehr Stäbchen als Zapfen (Nachtaktiv). ~ 120 Mio Stäbchen, 8 Mio Zapfen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Wann und wie sehen wir mit den Zapfen?

A

Wir sehen nur im Hellen mit den Zapfen. Es gibt drei Typen von Zapfen S,M,L benannt nach den Wellenlängen für die sie empfindlich sind (Short,Medium,long) bzw. Blau, Grün, Rot.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Wie sind die Zapfen in der Netzhaut verschaltet?

A

Die Zapfen sind in 3 verschieden Wegen miteinander verschaltet. Dadurch werden die Farbinformationen von den Helligkeitsinformationen dekorreliert um an Übertragungsbandbreite in höhere Schichten des Hirns zu sparen.
→ Vergleich Y, Cr, Cb

Helligkeit = L+M (Rot+Grün)
Rot-Grün = L-M (L >M →  Rot; M>L → Grün → M=L → Gelb)
Blau-Gelb = S-(L+M) (Blau-Gelb)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Was sind die Konsequenzen aus der Opponentenverschaltung der Zäpchen?

A

Dadurch, dass Rot-Grün und Gelb-Blau miteinander verschaltet sind, gibt es kein rötliches Grün und kein gelbliches Blau. Farbverläufe gibt es nur „Zapfenübergreifend“ z.B. „reddish-blue“ welches aus der Rot-Grün Verschaltung und der Blau-Gelb Verschaltung entstehen kann.

Effiziente Videokodierung durch Farbdifferenzcodierung siehe Y,Cr,Cb

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Was ist die Helligkeitsadaption und wieso müssen wir diese in der Bildbeurteilung beachten?

A

Wir können über einen Bereich von ca. 30 Blenden in der Helligkeit adaptieren. D.h. die Helligkeit dann 30 mal verdoppelt werden und wir können uns immer an sie adaptieren.

Kleine Lichtenergien können in einer dunklen Umgebung weiß Erscheinen, aber in einer Hellen Umgebung schwarz. Nur aus den Energiewerten kann man also nicht schließen wie die Helligkeit wahrgenommen wird.

Dies ist in der Bildbeurteilung wichtig, da es hinderlich sein kann auf ein anderes Level adaptiert zu sein. Z.B. wenn man frisch eine Grading Suite betritt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Was ist die Farbadaption? Was sind die Probleme die man beachten muss?

A

Die Farbadaption kompensiert die Beleuchtungsfarbe solange die Beleuchtung nicht zu gesättigt ist.

Die Zapfen adaptieren dabei unabhängig voneinander. Dadurch findet automatisch ein Weißabgleich statt. In z.B. Glühlicht wird in weißen Stück Papier weiß wahrgenommen anstatt von einem rötlichen Touch was die Eigentliche Farbe ist.

Dies muss man beachten z.B. bei Foto bzw Filmkameras. Diese nehmen den Weißausgleich nicht automatisch vor, dieser muss manuell eingestellt werden um kein rötlichen bzw. bläuliches Licht zu enthalten.

Beispiel: In einer gelben Beleuchtung, wirken graue Flächen bläulich. Im Gegensatz dazu wirken in einer Blauen Beleuchtung graue Flächen geblich.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Was ist der Unterschied zwichen dem xy und uv Diagramm. Welches ist für die Visualisierung des Farb-Gamuts besser geeignet?

A

Für Visualisierung das Farb-Gamuts ist das uv-Diagramm besser geeignet als das xy-Diagramm weil das xy-Diagramm visuell sehr ungleichabständig ist.

Da bedeutet das die „JND“ (Just noticeable difference/kleinste Wahrnehmbare Unterschiede) bei dem xy-Diagramm sehr unterschiedlich sind. Also dass man z.B. bei Grün sehr viel Fläche für sehr wenig Abstufung zuteilt, aber z.B. blau sehr viele Abstufungen in kleinem Abstand erfahrt.

In dem uv-Diagramm sollen Farbtöne mit dem gleichen geometrischen Abstand einen gleichen empfindungsgemäßen Abstand haben.

Dadurch können z.B. Farb-Gamuts besser verglichen werden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Welche 2 verschiedenen Größen gibt es in der Helligkeitswahrnehmung? Und wie hängen diese zusammen?

A

Physikalische Größe Luminanz:
Hat ein lineares Verhältnis zur physikalischen Einheit des Lichts-der Energie

Wahrnehmungsgröße Helligkeit:
Hat ein nichtlineares Verhältnis zur Energie des Lichts sondern folgt einer Potenzfunktion für Schwarze Bereiche und einer logarithmischen Funktion für mittlere und hellere Reize.
→ visuell gleichmäßiger Grauverlauf (1Candela hat bei
Schwarz genauso viel Auswirkung wie
1000 Candela bei Weiß)
→ effiziente Bildquantisierung

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Warum wird „mittleres Grau“ als 18% Grau bezeichnet?

A

Ein in einer Szene als mittleres Grau empfundene Fläche reflektiert ca. 18% der linearen Luminanz relativ zu einer diffus weißen Fläche.
Dieses wird bei Fernseh-Dynamikumfänge als in der Mitte zwischen Schwarz und Weiß empfunden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Welche Helligkeitsunterschiede können wir gerade noch Wahrnehmen? Von welchen Eigenschaften ist dies Abhängig?

A

Wir sehen überwiegend nur die mittleren Frequenzen. Hohe und niedrige Frequenzen werden nur stark abgeschwächt oder gar nicht wahrgenommen.

Ob wir Helligkeitsunterschiede wahrnehmen können hängt davon ab, wie hoch der Kontrast(Amplitude) und wie hoch die Ortsfrequenz ist.
→ je Kontrastreicher desto besser erkennbar

→ Betrachtungsposition und Betrachtungswinkel ist bei Bildbearbeitung sehr wichtig. Z.B. bei hohem Betrachtungsabstand sind niedrigere Ortsfrequenzen sichtbarer als bei niedrigen Abstand.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Was sagt die Temporale Kontrastsenitivität aus?

A

Sehr schnelle und sehr langsame Veränderungen werden auch nicht wahrgenommen.
→ Wenn Bilder verglichen werden mit 5-10 Hz
abwechselnd betrachten „toggeln“.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Was ist der Konstruktivismus als weiterer Effekt der Wahrnehmung?

A

Flächen mit gleicher Helligkeit aber unterschiedlicher Beziehung zur Helligkeit werden nicht mit der gleichen Helligkeit wahrgenommen.
→ Im dunklem Umfeld wird eine Fläche heller
→ Im hellen Umfeld wird eine Fläche dunkler

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Welche Einflüsse hat die Brennweite?

A

Die Brennweite bestimmt über den Bildausschnitt. Mit einer kurzen Brennweite haben wir einen großen Bildauschnitt, desto „weiter weg“ ist alles man bekommt mehr Umgebung aufs Bild. Mit einer kleinen Brennweite wird das Motiv vergrößert und man erhält einen sehr kleinen Bildausschnitt.
Für Portraifotografie werden meistens Brennweiten zwischen 50 und 85mm gewählt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Welcher Zusammenhang besteht zwischen Brennweite zu Sensorgröße?

A

Bei einer kleineren Sensorgröße wird der Bildausschnitt kleiner für eine gleichbleibende Brennweite.
Um den gleichen Ausschnitt zu erhalten muss eine höhere Brennweite gewählt werden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Wie relevant ist die physische Größe einer Kamera für die Bildgestaltung?

A

Mobilität, Stabilisierung, Beispiel Look: Schulterkamera verleiht Authentizität.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Welche Bildseitenverhältnisse sind gebräuchlich?

A

Die heute gebräuchlichsten Bildseitenverhältnisse sind:
→ 16:9 HD & UHD TV
→ 1:1,85 Breitwand im Kino
→ 1:2,35 Ultra-Breitwand im Kino

Die Wahl des Bildseitenverhältnisses muss mit allen Stake-holdern, insbesondere den Finanzierern geklärt werden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

Welcher Zusammenhang besteht zwischen Blende zu Lichtmenge?

A

Die Blendenzahl entspricht dem relativen Durchmesser der Iris. Eine Halbierung des Durchmesser (8mm → 4mm → 2mm) entspricht einem Viertel der Fläche bzw. Lichtmenge.

Daher geht die Blendenskala in √2 Schritten.
→ (1.0, 1.4, 2.0, 2.8, 4.0)

Eine Blende heller bedeutet doppelte Fläche oder Faktor 1,4 im Durchmesser.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

Welcher Zusammenhang besteht zwischen Blende zu Sensorgröße? Welchen Effekt ruft dies hervor?

A

Je größer der Sesor und die Blende desto größer die Eintrittspupille.

Die Menge an Licht die eine Kamera auffangen kann vergrößert sich bei konstanter Blendenzahl linear mit der Sensorfläche oder quadratisch mit der Sensordiagonalen.

Mit der Blende und der Sensorgröße kann die Tiefenschärfe eingestellt werden.

Tiefenschärfe, also die gute Trennung zwischen Hintergrund und Vordergrund, kann entweder mit einer Offenen Blende oder einem größeren Sensor erreicht werden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
Q

Welche Einflüsse hat der Mounttyp?

A

Für unterschiedliche Objektivfassungen (Mounts) sind unterschiedliche Optiken verfügbar.
→ Film-Spezialoptiken für PL
→ Sehr lange Brennweiten nur für B4-Mounts
→ Inudstrie-Optiken nur für C-Mounts
→ Spezielle Makro Optiken nur für Foto-Mounts.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
26
Q

Über was entscheidet die Blende bei gleichbleibender Sensorgröße?

A

Bei gleichbleibender Sensorgröße entscheidet die Blende über:
→ Eintretende Lichtmenge (Belichtung)
→ Tiefenschärfe/Unschärfe außerhalb des
Tiefenschärfenbereichs
→ Maximal erreichbare Schärfe
(Aberration/Beugung)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
27
Q

Warum braucht man den Optischen Tiefpassfilter in der Bildaufnahme?

A

Der Optische Tiefpassfilter (OLPF) ist notwendig um dem Abtasttheorem (doppelte Abtastfrequenz) zu genügen und Flirr-Artefakte zu unterdrücken.

Hohe Frequenzen/schnelle Helligkeits- bzw. Farbübergänge werden dadurch abgeflacht. Dadurch entsteht ein einheitlicheres Bild.

Bei sehr hochauflösenden Fotosensoren übernimmt die Übertragungsfunktion der Optik die Rolle des OLPF Filters.

In der Fotografie sind die Aliasing-Artefakte mangels Bewegung weniger auffällig.

28
Q

Was sind Mikrolinsen und für was werden sie gebraucht?

A

Mikrolinsen verbessern die Lichtempfindlichkeit von Sensoren. Da nur ein Teil Lichtempfindlich ist, müssen die Lichtstrahlen auf diesen Teil gelenkt wird. In den Lichtunempfindlichen Teilen befinden sich z.B. die Lithographie und Isolatoren.

Bei Schräg einfallendem Licht kann es passieren, dass Lichtstrahlen auf die nicht Lichtempfindlichen Bereiche Treffen und so eine Vignettierung hervorrufen.

Dieses Problem wurde damit behoben, dass die Mikrolinsen zur Mitte des Sensors hin einrücken. Dadurch treffen schrägeinfallende Lichtstrahlen am Rand des Sensors trotzdem auf den Lichtempfindlichen Teil.

29
Q

Sind Mikrolinsen auch bei rückseitig belichteten Sensoren notwendig?

A

Ja, auch rückseitig belichtete Sensoren brauchen Mikrolinsen.

Rückseitig belichtete Sensoren sind besonders bei kleinen Fotosensorgrößen oder großer Lithographie vorteilhaft, da diese potenziell eine höhere Lichtempfindlichkeit, durch Wegfall der Lichtblockierenden Leiterbahnen, haben. Trotzdem ist ungefähr nur 50% der Fläche Lichtempfindlich und Mikrolinsen werden zur Bündelung des Lichts gebraucht.

30
Q

Was sind die Herausforderungen bei Mikrolinsen?

A

Narcissus Artefakt: Reflektion der Mikro-linsen an der letzten Linse der Optik.

Wenn Sonnenstrahlen direkt in die Linse fallen → Lenseflare (Regenbogen usw.)

31
Q

Welche Unterschiedliche Farbarchitekturen gibt es?

A

Bayer Pattern, Faveon Sensor, 3-Chip Strahlenteiler, Zeitsequenziell, Analoger Film (Schichten unterschiedlicher Empfindlichkeit und Filter)

32
Q

Erkläre Sie das Bayer-Pattern genauer. Was sind die Vor- und Nachteile?

A

Bei dem Bayer-Pattern kommt 2 mal grün sensel auf 1 mal rot und blau sensel.
→ Grün ist für die Helligkeit zuständig, dadurch
dass schwarz-weiß viel besser aufgelöst
werden kann als Farbunterschiede ist diese 2
mal vorhanden.

Das Bayer-Pattern führt dazu, dass OLPF-Filter noch weicher designet werden muss als wir das uns auf den OLPF Folien hergeleitet haben.

Da ein Pixel aus 4 veschiedenen Farbsensel besteht, können auch nur einzelne Sensel pro Pixel das Schwarz sehen. Dadurch bekommt das Schwarz farbige Kanten, da nur bestimmte Sensel das Schwarz erkennen und so gefärbt werden.

Ein Pixel kann aus einer unterschiedlicher Anzahl Sensel erstellt werden.
→ z.B. 8k Sensel auf 4k Pixel

Vorteile: → Kurzer optischer Pfad

Nachteile: → Farbabtastung an örtlich
unterschiedlichen Positionen
→ Verlust von Licht durch Absorption im Filter

33
Q

Erklären Sie den Foveon Sensor genauer. Was sind die Vor- und Nachteile?

A

Der Foveon Sensor, arbeitet wie der Analoge Film mit verschiedenen Schichten. Die Farbtrennung erfolgt über die Eindringtiefe der unterschiedlichen Wellenlängen.
→ Blau ganz oben, grün in der Mitte und rot ganz unten.

Vorteile: → Kurzer optischer Pfad
→ Abtastung an der gleichen Position

Nachteile: → geringe Empfindlichkeit für lange
Wellenlängen
→ schlechte Farbtrennung durch optischen
und elektrischen Crosstalk

34
Q

Erklären Sie den 3-Chip Strahlenteiler genauer. Was sind die Vor- und Nachteile?

A

Licht wird durch einen Prismenblock mit Spiegeln auf die einzelnen Sensoren gespiegelt. Jeder Spiegel spiegelt eine Farbe zu dem Sensor und lässt die anderen hindurch. Dahinter ist dann ein weiterer Spiegel mit dem gleichen Prinzip.

Vorteile: → Alles Licht wird ausgenutzt
→ Volle Farbauflösung pro Pixel
→ Abtastung an der gleichen Position.
→ Hohe Lichteffizient

Nachteile: → Langer optischer Pfad
→ Schwierige geometrische Passung

35
Q

Was ist das Fotoelement?

A

Im Fotoelement werden Photonen zu Elektronen gewandelt und währen des Belichtungsvorgangs gespeichert.

Dieser Auslesevorgang ist Sequentielle → Rolling Shutter, d.h. Die Fotoelemente werden von oben nach unten hintereinander belichtet. Wenn sich Objekte sehr schnell während der Belichtung bewegen kann es zu Verzerrungen kommen.

Jedes Fotoelement kann nur eine endliche Anzahl von Elektronen speichern. Sie sog. „full well capacity“

36
Q

Erklären Sie die Analog zu Digital Wandlung

A

Je nach Sensor gibt es einen ADC (Analog Digital Converter) pro Sensor bis zu einem ADC pro Spalte.

Im ADC werden die Stromstärke des abfließenden Stroms gemessen und in diskrete digitale Werte umgewandelt. Diese liefert annähernd lineare Werte. Dies muss pro Sensel kalibriert werden.

37
Q

Zu welcher Art von Crosstalk kann es in einem Sensor kommen?

A

Optischer Crosstalk
Photonen gelangen in den Nachbarsensel. Dies ist nicht schlimm und man kann es leicht kompensieren, da dieser linear ist (immer gleiches % von Photonen geht in den anderen Sensel.

Elektrischer Crosstalk
Ist ein sehr großes Problem. Da Elektronen von einem Sensel in das andere hüpfen können. Dies kann man nicht kompensieren, da es nicht linear verläuft. Dies kann man Teilweise mit Isolierung lösen.

38
Q

Welche Typen von toten Pixeln gibt es?

A

Es gibt 3 verschiedene Typen von Pixeln.
→ Hot Pixel: immer weiß
→ Dead Pixel: immer schwarz
→ Blinking Pixel: teilweise defekt

Typischerweise ist das bis zu 1% der Pixel.

39
Q

Wie können tote Pixel korrigiert werden?

A

Jeder Sensor enthält tote Pixel, oft eine große Anzahl. Die toten Pixel müssen statisch und dynamisch erkannt und korrigiert werden.

Detektion bei Kamerakalibrierung: Durchschnittswert der umliegenden Pixel wird berechnet und wird als Wert für das tote Pixel gesetzt.

Dynamic Dead Pixel Detection: Weicht ein Wert zu stark von den anliegenden Sensel ab, wird dieser als tot klassifiziert. Und wie zuvor durch den Durchschnitt der umliegenden Sensel ersetzt.

→ Wenn diese Detection zu agressiv ist, birgt das
       große Risiken der Bildveränderung. Z.B. Sterne   
       werden dann weggerechnet.
40
Q

Für was braucht man die Sensorlinearisierung bei der AD-Wandlung?

A

Die Analog Linear Wandlung liefert annähern lineare Werte.

Das Verhältnis Photonen zu Stromstärke ist für jedes Fotoelement unterschiedlich. Daher muss jeder Sensor individuell kalibriert werden.

41
Q

Welche Rauschquellen gibt es im Bild? Erkläre jedes dieser Phänomene genauer.

A

Schrotrauschen
Folge des Modells Licht als Teilchen (Proton). Dieses Rauschen folgt einer Poisson-Verteilung. D.h. Die Abweichung beträgt √Anzahl, dh. Bei 100 Photonen hat man eine Standartabweichung von 10%. Dies wird immer kleiner je höher die Anzahl wird.

Ausleserauschen
Ist das Thermische Rauschen aus den AD-Wandlern und den Sensel. Dieses kann man messen indem man die Objektivkappe aufsetzt (Keine Photonen, nur Ausleserauschen)

Thermisches Rauschen
Wärme erzeugt durch thermische Bewegung der Elektronen ein Signal.

42
Q

Kann Rauschen auch uns zu Gute kommen?

A

Durch Rauschen können harte Übergänge kaschiert werden. Je mehr Rauschen desto weicher wirken Übergänge.

Die Faustregel ist, dass Rauschen mit der Standartabweichung von einem Quantisierungsschritt dazu gefügt werden sollt. Dadurch ist das Rauschen fast nicht sichtbar, aber kaschiert trotzdem die Quantisierungsprobleme.

Zudem kann ein Bild durch ein dazugerechnetes Rauschen schärfer erscheinen.

43
Q

Was sind Raw – Rohdaten?

A

Rohdaten enthalten typischerweise Crosstalkkompensation, Sensorlinearisierung und die Interpolation der toten Pixel.

Diese Daten ist also nicht wirklich roh sondern sind schon ziemlich prozessiert.

Speicherung mit Limit auf 8-10 bit Farbtiefe pro Blende.

Rohdaten werden oft nicht linear gespeichert.

44
Q

Warum brauchen wir den Weißabgleich?

A

Die Kameras können sehr sensitiv auf eine Farbe sein (z.B. Grün). Dadurch enthält ein Bild einen Farbstich der dann wieder ausgeglichen werden muss.

Die Chromatische Adaption unserer Augen muss in der Kamera als Weißabgleich nachvollzogen werden.

45
Q

Wie funktioniert der Manuelle Weißabgleich?

A

In der Kamera können verschiedene Farbtemperaturen bzw. Lichtverhältnisse eingestellt werden.

Bei Mischlicht ist es schwierig ein richtigen Weißabgleich einzustellen.

Eine Graukarte kann bei der Einstellung von Weißabgleich helfen, da man weiß dass diese Farbe neutral ist. Also alle Farbanteile die Verhältnismäßig zu viel da sind, können einfach vom ganzen Bild herunter gerechnet werden.

46
Q

Wie funktioniert der automatische Weißabgleich?

A

Eine Möglichkeit ist, dass die Kamera die Durchschnittshelligkeit aller Pixel pro Kanal errechnet. Wenn ein Kanal eine viel höhere Helligkeit aufweist, wird dann dieser Kanal nach unten geregelt und die anderen nach oben geregelt.

Eine andere Möglichkeit ist das Histogrammatching. Ein Histogramm zeigt die Helligkeits-x/Farbverteilung in einem Bild. Rechts sind die dunkleren Töne und links die Helleren Töne. Ein „normales“ Bild hat meistens wenig schwarz und weiß und viele mitten. Wenn mit diesem Histogramm der Weißausgleich durchgeführt werden soll, wird versucht die einzelnen Farben so zu verschieben dass ihr Verlauf ungefähr aufeinander liegt.

47
Q

Welche Algorithmen für den automatischen Weißabgleich gibt es?

A

Graue Welt Theorie
Annahme, das die Summe (Durchschnittswert) aller Pixel im Schnitt Graut ist. Das Problem ist bei diesem Algorithmus, dass wenn eine sehr einseitig Farbiges Motiv fotografiert wird, die Kamera dies als Beleuchtung interpretiert, und so dann in der Farbe verschiebt.

48
Q

Warum braucht man eine Kameracharakterisierung?

A

Aufgrund der unterschiedlichen spektralen Empfindlichkeit der Kamera muss diese charakterisiert werden. Um für typische Farben, wie zum Beispiel die Felder des Color Checkers ähnliche Farbreize zu liefern wie unsere Augen.

Die Kameracharakterisierung transferiert die Rohdaten der Kamera in den Farbraum des Monitors und lässt idealerweise die Farben aus dem Bild so erscheinen, wie wir sie gesehen haben.

Die spektrale Empfindlichkeit einer Kamera entspricht nicht der zu Zapfen in der Retina unserer Augen. Das heißt die Farben werden in der Kamera anders wahrgenommen.

Diese Umwandlung erfolgt mit Hilfe einer Kamera Matrix.

49
Q

Was ist Demosaicing bzw. Debayering?

A

Dadurch das z.B. Blau über weniger Sensel wahrgenommen werden. Werden die Zwischenwerte Interpoliert. D.h. es werden die Blauflächen daneben genommen und ein Durchschnitt gebildet.

Die Abtastung der Farbe durch das Bayer Pattern an unterschiedlichen Stellen im Bild führt zu Farb-Aliasing (Farbartefakten) wenn es sehr große Helligkeitsabstufungen zwischen einzelnen Sensel gibt.

50
Q

Welche Bildwiederholraten werden heutzutage benutzt?

A

Kino: 24 Bilder die Sekunde

Fernsehen: 50/60 Bilder die Sekunde (50 in Europa/ 60 in Amerika)

Wenn Kinofilme im Fernsehen gezeigt werden, werden sie von 24 auf 25 Frames beschleunigt. Und zudem wird jedes Bild verdoppelt.
→ Schauspieler hatten früher im Fernsehen
höhere Stimmen

51
Q

Welche Bilderholrate braucht der Mensch um eine Bewegung wahrzunehmen?

A

Ab 10-12 Bildern pro Sekunde wird eine Bewegung wahrgenommen. Ab 50fps nimmt das Ruckeln ab.

52
Q

Ab welcher Bildwiederholrate nehmen wir keine Artefakte mehr wahr?

A

Es gibt nicht die eine Bildwiederholrate ab der keine Artefakte mehr sichtbar sind. Dies hängt immer von der höchst vorkommenden Frequenz ab.

53
Q

Welche 3 Parameter beeinflussen die Bewegungsunschärfe im Bild?

A

Bildwiederholrate
Shutterspeed: Wie lange belichten wir im Rahmen unserer Bildwiederholrate?
Wie lange zeigt ein Monitor das Bild?

54
Q

Was ist die Integrationszeit? Was kann sie beeinflussen?

A

Die Integrationszeit ist wie Lange ein Bild pro Frame belichtet wird.

Bei 24fps ist die Integrationszeit traditionell die Hälfte der Standzeit des Bildes. Der Hintergrund ist, dass dies die Zeit war die für den Transport des analogen Films oder dem Auslesen des Sensors.

Wenn zum Beispiel der Shutterwinkel 90° ist. Wird das Bild nur für ¼ des Frames belichtet.

Je länger die Integrationszeit ist, desto höher ist die Lichtempfindlichkeit weil mehr Photonen gesammelt werden. Aber auch Bewegungen werden durch die Bewegungsunschärfe weicher wahrgenommen. Natürlich wird dadurch der gesamte Bildeindruck unschärfer.

Je kürzer die Integrationszeit ist, desto geringer ist die Lichtempfindlichkeit. Es entsteht ein Stroboskopartiger Effekt bei der Wiedergabe. Aber es wird eine höhere Schärfe erziehlt.

Diese Integrationszeit ist selbst bei sehr hohen Frameraten noch wichtig, denn selbst wenn bei 60 fps ein Frame ganz belichtet wird entsteht eine sehr hohe Bewegungsunschärfe.

55
Q

Wie kann die Integrationszeit als Gestaltungsmittel eingesetzt werden?

A

Verlängerung der Belichtungszeit bei 6fps auf 180° Shutter
→ 2 Blendenstufen Lichtgewinn
→ starker Motion Blur
→ mehrfach frame
→ sehr expressionistischer Bildeindruck

Verkürzung der Belichtungszeit bei 24fps auf 11° Shutter
→ -4 Blenden Licht
→ „shuttered Motion“
→ abgehackter Bildeindruck unterstützt
Agressivität der Kampfhandlungen

56
Q

Warum ist das Abtasttheorem so wichtig?

A

Das Abtasttheorem besagt, dass die Abtastfrequenz doppelt so hoch sein muss, wie die am höchsten vorkommende Frequenz.

Z.B. der Wagenradeffekt entsteht durch die Verletzung des Abtasttheorems.

57
Q

Warum wird bei 24fps mit 172,8° Shutter aufgenommen?

A

Dadurch dass bei einer Netzfrequenz von 50Hz und einer Framerate von 24 Hz es schwierig ist für genau eine Periode der Netzfrequenz zu belichten wird der Shutter auf 172,8° eingestellt damit genau für 1/50 Sekunde belichtet wird.

Würde mit einem 180° Shutter gefilmt werden, würde ein Flackern von Licht entstehen.

58
Q

Von was ist die Empfindlichkeit für Bewegungsruckeln noch abhängig?

A

Die Empfindlichkeit für Bewegungsruckeln (Judder) ist auch von der Helligkeit des Reizes abhängig. Das heißt, dass je heller ein bewegtes Objekt im Vergleich zum Hintergrund ist, desto abgehackter wir es wahrgenommen.

59
Q

Warum werden Filme mit höheren Frames nicht angenommen?

A

Den Filmischen Look in HFR zu erhalten ist schwierig. Der Film wird dazu zu genau und präsize. Dadurch werden Fehler viel penetranter und Filme können schwerer eine Geschichte erzählen weil alles zu nah dran an der Wirklichkeit ist.

z.B. in Kriegfilmen wissen wir dass keine Personen sterben, sondern alles nur eine Geschichte ist.

60
Q

In welchem Format wird gedreht?

A

RAW
Große Datenmenge, größte Flexibilität, Daten müssen eingelesen und entwickelt werden (mit SDK des Herstellers), da die Daten unkompremiert, kein Weißabgleich eingebrannt und noch kein debayering. Vorteil es kann z.B. mit 2 verschiedene Weißabgleichen entwickelt werden. Standartformat für Filmdreh in der USA.

Log
Reduzierte Datenmenge, große Flexibilität im Grading, da die Aufzeichnung flacher gerendert wird (größerer Dynamikumfang, kein Clipping). Das Color-gerendertes Bild entsteht erst in der Postproduktion. Es ist kein Look drin. Standartformat in Deutschland.

Video
geringe Flexibilität im Grading, da es sofort color-gerendert ist. Dadurch ist der Dynamikumfang viel geringer und es kann sehr einfach zu clipping kommen. In der Kamera ist ein bestimmter Look „eingebacken“. Dieser kann schwer verändert werden.

61
Q

Welche Parameter können in der Rohdatenentwicklung eingestellt werden?

A

Belichtung / ASA / ISO:
Belichtung kann durch Änderung der ISO verändert werden. Je höher die ISO desto heller das Bild.

Farbtemperatur:
Bei Einstellung einer hohen Temperatur (blaues Licht) wird die Szene nicht bläulicher sondern sie erscheint wärmer, dadurch, dass das Programm ein bläuliches Licht erwartet.

Tint:
Den Tint braucht man, wenn man die Farbe der Lichtquelle nicht nur über die Farbtemperatur rausrechnen kann. Z.B. Grün bei Neonröhren und Magenta.
Der Tint ist aber trotzdem abhängig von der Farbtemp. da der Tint die Farbe senkrecht zur Farbtemperatur verschiebt.

Crop:
Das Bild kann zugeschnitten werden. Wenn zum Beispiel fürs Kino ein anderes Seitenverhältnis gewünscht ist.

Schärfe:
Scharpness: Groben Strukturen. Für die Mittleren Frequenzen wird der Kontrast verändert. Erzeugt einen eher Film-Look.

Detail: feine Strukturen wie Barthaare, Hautunreinheiten, Wimpern usw. Für hohe Frequenzen kann eine höhere /niedrigere Amplitude eingestellt werden. Legt sozusagen die Grenzfrequenz fest, ab wo welcher Kontrast noch erreich werden kann. Erzeug eher einen Video-Look.

62
Q

Was ist ein Problem bei der Rauschreduktion?

A

Oft artefaktbehaftet. Bei Noise reduction geht Schärfe verloren.

Manchmal liegt das Rauschen auch nur auf einem Farbkanal (z.B. bei RED-Kamer). Da lohnt es sich dann nur den Denoiser auf einem Farbkanal anzuwenden.

63
Q

Skalierbare Kompression

A

Die RAW-Dateien von Red sind die Dateien in „Resultion Layer“ (Auflösungslayer) aufgeteilt. Das heißt ein Layer ist z.B. die Information für 1k Auflösung. Später in der Dateien kommen dann Information zu dem 2. Layer welches die 2k Auflösung enthält. Dadurch können bei der Anzeige schnell die nicht gebrauchten Informationen übersprungen werden, die Festplatte muss jedoch eine Größere Dateigröße abspeichern.

Dateiformate: JPEG2000 und RED.r3d

64
Q

Warum Muster und Backup?

A

Produktionssicherheit: Drehtage sind sehr teuer. Und damit Fehler sich nicht über einen längeren Zeitraum erstrecken ist es wichtig die Aufnahmen gleich zu checken.

Es gibt Technische Fehler wie Blockartefakte, tote Pixel, Line Noise usw. die auftreten können. Diese sind aber heutzutage kaum mehr ein Problem.

Ein größeres Problem sind die Aufnahmebedingten Fehler wie: Mikrofon im Bild, Equipment im Bild, Schärfe oder die Belichtung.

Ein Backup muss erstellt werden, damit auf keinen Fall Dateien verloren bzw. beschädigt werden.

65
Q

Wer erstellt die Muster?

A

Im Idealfall nicht am Set sondern in der Postproduktion wegen Effizienz, Verantwortung und Qualifikation. Dadurch können Fehler von einer Produktion auf eine andere übertragen werden.

66
Q

Wer erstellt das Backup?

A
Backup wird On-Set erstellt.
3-2-1 Regel des Backups:
	→ 3 Kopien
	→ 2 Unterschiedliche Medien (Festplatte, LTO-
           Bänder)
	→ 1 Kopie an einem anderen Ort

In der Postproduktion wird meist auch ein Backup gelagert: Weniger Fehleranfällig (Stromausfälle, keine Server im Hotelzimmer)