Filmtechnik (6FP) Flashcards

1
Q

Bei welcher Bildwechselfrequenz kommt es zur Bewegungsverschmelzung für das menschliche Auge?

A

Ab etwa 16-18 Einzelbildern pro Sekunde kommt es zu einer Bewegungsverschmelzung.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Was ist der “Stroboskopische Effekt” und wie hängt er mit der Bewegungsverschmelzung zusammen?

A

Der Effekt beschreibt die Nachbildwirkung, das heißt für die Bewegungsverschmelzung ist es wichtig, dass die Bilder ähnlich sind, da sonst keine Illusion von fließender Bewegung und Kontinuität entstehen kann.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Was ist die Flickerfrequenz?

A

Die Flickerfrequenz ist auf dem Bildschirm oder auch beo der Wiedergabe als Flickern zu erkennen, das heißt, dass es zwar zu einer Bewegungsverschmelzung kommt, das Auge aber immer noch einzelne Bilder erkennen kann.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Wie verhält sich die Flickerfrequenz Aufnahmeseitig?

A
  • Ab ca.20-22 B/s Aufnahmefrequenz wird ein Flickern in der Projektion nicht mehr signifikant wahrgenommen (ABER: nur wenn die Bilder in einer höheren Frequenz wiedergegeben werden)
  • Helle/weiße Fläche sind am kritischsten (->HDR)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Wie verhält sich die Flickerfrequenz bei der Wiedergabe/Projektion?

A
  • Flimmerverschmelzungsfrequenz ist helligkeitsabhängig (22-90Hz)
  • die critical flicker frequenzy (CFF) liegt im analog Kino bei etwa 40-50Hz
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Seit wann sind die Internationalen Standard-Bildwechselfrequenzen in der analogen Kinoproduktion eingeführt worden?

A

1929, seit der Einführung des Tonfilmstandards (da die Synchronisation nun Maßgebend war) und ist bis heute gültig.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Was sind die Vorteile der Internationalen Standard-Bildwechselfrequenzen in der analogen Kinoproduktion?

A

Sie bietet einen guten Kompromiss zwischen Bewegungsauflösung, Kosten, Ästhetik und ist vor allem pragmatisch (z.B. bei internationaler zusammenarbeit)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Wie sind die Internationalen Standard-Bildwechselfrequenzen in der analogen Kinoproduktion bei der Aufnahme?

A

Bei der Aufnahme (“Aquisition”): 24 B/s = 24Hz

  • > Dunkel- und Belichtungsphasen sind gleich lang
  • > auch fps genannt
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Wie sind die Internationalen Standard-Bildwechselfrequenzen in der analogen Kinoproduktion bei der Wiedergabe?

A

Bei der Wiedergabe (“Projektion”): 24B/s mit 48Hz

  • > jedes Einzelbild wird 2x projiziert
  • > Befriedigend geringer Flickereffekt
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Wie lange gelten die Internationalen Standard-Bildwechselfrequenzen in der analogen Kinoproduktion Standards bereits?

A

90 Jahre, also beinahe 100 Jahre Kinogeschichte wurden geschrieben.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Mit welchem Bauteil funktioniert ein Mechanischer Shutter?

A

Mit einer Umlaufblende.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Welchen Faktor der Bildaufnahme bestimmt die Umlaufblende?

A

Die Belichtungszeit.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Weshalb kann man die Belichtungszeit bei einem mechanischen Shutter mit 180° Shutteröffnung nicht verlängern?

A

Bei einem so weit geöffnetem Shutter kommt es nur zu einer sehr kurzen Verdeckung des Bildfensters, in dem der Film transportiert werden kann. Wäre die Blende bzw. der Shutter größer, würde der Film konstant belichtet.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Wie verhält sich die Shutteröffnung bei den Standardwerten im Kino? Nenne die Standardwerte ebenfalls.

A

Bildrate: 24 B/s (Tonsynchron)
Bildwechselfrequenz: 24Hz
Belichtungszeit: 1/48s bei 180° Shutteröffnung

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Was erzeugt die spezielle Ästhetik beim Kinofilm?

A

Die Standardwerte erzeugen die Ästhetik:

  • > Hell- und Dunkelphase sind gleich lang
  • > Auf und abschwellende Belichtung
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Wie wird das Flickerproblem bei der Wiedergabe gelöst?

A

Wenn man bei der Aufnahme einen 180° Shutter verwendet, kommt es zu einer Belichtungsphase pro Bild, bei 24 B/s, 1/48S Belichtungszeit kommt es zu einer Bildfrequenz von 24Hz. Gibt man diese Bilder genau so wieder, erreicht man ebenfalls einen Frequenz von 24Hz, was zu einem Flickern führen kann. Ein Trick, wie man dem Problem vorbeugen kann, ist wenn man bei der Wiedergabe zwei Belichtungphasen pro Einzelbild vornimmt. Die Bildfrequenz wird dadurch auf 48Hz erhöht.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Wie nennt man den Shutter ud die Technologie, wenn man zwei Beichtungen pro Einzelbild erhalten will?

A

Einen Butterfly-Shutter oder Doppelflügel-Umlaufblende. Die Technologie wird Doubleflashing genannt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Was ist die Bildwechselfrequenz?

A

Die Bildwechselfrequenz oder auch die Bildrate ist die Anzahl der wiedergegebenen Einzelbilder pro Sekunde. Dies wird auch die temporale Auflösung genannt.
(vgl. Bildwiederholfrequenz bei Wiedergabe)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Was ist die Bildwiederholfrequenz?

A

Die Anzahl der Bildprojektionen pro Sekunde (Flickerfrequenz). (vgl. Bildwechselfrequenz bei Aufnahme)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Wie funktioniert der Filmtransport bei einem analogen Projektor?

A

Der Film wird mit einem Standard von 24 (in Ausnahmen 25) B/s Transportiert, was aufgrund der Tonsynchronität fest vorgegeben ist. Jedes Bild wird bei der Wiedergabe zwei mal Projiziert, also mit 48Hz. Durch eine Doppelflügel-Umlaufblende wird das erreicht, auch Doubleflashing genannt. Der Filmtransport 24 (25) B/s ist wie bei der Aufnahme in der Kamera für die Bildwiedergabe zwingend intermittierend (wird für die Wiedergabe angehalten). Für die Tonwiedergabe sollte er jedoch kontinuierlich (die Tonspur kann nicht stoppen) sein (z.B. Lichtton). Dies wird durch einen Versatz von Bild und Ton erreicht, der immer genau 21 Bilder beträgt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Mit was für Techniken und Standards arbeiten digitale Projektoren?

A

Ein elektronischer Filmprojektor arbeitet mit einem arbeitet mit elektronischem Shutter: 24 oder 48 B/s bei 48Hz (DCI-Standard).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Was sind die Vorteile eines digitalen Projektors (oder elektronischen Shutters)?

A

Längere Belichtungszeiten sind möglich als bei einer analogen Projektion, da keine “Transportlücke” nötig ist, was zu

  • weniger Flickereffekt führt (längere Belichtungszeit, kürzere Totzeit) und außerdem zu einer
  • helleren Bildwiedergabe (längere Belichtungszeit, kürzere Totzeit) + (perfekter Bildabstand)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

Was für Möglichkeiten gibt es noch, die Bildwiederholfrequenz zu erhöhen?

A
  • mit 72Hz, wenn jedes Bild drei mal Projiziert wird
  • bei S3D z.B. 2x72p = 144Hz
  • zukünftig DCI-Standards (HFR): 120 B/s?
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

Wie verhalten sich die Belichtungszeiten in Abhängigkeit zu dem Hellsektor bei der Physikalischen Umlaufblende bei 24fps?

A

Erst Hellsektor (shutter angle), dann Belichtungszeit:
180° = 1/48s
90° = 1/96s
45° = 1/192s
22,5° = 1/384s
11° = 1/768s
-Hellsektor (shutter angle) > als 180° sind nicht möglich, aufgrund des Filmtransports.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
Q

Wie verhalten sich die Belichtungszeiten in Abhängigkeit zu dem Hellsektor bei dem elektronischen Shutter bei 24fps?

A
Erst Hellsektor (shutter angle), dann Belichtungszeit:
360° = 1/24s
270° = 1/32s
180° = 1/48s
90° = 1/96s
45° = 1/192s
22,5° = 1/384s 
11° = 1/768s
Hier sind auch Hellesktoren über 180° möglich.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
26
Q

Wie groß ist die Blende und die Belichtungszeit beim Standard im Kino?

A

180°, 1/48s, 24fps

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
27
Q

Wie wirken sich Hellsektoren über bzw. unter 180°?

A

Bei Hellesktoren die größer als 180° sind, kommt s zu längeren Belichtungszeiten und daher zu dem sogenannten Motion-Blur. Bei Hellsektoren kleiner als 180° kommt es zu immer kürzeren Belichtungszeiten. Es kommt mehr und mehr zu sogenannten Shuttered Motion.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
28
Q

Wie viele Blendenstufen heller wird das Bild, wenn man von 180° Hellsektor / 1/48s auf 360° Hellsektor / 1/24s geht?

A

Um eine Blendenstufe, das heißt man muss mit einrechnen, dass das Bild heller wird und daher muss man die Blende entsprechend eine Blendenstufe schließen, um ein kontinuieriches Belichtungsverhältnis hinzubekommen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
29
Q

Was sind Zeitraffer und Zeitlupe und wie kann man sie erreichen?

A

Die Veränderung der Bewegungsgeschwindigkeit in der Wiedergabe und man kann sie erreichen, indem man die Geschwindigkeit des Films verändert.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
30
Q

Wann spricht man von Zeitlupe, wie kann man die Verhältnisse bezeichnen und mit was für Bildraten muss man aufnehmen, um den Effekt bei gleichbleibender Wiedergabe zu erreichen?

A

Von Zeitlupe spricht man, wenn eine Aufnahme mit einer höheren Bildrate aufgezeichnet wird und das Bild in der Standard-Wiedergabe wiedergegeben wird und das Bild somit langamer erscheint.

  • > Eine Sekunde Echtzeit / Aquisition (Aufnahme) -> Wiedergabe mit 24 B/s (Projektionstandard) -> erzielte Zeit, Wiedergabe
  • > 1s mit 24 B/s -> Normalgeschw. 24 B/s (Tonsynchron) -> 1s Wiedergabe
  • > 1s mit 48 B/s -> Wiedergabe mit 24 B/s (Zeitlupe 1:2) -> 2s Wiedergabe
  • > 1s mit 96 B/s -> Wiedergabe mit 24 B/s (Zeitlupe 1:4) -> 4s Wiedergabe
  • > 1s mit 12 B/s -> Wiedergabe mit 24 B/s (Zeitraffer 1:0,5) -> 1/2s Wiedergabe
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
31
Q

Wie verhalten sich Blendenwerte in bezug auf die Schärfentiefe?

A
Kleine Blende (1,0) = geringe Schärfentiefe (hoher Buccee);
große Blende (22) = hohe Schärfentiefe (kleiner Buccee)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
32
Q

Wie verhält sich ISO in Bezug auf das Bildrauschen?

A

kleiner ISO (100) = geringes Bildrauschen;
großer ISO (20000) = hohes Bildrauschen;
Iso ist die “Empfindlichkeit des Films”

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
33
Q

Wie verhält sich die Bewegungsunschärfe in Bezug auf die Belichtungszeit?

A
lange Belichtungszeit (1/10s) = hohe Bewegungsunschärfe /Verwacklungsunschärfe;
kurze Belichtungszeit (1/1000s) = geringe Bewegunsunschärfe / Verwacklungsunschärfe.
Die Standardbelichtungszeit bei Film/TV ist 1/50s.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
34
Q

Was geschieht bei einer Verdopplung der Bildrate in Bezug auf die Belichtungszeit?

A

Die Belichtungszeit wird halbiert.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
35
Q

Wie muss mand die Lichtmenge erhöhen, wenn man die Belichtungszeit halbiert, um eine konstante Belichtung beizubehalten?

A

Wird die Belichtungszeit verdoppelt, muss zum Ausgleich die Lichtmenge verdoppelt werden, da nur noch halb so viel Licht auf den Sensor trifft.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
36
Q

Was kann alternativ zur erhöhung der Lichtmenge gemacht werden, um eine korrekte Belichtung zu erhalten?

A
  • Die Irisblende am Objektiv muss um einen Blendenwert geöffnet werden (-> Verändernung der Schärfentiefe), z.B. von f.4 zu f.2,8 (log-Prinzip)
  • einen ND-Filter “ziehen”
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
37
Q

Eine Szene ist für die Belichtung bei Blende f.4 / 34 B/s eingeleuchtet, soll dann aber mit 96 B/s gedreht werden. Was muss gemacht werden, um weiterhin eine korrekte Belichtung zu erhalten?

A

24 B/s -> 96 B/s (Verdoppung der Bildfrequenz)

  • > 1/48s -> 1/192s (Viertel Belichtungszeit)
  • > f.4 -> f.2,0 (Belichtungskorrektur um zwei Blendenstufen)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
38
Q

Was sind die Unterschiede der Auswirkungen der Veränderung von Belichtungszeit / Shutter bei analogen und digitalen Techniken?

A

Sie sind gleich.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
39
Q

Was geschieht, wenn man die Belichtungszeit/Shutter verändert in hinsicht auf die technischen Aspekte?

A
  • Veränderung der Belichtungszeit (Gewinn/Verlust an Lichtmenge)
  • Temporale Interferenzen (sequenziell) (z.B. Flicker-Probleme durch diskontinuierliche Lichtquellen, Wagenradeffekt, …)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
40
Q

Was geschieht, wenn man die Belichtungszeit/Shutter verändert in hinsicht auf die technisch-gestalterischen Aspekte (Bildqualität und Bildästhetik)?

A
  • Motion Bur (Bewegungsunschärfe durch länge der Bleichtungszeit), dient zur Bildgestaltung, Ästhetik (z.B. “Gladaiator,…)
  • Flickern in der Projektion (Verschmelzung Helligkeitsunterschiede, besonders auf hellen Flächen sichtbar)
  • Judder: Mangelnde Bewegungsverschmelzung
  • resultierende Schwenkgeschwindigkeiten wegen Judder (Formatabhänig)
  • Wahrnehnumgszunahme von Artefakten z.B. bei 4K-Auflösung und HDR
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
41
Q

Was sind temporale Interferenzen?

A

Wenn es durch das Lichtwellenmuster (abstrahlverhalten einer bestimmten Lampe) zu einem “temporalen Aliasing” kommt. Das Licht erscheint dadurch anders auszusehen, als es eigentlich sollte bzw. verändert sich die ganze Zeit.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
42
Q

Wie sieht die Helligkeit einer Lampe in Abhängikeit zur Wechselstromphase aus, wenn es sich um diskontinuierliche Strahler handelt?

A

Eine “Sinus”-Welle, die allerdings immer nur über der x-Achse verläuft, also aus ganz vielen kleinen Hügelchen, also der Bereich unter der X-Achse wird immer an der X-Achse gespiegelt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
43
Q

Wie sieht das Frequenzverhalten einer 230V 50Hz Wechselstromphase aus?

A

Ein klassischer, nach unten beginnender Sinus mit der Wellenlängendauer von 1/50s.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
44
Q

Was ist ein “Diskontinuierlicher Strahler”?

A

Gasentladungslampen (HMI, Leichtstoffröhren), LED, …

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
45
Q

Was für Arten von Strahlern gibt es?

A

Kontinuierliche und diskontinuierliche Strahler.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
46
Q

Wie sieht die Helligkeit einer Lampe in Abhängikeit zur Wechselstromphase aus, wenn es sich um kontinuierliche Strahler handelt?

A

Eine Gerade, die immer ein bisschen über der X-Achse parallel zur X-Achse verläuft.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
47
Q

Was ist ein “Kontinuierlicher Strahler?”

A

Tageslicht (Sonne), Temperaturstrahler (Glühlicht, Halogenlicht, …)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
48
Q

Weshalb verhalten sich “diskontinuierliche Strahler” nicht linear in Ihrer Frequenz?

A

Die diskontinuierlichen Straher funktionieren nur in Abhängigkeit zum fließendem Strom, das Heißst sie sind von der Wechselfrequenz abhängig. kontinuierliche Strahler dagegen erhitzen z.B. einen Draht, der immer gleich hell bleibt und in der Wechselphase nicht abkühlt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
49
Q

Weshalb kann es bei diskontinierlichen Strahlern zu “Flickern” bei der Aufnahme kommen?

A

Zwangsläufig kommt es bei Aufnahmen mit Licht aus HMI-Scheinwerfern zu Interferenzen zwischen der Frequenz der Lichtimpulse und der Bildfrequenz der Kamera (Kino: 24 B/s), wenn diese nicht synchronisiert werden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
50
Q

Was kann man als Alternative zum Synchronisieren der Kamera zu den diskontinuierlichen Strahlern vornehmen?

A

Man kann vor die Lichtquellen Flickerfreie Vorschaltgeräte vorschalten.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
51
Q

Was kann man machen, um trotzt der temporalen Interferenzen und inkompatiblen Zeitmustern mit diskontinuierlichen Strahlern aufzunehmen?

A

Wenn man mit dem Kino-Standard (24B/s) aufnimmt, mit einer klassischen Blende von 180° kommt es zu einer Belichtungszeit von 1/48s. Für eine Fotografische Aufnahme wäre die Aufrundung aif 1/50Hz tolerierbar, aber für die filmaufnahme nicht, da es sonst zum Flickereffekt kommt. Für die Synchronisation mit dem Stromnetz muss die Belichtung also genau mit der gleichen Frequenz sein, da sonst eben die zeitlichen Interferenzen entstehen (Flickereffekt).
Man muss es daher, wenn man in Europa dreht an den 50Hz Netzstrom mit 1/50s oder in den USA an den 60Hz Netzstrom 1/60s anpassen. Dies ist möglich, da die Bildfrequenz einen Standard besitzt.
—————–
Taucht nicht bei kontinuierlichen Strahlern auf.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
52
Q

Was sind die Netzstromfrequenzen in Europa und den USA?

A

Europa: 50Hz
USA: 60Hz

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
53
Q

Weshalb gibt es in Film/TV standard-Bildraten?

A

Es ergibt eine normale Bewegungswiedergabe und vor allem eine garantierte Synchronisation mit dem Ton.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
54
Q

Wie sind die feststehenden Belichtunszeiten für Film, PAL-Video und NTSC?

A

Film: 24 B/s -> 1/48s -> Progressiv, Vollbilder
PAL-Video: 25B/s -> 1/50s -> Interlaced/Zeilensprungverfahren
NTSC: 30 B/s -> 1/60s

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
55
Q

Wie erfolgt die Steuerung der Belichtung in der Filmfotografie hauptsächlich?

A

Hauptsächlich über die Irisblende an der Optik (oder auch durch ND-Filter, ISO Verstärkung, Lichtsetzung, …)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
56
Q

Kann man die Belichtungszeit über Shutter und Bildraten steuern?

A

Ja, aber nur begrenzt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
57
Q

Wie lässt sich mit der Umlaufblende das temporale Aliasing mit der Netzfrequenz vermeiden?

A

Eine Exakte Anpassung der Belichtungszeit an die Netzfrequenz (50Hz oder 60Hz) über die Veränderung des Hellsektors der Umaulaufblende oder auch ee´lektronisch. Die Öffnung des Hellesktors (Sektorenblende) wird so weit verkleinert, dass die belichtungszeit z.B. exakt 1/50s beträgt und damit kompatibel zum 50Hz-Stromnetz ist.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
58
Q

Wie groß muss die Blende/Belichtungszeit gewäht werden, damit es zu keinen temporalen Frequenzen mit der Netzfrequenz kommt?

A

25B/s x 180° -> (50Hz) = 1/50s -> kein Flickern
————————
24B/s x 172,8° -> (50Hz) = 1/50s -> kein Flickern
————————
24B/s x 144° -> (60Hz) = 1/60s -> kein Flickern

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
59
Q

Mit was kann die Belichtungszeit bei fester Bildrate verändern?

A

Mit der Sektorenblende.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
60
Q

Was für einen Einfluss hat eine Sektorenblende auf die Belichtungszeit?

A

Beim Kino ist die Umlaufgeschwindigkeit vorgegeben, da eine feste Bildrate Gesetz ist. Über die Sketorenblende kann die Größe des Hellsektors verkleinert werden, was zu einer Verkürzung der Belichtungszeit pro Einzelbild fürht. Je kleiner die Hellphase ist, desto kürzer ist die Belichtungszeit. Je kürzer die Belichtungszeit ist, desto schärfer scheinen die Einzelbilder (weil weniger Motion Blur / Bewegungsschärfe). Längere Belichtungszeiten als 180° sind als Standard nur bei elektronischen Shuttern möglich. Bis zu 360°.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
61
Q

Auf was für vorgefertigte Abschnitte ist die Sensorenblende einstellbar?

A
  • 180° -> 24B/s -> 1/48s
  • 180° -> 25B/s -> 1/50s (TV)
  • 172,8° -> 24B/s -> 1/50s (Kino)
  • 90° -> 24B/s -> 1/96s
  • 45° -> 24B/s -> 1/192s
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
62
Q

Wie lässt sich die Belichtungszeit berechen?

A

Bsp: 360/180 * 24 = 1/48s

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
63
Q

Was passiert, wenn man den Hellsektor von 180° auf 90° reduziert?

A

Bei einem 90° Hellsektor ist die Öffnung von einem 180° Hellsektor halbiert.

  • > Die Belichtungszeit wird um die Hälfte reduziert.
  • > Ausgleich um einen Blendenwert: z.B. von f=4 auf f= 2,8 (Irisblende an der Optik)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
64
Q

Welche kreativen Veränderungen kann eine veränderung der Belichtungszeit hervorrufen? Bzw. zwischen welchen “Extremen” hat man die Wahl?

A

lange Belichtungszeit -> weiche Bewegungen -> unschärfen (Motion Blur)
————————
Die Standardbelichtung 1/48s (@24fps) bzw. 1/50s (@25fps) ist ein guter kompromiss. Eine Veränderung der wird meistens aus kreativen Gründen vorgenommen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
65
Q

Was sind die Probleme im gegensatz zu der Standard-Belichtungszeit bei Judder und Motion Blur?

A

Motion-Blur (Bewegungsunschärfe):
je länger die Belichtungszeit, desto mehr Bewegungsunschärfe
->Belichtungszeit zu lang (und/oder) die Bewegungen zu schnell
->zu viel Bewegungsverschmelzung
——————————–
Judder (Bildruckeln/fehlende Verschmelzung):
Bewegungen sind zu schnell für die aufgezeichneten Zeitblöcke (Diskretisierung!)
-> mangelnde temporale Auflösung
-> Bildrate zu gering
-> zu wenig Bewegungsverschmelzung

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
66
Q

Von was ist es noch abhängig, ob es zu Judder oder Motion-Blur kommt?

A

Von der Bewegungsgeschwindigkeit der Objekte oder der Kamera.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
67
Q

Wie kann man verhindern, Motion-Blur oder Judder bei der Bewegungsgeschwindigkeit auftaucht?

A

Man muss die Szene an sein Ziel anpassen, z.B. man muss die Schwenkgeschwindigkeiten anpassen (Richttabellen)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
68
Q

Was bringt HFR?

A

Die High-Frame Rate Technologie reduziert die durch die 24 fps Standardprojektion verursachten Artefakte. Motion Blur, Ruckeln und Flackern aufgrund schneller Beewgungen und Kameraschwenks sind nicht mehr länger sichtbar.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
69
Q

Weshalb ist Judder ein heute weitaus wichtigeres Thema wie vor vielen Jahren?

A

Mit der ständigen verbesserung und den neuen Technologien der Film/TV- Welt wie HFR, Motion Imaging, 4K, Stereo, HDR, … verbessert sich ständig die Bildqualität und deshalb wird auch der Judder deutlich sichtbarer.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
70
Q

Wie können Artefakte (Aliasing) bei der Aufnahme und Wiedergabe entstehen?

A

Bei der Aufnahme:
Judder -> Akqusition (Kamera-Aliasing) -> Aufnahme diskreter Zeitblöcke aus kontinuierlichem Signal
————————
Bei der Wiedergabe:
Strobing -> Wiedergabe (Display-/Projektor-Aliasing) -> Aus Zeitblöcken soll wieder eine flüssige Bewegung generiert werden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
71
Q

Was sind die Probleme, wegen denen man versucht hohe Bildwechselfrequenzen (HFR) zu benutzen?

A

Bei dem Standard von 24 B/s kommt es zu einem Mangel an Bewegungsauflösung:

  • Bei Objektgruppen, Kamerabewegungen (speziell: S3D, UHD/4K, HDR)
  • Sichtbare Artefakte: Unscärfen durch Bildruckeln (Judder)
  • Wahrnehmung von deutlich weniger Schärfe bei Schwenks in 4K im gegensatz zu Stills.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
72
Q

Bringt HFR nur bei der Aufnahme etwas?

A

Nein, auch bei der Wiedergabe: man kann 48 B/s oder 60, 96, 120 B/s mit der selben Bildwiederholrate wiedergeben, und so die “klassischen 24 B/s” deutlich flüssige erscheinen lassen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
73
Q

Was für Vorteile bringen HFR?

A
  • > bessere temporale Auflösungen, d.h. Bewegungen werden besser abgebildet
  • > weniger Judder
  • > weniger Motion-Blur
  • > bessere Detailwiedergabe
  • > kein Flickern mehr!
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
74
Q

Wie wirkt sich HFR auf die Belichtung aus?

A

Durch die kurzen Belichtungszeiten geht Licht verloren, das heißt die Belichtung muss angepasst werden. Ein vorteil ist hier, wenn mit elektronischen Filmkameras gearbeitet wird, da diese duch dem 360° offenen Shutter eine Blende mehr Licht einfangen können.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
75
Q

Was besagt die Bildrate bei der Aufnahme?

A

Angabe unterschiedlicher Bildinformationen pro Sekunde.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
76
Q

Wie viele Bildinformationen ergibt eine Aufnahme mit 24, 48 und 96 B/s bei der Wiedergabe wieder?

A

24 -> 1 Bild
48 -> 2 Bilder
96 -> 4 Bilder

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
77
Q

Wie funktioiert die Wiedergabe der Aufnahmegeschwindigkeiten von 24, 48, 96 B/s?

A

24-> Double Flash: es wird zwei mal der gleiche Bildinhalt gezeigt, 48Hz, lange Belichtung
48 -> Double Flash: es wird bei jeder Belichtung ein anderes Bild gezeigt, 48Hz, lange Belichtung
96 -> es werden vier unterschiedliche Bildinhalte gezeigt, in der zweit in der normal zwei Bilder gezeigt werden, 96Hz, lange Belichtung

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
78
Q

Wie verhält sich die Bewegungsunschärfe bei 1/100s (86,4°), 1/50s (172.8°), 1/25s (345.6°)?

A

1/100s: Die Schärfe nimmt bei kürzeren Belichtungszeiten deutlich zu, bessere Detailabbildung -> Zunahme von Opazität
1/50s: Standardaufnahme
1/25s: Bewegungsunschärfe nimmt bei längeren Belichtungszeiten deutlich zu.
->Zunahme von Transparenz, schlechtere Detailwiedergabe (Kontrastverlust durch Motion Blur)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
79
Q

Was sind die Nachteile von HFR?

A
  • > Sehgewohnheiten aus dem analogen Kino werden vermisst (Korn, Bildstand, Flickern, Schlieren, Tiefe, …)
  • > steriler, kühler Look - kein “Seifenopern-Effekt”
  • > elektronischer, künstlicher HD-Video-Look
  • > Touch of Magic fehlt, zu viel Realismus
  • > den Bildern fehlt es an Aussagekraft, “Puch” wird vermisst, Banalisierungseffekt
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
80
Q

Was für moderne und neue Möglichkeiten liefert uns HFR noch?

A
  • > “Creative Shutter”, wird zum Beispiel mit 120Hz aufgenommen, später dann auf 24B/s herunter gesampelt, um z.B. den Wagenradeffekt zu vermeiden.
  • > “Synthetic Shutter”, bei dem im nachinein verschiedene Framerats zusammen gebaut werden, damit der klassische “Kino-Look” noch erhalten bleibt, aber schnelle Bewegungen besser abgebildet werden.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
81
Q

Von was hängt die Bildqualität in der Kinematografie ab?

A
  • > Bewegungsdarstellung: Framerate, Shutter, Motion Blur, Judder, Flickern
  • > Dynamikumfang: SNR, Aufnahmekontrast, Gammakodierung
  • > Farbdarstellung: Farbraum, Farbstruktur, Datenreduktion
  • > Spatiale Auflösung: Schärfeeindruck/MTF, Widergabe
  • > Kompression: Visuell verlustfrei, Kaskadierung?
  • > Optik: Auflösungsvermögen, Vergütung, Lensdesign
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
82
Q

Inwiefern unterscheiden sich die Zielsetzungen vom TV- und Filmworkflow?

A

TV-Workflow (Display Referred):
-> Direkte Anwendungsmöglichkeiten ohne Bearbeitungsschritte (Live)
-> Standardisierte Bandbreiten und Farbräume: ITU BT-Rec. 709 (HDTV), Rec 2020 UHDTV
-> Display-refered Lichtwerte der Szenen werden bei der Aufnahme an Wiedergabestandards angepasst
-> Postproduktion nicht zwingend notwendig, Standardisierung aller Geräte
->Ziel: Schnelle und direkte Wiedergabe für Live-TV und Brodcasting, gute Bildqualität
————————————
Filmworkflow (Scene Referred):
-> Bestmögliche Bildqualität für Aufnahme und Wiedergabe, das Seherlebnis steht im Fokus (erweiterter Dynamikumfang, Farbdarstellung, spatiale Auflösung, temporale Auflösung)
-> Postproduktion zwingend notwendig
-> Scene-Referred: Lichtwerte werden wie in der Szene aufgenommen - anschließende Postproduktion ist zwingend notwendig
-> Ziel: Maximale Bildqualität, bestes Seherlebnis für die Asuwertung in Projektion
-> hohe Flexibilität für Bearbeitung in Postproduktion

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
83
Q

Riecht Philip komisch?

A

Ja, weil er immer eine Taschenravioli von gestern Abend in seiner hinteren Hosentasche transportiert.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
84
Q

In welcher Art zeichen Kameras Videosignale auf (Videogammakorrekturen)?

A

Sie zeichen lineare Videosignale auf

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
85
Q

Nenne ein paar Videocodes.

A

HDCAM, DVCPRO HD, CDCAM HD, AVC HD, …

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
86
Q

In welchen drei Arten können Filmkameras Videosignale aufzeichen?

A
  • > Linear Video mit Gammakorrektur (HD-Video) (Displayreferred (TV))
  • > Videosignale mit logarithmischer Gammakodierung (Scene Referred)
  • > Daten im RAW-Format aufzeichen (Scene REferred)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
87
Q

Nenne drei optionen für den Filmworkflow bei digitaler Bildaufzeichtung.

A

Videoaufzeichnung im HDTV-Standard, UHDTV:
-> Display-Referred (schneller Workflow ohne POostproduktion möglich), Video Codecs
-> schnell und günstig
—————————–
Videoaufzeichnung mit Log-Gammakodierung:
-> Scene-Referred (Postproduktion notwendig), Video Codes
-> effizient und hochwertig
—————————–
Raw-Datenaufzeichnung:
-> Scene-Referred (Postproduktion notwending)
-> am hochwertigsten, da möglichst unbeschnittene Daten aufgezeichnet werden: aufwändig und teuer

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
88
Q

Wie sehen Sensoren Licht?

A

Sensoren sind eigentlich “Photonensammler”. Sie bestehen aus lichtempfindlichen Fotozellen (photosites) und nehmen Ladung auf (mV). Sie bestehen aus analogen Bauteilen, können aber nur Helligkeitswerte sehen (“Grauwerte”: S/W-Bilder). Die Ladungen, die beim Eintreffen vom Licht erzeugt werden (analoges Signal), wird (an A/D-Wandlern hinter den Sensoren) in lineare digitale diskrete Signale umgesetzt (quantisiert).
Dies ergibt eine lineare Aufzeichnung von Ladung.
Die Fähigkeit der Fotozellen ist allerdings begrenzt, d.h. die Ladungskapazität ist begrenzt, weswegen bei übermäßiger Belichtung die Ladung überlaufen kann, und es dadruch zum sogenennanten “Whiteclippng” kommt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
89
Q

Welche drei Arten, Sensoren Farben sehen zu lassen, gibt es?

A
CCD:
-> 3CCD-Prisma
-> Lichtsignal wird durch ein Prisma aufgespalten und von drei Sensoren verarbeitet
-> fertig prozessierte RGB-Signale
-> Brodcasting
-----------------------------
CMOS:
-> Appertur wie ein 35mm-Film
-> CFA-Farbmosaik: processing nötig
-> Bayer-Pattern mit viel grün
-> SLS ("Filmlook")
-----------------------------
Faveon
-> übereinander liegende Farblayer. die jeweils eine (RGB) Farbe auslesen
-> volle Auflösung auf alle Kanälen
-> keine Verbreitung in der Praxis
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
90
Q

Was sind die Vorteile eines CCD-Bildwandlers?

A
  • hohe Lichtausbeute, also besserer Füllfaktor
  • geringes Rauschen, da nur ein A/D-Wandler
  • weniger Defektpixel aufgrund einfacherer Sensorstruktur
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
91
Q

Was sind die Nachteile eines CCD-Bildwandlers?

A
  • langsamere Auslesezeiten als bei CMOS, da nur ein A/D-Wandler digitalisiert
  • hohe Herstellungskosten
  • Blooming und Smearing bei Überbelichtung
  • hoher Stromverbrauch
  • für einige CCD-Typen hoher baulicher Aufwand
  • komplexer Kameraaufbau (Prisma)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
92
Q

Was sind die Vorteile eines CMOS-Bildwandlers?

A
  • schnelleres Auslesen und damit höhere Frameraten
  • pixelgenaues Auslesen
  • Geringer Stromverbrauch
  • weniger anfällig für Blooming
  • geringer baulicher Aufwand
  • geringere Herstellungskosten
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
93
Q

Was sind die Nachteile eines CMOS-Bildwandlers?

A
  • Geringere Lichtempfindlichkeit (kleiner Füllfaktor)
  • stärker rauschanfällig, da pro Pixel ein Verstärker
  • “Pixel Crosstalk” durch fehlgeleitete Strahlen
  • anfällig für Pixeldefekte
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
94
Q

Wie ist eine CMOS-Bildwanlder-Zelle aufgebaut?

A

Nachteil: Schlechterer Füllfaktor als bei CCD
—————————–
Vorteil: Gezielte Ladungsabfuhr mit unterschiedlicher Verstärkung pro Fotozelle möglich (ermöglicht HDR)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
95
Q

Was sagt der Füllfaktor über einen Sensor aus?

A

Je besser der Füllfaktor (lichtempf. Fläche), desto mehr Lichtenergie kann von den Fotozellen aufgenommen werden. je mehr Licht aufgenommen werden kann, desto empfindlicher der Sensor, desto weniger Rauschen entsteht.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
96
Q

Was bringen die Mikrolinsen über der Fotozelle?

A

Mikrolinsen sollen mangelnde Füllfaktoren ausgleichen, verursachen gleichzeitig aber unterschiedliche Herausforderungen:
-> Vignettierungen, Pixel Crosstalk, Streulicht, Beugungserscheinungen, reduzierte MTF

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
97
Q

Weshalb hat ein CMOS-Bildwandler einen erhöhten Dynamikumfang?

A

Durch den möglichen Zugriff auf jeden einzelnen Bildpunkt (oder Bildpunktgruppen) kann eine nicht lineare Ladungszunahme einfach erreicht werden. (z.B. hohe Lichtenergie kann mit geringerer Verstärkung versehen werden, geringe Lichtenergie kann gezielt verstärkt werden). Eine höhere Dynamik ist erreichbar, im Gegensatz zu CCDs, trotz schlechterem Füllfaktor. Über die Steuerung gezielter Ladungsabfuhr kann resulitierende Ladung (Licht einer Szene) logarithmisch von der Beleuchtungsstärke abhängen. Der Belichtungsumfang ist dann mit ca. 170dB sogar größer möglich, als der des menschlichen Auges -> HDR CMOS (HDRC). Eine kostengünstige Anfertigung von großen Bilddiagonalen -> Vorteile für Filmkameras.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
98
Q

3 CCD-Block vs. SLS-CMOS mit Farbmosaik: nenne vor und Nachteile.

A

3 CCD mit Prisma und separierten RGB-Werten:
-> Vorteil: volle RGB-Daten ohne Processing
-> Nachteil: Prismen können nicht in S-35mm-Größen gebaut werden
———————————
Single Large Sensor mit Bayer-Farbmosaik:
-> Vorteil: Single Large Sensor
-> Nachteil: RGB müssen über Farbmosaik errechnet werden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
99
Q

Wie funktioniert ein Farbmosaikfilter?

A

“Bayer-Pattern”: Fotozellen sind nur Lichtempfindlich, werden dadurch eben mit RGB-Farbfiltern versehen: Farbtrennung in R, G oder B bei jeder Fotozelle. Die Anzahl der grünempfindlichen Fotozellen ist dabei doppelt so hoch, wie die der rot- und blauempfindlichen (50% grün, 25%% rot, 25% blau). Der Rot und Blaukanal sind dadurch schlechter aufgelöst. Es gibt also einen systemimmanenten Unterschied zu analogem Film oder dem 3 CCD: Fehlende Farbwerte müssen interpoliert (also geschätzt) werden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
100
Q

Was geschieht beim “De-Mosaicing” oder beim “De-Bayering” des Bayer-Patterns?

A

Fotozellen repräsentieren keine einzelnen Pixel. Um die resultierende Farbe zu berechnen, werden 9 Farbsenoren (33 mit 2Blau, 2Rot und 5Grün) betrachtetund die Werte werden zu einem resultierenden Pixel/Farbe zusammengefasst. Der mittlere PIxel wird also immer als der neue “Pixel” betrachtet, die 8 außern herum helfen bei der Interpolation. Am Rand z.B. muss also ein Teil der Informationen geraten werden.

  • > Fotozellen sind keine “Pixel”
  • > erst nach der Interpolation entstehen einzelne RGB-Pixel
  • > nur 33% der Informationen können direkt “gemessen” werden.
  • > 67% der Farben und Tonwerte werden mathematisch geschätzt!
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
101
Q

Was geht durch den digitalen “Entwicklungsprozess” (De-Bayering) vor allem verloren?

A

Besonders kritisch sind jegliche Kontrastdaten.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
102
Q

Von was ist die Qualität des De-Bayerings abhängig?

A

Die Qualität ist abhängig von den dafür verwendeten Algorithmen abhängig.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
103
Q

Wie verhält sich die native Auflösung beim De-Bayering und was ist zu beachten?

A

-> Der Bildverabreitungsprozess des Debayerings ist rechenintensiv und zeitaufwändig.
-> Der Debayering-Prozess bringt durch die rechnerische Interpolation einen hohen Verlust (ca. 30%) der Farbauflösung und der “nativen” Ortsauflösung mit sich (abhänig von der Qualität des Debayeringalgorithmus)
——————-
-> Überabtastung des Zielauflösung erforderlich für sehr gute Ergebnisse (20-50%) (-> Abtasttheorem)
——————-
Praktische Anwendung:
-> Die “native” Auflösung eines Kamerasensors mit CFA sollte idealerweise ca. 20.50% über der Auflösung des Zielformats liegen, um eine optimale Bildqualität zu erreichen.
-> In der Praxis werden trotzdem anderweitig gute Ergebnisse Produziert

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
104
Q

Was besagt das Nyquist-Shannon-Abtasttheorem?

A

Ein Signal muss mindestens mit der doppelten Frequenz abgetastet, um temporales Aliasing zu vermeiden und das Ursprungssignal in der Vollständigkeit wieder herstellen kann.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
105
Q

Was für Arten von “Debayering”-Methoden gibt es?

A

Bei allen Methoden müssen Helligkeits und Farbinformationen eines Pixels eines CFA-Bildes errechnet werden:

  • > “Superpixel” verwendet 4 CFA-Pixel für einen RGB-Pixel: Spatiale Auflösung des errechneten RGB-Bildes ist nur nich 1/4 der “Nativen” auflösung.
  • > “Bilineare interpolationsmethone” erhält die originae Auflösung durch die Verrechnung umliegender Pixel, tendiert aber zu unscharfen Bildern und Farbartefakten an den Kontrastkanten. Die Methode ist jedoch sehr schnell.
  • > “Variable Number of Gradients” verarbeitet zuert Hellwerte umliegender Pixel, vergleicht diese und fügt zuletzt die interpolierte Farbinformation hinzu. Kontrastkanten werden besser Verarbeitet und ewniger Farbartefakte sowie Farbrauschen generiert.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
106
Q

Zu welchem Zeitpunkt wird das De-Bayering verwendet?

A

Es kann entweder direkt intern erfolgen, wenn auf das Format “ProRes” z.B. gespeichert werden soll, damit das Bild direkt angeschaut werden kann, oder aber später in einem externen Programm, dann wird auf die interne Karte mit RAW geschrieben, da dort keine Veränderung der Daten erfolgt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
107
Q

Was ist der Unterschied von Video (“Baked In”) und RAW (“Metadaten”) in Hinsicht auf den Signalweg?

A

Der Unterschied liegt bei den Metadaten. Bei Video wirken sich die Einstellungen der Kamera direkt auf das Videosignal aus, sie können im Nachhinein nicht mehr direkt Verändert werden, sondern das veränderte Signal muss bearbeitet werden. Bei RAW werden die Kameraeinstellungen in die Metadaten geschrieben und separat dem Video beigelegt. Das RAW Video kann also danach immer noch verändert werden, indem einfach die mitgelieferten Kameradaten verändert werden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
108
Q

Wie werden RAW-Daten (“Digitales Nefativ”) zu RGB-Bildern (Videosignale) gerechnet?

A

Der gesamte Prozess geschieht meistens in einem In-Camera Videoworkflow-Processings, kann aber theoretisch auch danach in der Software erfolgen:

  1. -> “Dead Pixel removal”: Tote Pixel werden mit Farbinformationen der nächsten Pixel interpoliert
    - ——————
  2. -> “Noise Reduction”: Frühe Bearbeitung vereinfacht spätere nonlineare Arbeitsschritte (Starke Rauschunterdrückung verschlechtert Detailauflösung)
    - ——————
  3. -> “Linearisation”: Ausgleich spezieller Sensor Charakteristika (Knee)
    - ——————
  4. -> Blacklevel Subtraction: Ausgleich von Fehlersignalen z.B. aus thermalem Rauschen und elektrischen Interferenzen
    - ——————
  5. -> “De-Mosaic zu RGB”: schon gelernt ;) verschiedene Algrithmen
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
109
Q

Welche Parameter können bei der RAW aufzeichnung auch erst in der Postproduktion festgelegt werden und was für Vorteile bringt das?

A

Die Daten können nicht nur in der Postproduktion eingestellt werden, sonder müssen!

  • > Weißabgleich: Farbton auf der Planckschen Kurve
  • > Farbraum: Festlegung des Zielfarbraums (P3, Rec.2020, …)
  • > Sensorempfindlichkeit: Verstärkung der Signale (Gain)
  • > Rauschunterdrückung: Denoising (z.B. Szenenabhängig möglich)
  • > Kantenschärfung: Detail (z.B. Szenenabhängig möglich)
  • > Dies erlaubt es die aufgezeichneten Daten später noch individuell pro Einstellung maximal felxibel in der Postproduktion beeinflussen zu können (unter Laborbedingungen!)
  • > Großer Vorteil für die optimale Bildbearbeitungsmöglichkeiten in der Postproduktion (Grading) da wichtige Parameter noch nicht eingrenzend festgelegt wurden (Farbraum, Spatiale Auflösung, …)
  • > im Gegensatz zu bereits prozessierten RGB-Video-Bildern, bei denen die o.g. Parameter bereits unveränderlich (“eingebacken”) worden sind.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
110
Q

Was für Faktoren werden beim De-Mosaic-Prozess von RAW zu RGB bearbeitet?

A

-> Objektiv-Korrekturen: Chromatische Aberrationen, Verzerrungen, …
-> Cropping: Formatskonvertierungen
-> Scaling: Up oder Down
-> Weißabgleich: Farbton
-> Color Conversion: Farbkonvertierung auf z.B. Rec709
-> Color Enhancements: Hauttöne, Himmelblau, …
-> Toning Curve: Kontrastanhebung
-> Gamma Curve: Kodierung zu z.B. Rec.709
-> Kantenaufsteilung: “Detail”
-> Clip to fewer Bits: Reduktion der Bittiefe
-> Lossy Compression: datenreduktion auf Ziel-Datenrate
——————-
Ist das Processing abgeschlossen, sind die Veränderungen im RGB-Signal nicht mehr umkehrbar, d.h. sie sind in den RGB-Signalen festgeschrieben (“Eingebacken”)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
111
Q

Wie lässt sich in RAW-Dateien eine höhere Dynamik als in z.B. Rec.709?

A

Es lässt sich in RAW ein teilweise ein weit höherer Dynamikumfang und Farbraum speichern, wenn das komplette Sinal eines Sensors unbeschnitten aufgezeichnet werden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
112
Q

Kann RAW komprimiert werden?

A

Ja, z.B. in RedRAW (kann aber einbußen in der Dynamik verursachen)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
113
Q

Für welche Art von Arbeit sind RAW-Aufnahmen geeignet?

A

Für Film, wenn Zeit für Postproduktion ist.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
114
Q

Was sind die Vorteile von RAW-Aufzeichnung?

A
  • > Deutlich vereinfachte Kameraelektronik und Menüs sind möglich, was zu einer kleineren Bauweise der Kameras und weniger Aufwand beid der Bedienung führt.
  • > Größere Flexibilität in der Bearbeitung der Bilder, beste Korrekturmöglichkeiten in der PP. Es sind aso präziese Bearbeitungen untter “Laborbedinungen” (PP) möglich, sowie felxiblere Bildgestaltung in der PP.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
115
Q

Was sind die Nachteile von RAW-Aufzeichnung?

A
  • > Postporduktion zwingend notwendig
  • > gegenüber einer direkten Aufzeichnung von RGB-Daten, entstehen in der PP z.B. hohe Bearbeitungszeiten, die tuer werden können.
  • > mögliche Fehlerquelen in der Kommunikationskette (Weißpunkt, Verstärkung, ….)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
116
Q

In was können sich RAW-Daten unterscheiden?

A
  • > Manche Kameras komprimieren die RAW-Files vor dem Speichern, worudh es zu verlusten kommen kann.
  • > RAW kann mit linearer oder logarithmischer Gammakodierung speichern.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
117
Q

Was ist Cinema DNG?

A

ein universelles (nicht-proprietäres) Rohdatenformat mit Metadaten

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
118
Q

Nenne Beispiele proprietärer Lösungen bei der Kodierung mit RAW-Daten,

A
  • > 16 Bit lin: (Sony): Komressionsstufen
  • > 12 Bit log uncompressed: (ARRI): logarithmische gammakodierung
  • > 12 Bit log compressed (RED): logarithmische Gammadarstellung
  • > 10 Bit log: (CANON): in Kombinationen mit Festlegungen (ISO, Weißabgleich, …): logaritmische Gammakodierung
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
119
Q

Wie viele Blendenstufen kann das menschliche Auge wahrnehmen?

A

Etwa von -20 bis 30 Blendenstufen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
120
Q

Wie verhält sich die Schärfe bei der Wahrnehmung in Bezug auf die menschliche Helligkeitswahrnehmung (Blendestufen)?

A
  • > kleiner als -20: Wahrnehmbarkeitsschwelle
  • > -20 bis -8: Monochrom, sehr schlechte Schärfe
  • > -8 bis 4: schlechte Farben, und schlechte Schärfe
  • > 4 bis 20: gute Farbe und Schärfe
  • > größer als 20: Blenden
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
121
Q

In welchen Blendestufen bewegt sich eine Natürliche Szene, bezogen auf die menschliche Helligkeitswahrnehmung?

A

-> Von -2 bis 18: umfasst etwa 20 Blendenstufen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
122
Q

In welchen Blendestufen bewegt sich die Wahrnehmung ohne Adaption, bezogen auf die menschliche Helligkeitsswahrnehmung?

A

-> Von etwa -2 bis 11: umfasst etwa 13 Blendenstufen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
123
Q

In welchen Blendestufen bewegen sich Kameras, bezogen auf die menschliche Helligkeitswahrnehmung?

A

Ewa von -2 bis 12.5: umfasst etwa 14.5 Blendestufen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
124
Q

Wo liegen die meisten Formate der Bildwiedergabe im Film/TV?

A

Vor allem im unscharfen und dem Bereich mit den schlechten Farben, etwa von -8 bis 4, Blenden, einer Helligkeit von etwa -2 bis 1 [10^x cd/m^2]

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
125
Q

Was ist Log E?

A

Der Begriff Log E ist eine relative Belichtungseinheit. Jedes mal, wenn sie die Belichtung verdoppelt, nimmt Log E um 0,3 Einheiten zu.
-> Wärend die Belichtung durch Multiplikation eines Faktors ansteigt, steigt der log E durch Addition an.
———————————
Zahl: 1; 10; 100; 1000; 10000; 100000; …
Logarithmus: 0, 1, 2, 3, 4, 5, …
———————————
Logarithmische Zahlen stellen den proportionalen Anstieg mit linearen Zahlen dar.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
126
Q

Wie sieht die typische Kennlinie eines S/W Negativ-Filmmaterials aus?

A

In hellen Bildpartien des Orginalbildes wird im Negativ durch stärkere Belichtung mehr Silber als in dunklen gebildet.
-> Diese Partien werden auf dem Negativ “dichter” abgebildet (=weniger transparent = zunehmend opak)
-> stärkere Schwärzung = höhere Opazität
-> Der Grad der Silberbildung (Schwärzung) ist abhängig vom Grad der Beleuchtungsstärke (l*t = log H erzeugt Dichte)
-> ist zusätzlich durch die Art der Entwicklung beeinflussbar (Zeit und Temperatur)
———————————
Je länger der lineare Bereich, desto größer ist der Szenenkontrast im Bild!
———————————
Y-Achse = Dichte D von 0 bis 2
X-Achse = log H
Kennline: startet bei 0,4 flach und steigt (unten an der Schwelle) dann linear an und flacht dann wieder an der Schulter (oben) ab.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
127
Q

Was für eine Art von Ladung nehmen Licht-Sensoren wahr?

A

Sie nehmen lineare disktrete Signale umgesetzt (Quanitisierung). Zur anpassung an das menschliche Auge werden logarithmische Darstellungen verwendet.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
128
Q

Was sind die drei Optionen für den Filmworkflow mit digitaler Bildaufzeichnung?

A
  1. Videoaufeichnung im HDTV (Rec.709)
    - > Display-Referred (schneller Workflow ohne Postproduktion möglich)
    - > schnell und günstig
    - ——————————–
  2. Videoaufzeichnung mit Log-Gammakodierung
    - > Scene-Referred (Postproduktion notwendig)
    - > effizient und hochwertig
    - ——————————–
  3. RAW-Datenaufzeichnung
    - > Scene-Referred (postproduktionnotwendig!)
    - > aufwändig, teuer, am hochwertigsten.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
129
Q

Was beschreibt der Dynamikumfang?

A

Der Dynamikumfang repräsentiert den Unterschied zwischen dem dunkelsten und dem hellsten Tonwert, der während einer einzelnen Belichtung auf einem System aufgezeichnet werden kann (Belichtungsspielraum).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
130
Q

Durch was wird “Dynamic Range” begrenzt?

A
  • > maximale Ladungsaufnahme eines Sensors, bis das Clipping in den Lichtern erreicht wird.
  • > Signal über dem Grundrauschen (Noise) eines Sensors in den Schatten.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
131
Q

Von was ist der Dynamikumfang abhängig?

A

Der Dynamikumfang eines Bildgegebenen Systems ist insgesamt abhängig von der BEschaffenheit des Sensors, des optischen Systems und des Imageprocessings (z.B. Gammakodierung, Noisereduction, …)

132
Q

Was ist die Signal to Noise Ratio?

A

Signal to Noise Ratio (SNR, S/R) gibt in dB (dezibel) innerhalb des Dynamikumfangs das Nutzsignal eines Sensors an: Von max. Ladungsaufnahme bis zu reiner Schwarzwiedergabe (ohne Rauschanteil!).

133
Q

Was ist Clipping?

A

Wenn z.B. ein Himmel überbelichtet wird, werden die Sensoren zu stark belichtet und die Fläche scheint somit weiß. Die Informationen können nicht mehr geschrieben werden und die Kurven werden dadurch “Abgeschnitten”. Das Clipping führt daher zu einem unwiederbringlichen Informationsverlust.

134
Q

Wie lässt sich Clipping vermeiden?

A

Die Belichtung sollte eher auf Lichter kalibiert werden. Diese werden daher korrekt abgebildet und es kommt zu keinem clipping. “Expose to the Highlights”

135
Q

Was ist Rauschen und wie viel Rauschen ist aktzeptabel?

A
  • > Alle digitalen Kameras sind im Belichtungsspielraum un den Schatten durch Bildrauschen begrenzt.
  • > Fällt zu wenig Licht auf einen Sensor, fallen Ladungsunterschiede einzelner Fotozellen sichtbar als Rauschen auf (Farbrauschen) anstelle von z.B. der Wiedergabe eines homogenen Schwarzwertes.
  • > Bildrauschen (noise) ist speziell im Schatten sichtbar und stellt dort die Begranzung für den Belichtungsspielraum (“Exposure Latitude”) dar
  • > Rauschen ist subjektiv bewertbar, wird auch unterschiedlich akzeptiert (abhängig von Auswertungsziel und Stoff, …)
136
Q

Wie wirkt sich die Quantisierung der diskreten Werte auf die Bildqualität aus?

A
  • > Je höher die Quantisierung, desto feiner können Abstufungen z.B. von Grauwerten dargestellt werden.
  • > Eine unzureichende Bittiefe für Helligkeits- und Farbverlaufsdarstellungen lassen diskrete Werte = Stufen erkennen. (“Bandings”)
  • > Je mehr diskrete Signale zur Verfügung stehen, desto besser können Helligkeits- und Farbverläufe dargestellt werden.
137
Q

Wie verhält sich das clippen der Lichter in Abhängigkeit der Bittiefe?

A

Nach erreichen der vollen Ladungskapazität können keine weiteren Informationen aufgezeichnet werden. -> Es ist also unabhängig von der Bittiefe.

138
Q

Was sind CVs?

A

Codevalues (disktrete Helligkeitswerte) werden von max. Ladungskapazität pro Blendenschritt halbiert -> theoretisch 8 Blendenstufen.

139
Q

Weshalb kommt es bei linealer Codierung zu einer ungünstigen Verteilung der CVs? (Codevalues)

A
  • > Bsp.: Helligkeitsschritt von 6% zu 3% ist durch nur 8 Schritte (CV) unzureichend repräsentiert.
  • > besonders kritischer Bereich in menschlicher Helligkeitswahrnehmung: Schatten und mittleres Grau
  • > ca. 60-70 CVs reichen aus um den Helligkeitsverlauf einer Blende Licht ohne sichtbare Quantisierungsstufen abbilden zu können.
140
Q

Was sind Probleme bei der linearen Kodierung?

A

-> Es gibt zwar mehr als genügend Codevalues um die erste Blendestufe (Lichter) zu repräsentieren
-> aber zu wenige CV um die Helligkeitsunterschiede in den Schatten ausreichend zu repräsentieren (Zugriffsmöglichkeit zu gering in kritischen Bereichen nur in groben Schritten möglich).
Für da menschmliche Sehen werden bei weiß zum Darstellen einer Blendestufe z.B. 70 CV reichen, verwendet werden im linearen allerdings 32767. Die CVs werden also ineffizient verwendet.

141
Q

Wie verhalten sich Bittiefe pro Blendenstrufe bei linearer Kodierung in log Darstellung bei höhren Bittiefen?

A

12-bit linear Coding (log Darstellung):
-> Bietet bereits im Bereich von 3% bis 6% (1 Blende) bereits 128 CV und ist damit in diesem Bereich unter der Wahrnehmungsgranze in der Bittiefe auslöst.
-> ausreichende Auflösung (16x mehr Bit als 8 Bit)
-> trotzdem Ungleichgewichtung der CV in Lichtern und Schatten
———————————
16-bit linear Coding (log darstellung)
-> ausreichende CV um sichtbare Quantisierungsschritte in 9 Blendestufe abbilden zu könen.
-> 16 bit lin reichen aus um diskrete Schritte einer Szenenluminanz von 9 Blendensstufen der Quantisierung visuell unsichtbar zu machen, brauchen aber zu viel Speicherplatz.
-> CV werten noch immer ineffizient verwendet.

142
Q

Was macht die Gammakorretur bei Videosignalen?

A

Gammawerte bezeichen Kontrastverhalten (Veränderungen durch Umrechnungen).
-> Gammawert 1 = keine Veränderung
-> Werte höher als 1 = Kontrastzunahme
-> Werte unter 1 = Kontrastabnahme
———————————
Druch Umrechnungen können Kontrastveränderungen in digitalen Bildern gesteuert werden.

143
Q

Was bringt die Gammakorrektur in Bezug auf die CVs?

A

Die Gammakorrektur verteilt die Blendestufen in gleichmäßige Helligkeitsschritte über das Videosignal. Das ist besser an die menschliche Wahrnehmung angepasst. Untere Stufen werden daher nicht genutzt, um in den helleren Bereichen mehr CVs zur Verfügung zu haben.

144
Q

Wie kann logarithmische Gammakodierung zu größerem Kontrastumfang führen?

A
  • > für die menschliche Helligkeitswahrnehmung optimierte Schritte
  • > durch die logarithmische Gammacodierung liegen die CVs visuelle besser verteilt dar.
  • > Optimierte Verteilung der CVs in ale Bereiche des Kontrasts einer Szene (ca. 60-70 CVS)
  • > bessere Möglichkeiten für Colorgrading, da in alle Helligkeitsstufen ausreichend CVs vorhanden sind um Tonwerte visuell artefaktfrei abbilden zu können.
  • > Visueller Gewinn von Dynamikumfang bei reduziertem Datenaufkommen
145
Q

Was ist beim Monitoring bei logarithmischer Bilderfassung zu beachten?

A

Man sollte das Monitoring visuell, mit dem Histogram und der RGB-Waveform bei log Kodierung beachten.
-> es kommt zu gestauchten werten bei log-Kodierung.
Das Ergebnis sieht teilewise anders aus nach dem exportieren.

146
Q

Weshalb kommt es bei einer Szene, die etwa 20+ Blendenstufen umfasst immer zu Informationsverlusten und was ist zu beachten?

A

Eine Kamera, bzw. ein Film kann lediglich etwa 14 Blendenstufen abdecken. Wenn die Blenden nun zu groß gewählt werden (die Lichter richtig belichtet), kommt es zu einer Unterbelichtung, wenn diese zu groß (die Schatten richrig belichtet) gewählt werden, kommt es zu einer überbelichtung.
Um eine korrekte Belichtung zu erhalten, muss also ein Kompromiss mit einer halb geschlossenen genommen werden. Es kommt so zwar zu verlusten in den Tiefen und höhen, aber das Bild ist allerdings durchgängig gleichmäßig belichtet.

147
Q

Was für ein Verhältnis des Szenenkontrasts ist in einer Szene optimal?

A

Optimal wäre ein Verhältnis von 1:60 zwischen dem hellsten und dem dunkelsten Punkt. -> log10-Einheit: 1.8

148
Q

Wie viele Blendenstufen kann ein Bildträger normal aufnehmen?

A

Etwa 10 (log 3,0+).

149
Q

Was für einen Szenenkontrast kann ein Bildträger aufnehmen?

A

Es kann leicht einen Szenenkontrast von log 1,8 aufnehmen. Der Bildträger hat dann sogar noch reserve, was als Belichtungsspielraum verwendet wird.

150
Q

Wie weit kann die Belichtung verschoben werden, wenn das Bild korrekt belichtet ist, ohne dass es unter bzw. überbelichtet ist.

A

Die Belichtung kann in 0,3 log Einheiten (eine Blendenstufe) um zwei Schritte (2 Blendensrufen( nach links verschoben werden, bevor unterbelichtung einsetzt. Das funktioniert auch gleich in Bezug auf die überbelichtung, nur in die andere Richtung.

151
Q

Was für Kontrastverhältnisse hat das menschliche Auge, der LCD-Monitor TV, die Kinoprojektion und HDR-Displays? Was die reale Welt?

A
  • > LCD-Monitor: 1:40-400
  • > Kinoprojektion: 1:800-1200
  • > HDR-Displays: 1:60000?
  • > Die Reale welt liegt noch über diesem Wert
152
Q

Wie viele Blendenstufen umfasst ein LCD-Monitor, eine Kinoprojektion und ein HDR-Display?

A
  • > LCD-Monitor: 8 - 11
  • > Kinoprojektion: 32 - 45
  • > HDR: weit darüber
153
Q

Was sind Belichtungsrelevante Kenngrößen der Kameratechnik?

A

Empfindlichkeit (ISO):
-> “base sensitivity” = beste Dynamik bei geringstem Bildrauschen
——————————-
Kontrastumfang in Blendensrufen / EV´s (Exposure Values), Wert für mittlere Belichtung:
-> z.B. 14 Blendenstufen (+9/-5 EV, 0 EV bei normaler belichteter Graukarte)
-> Achtung: Untterschiedliche Kurven der Kamera
-> Abhängig von der Gammakurve

154
Q

Was sind wichtige Parameter zur Belichtung?

A
  • > Belichtungszeit (shutterspeed / -angle, Framerate)
  • > Blendenöffnung am Objektiv (Aperture, T-stop)
  • > Weißabgleich der Kamera (Kelvin)
155
Q

Was sind IRE?

A

IRE (Institute of Radio Engineers) stammen noch aus der analogen SD-Zeit, werden aber in der Praxis immer noch referenziert. “100 IRE entspricht 100% Milllivolt Videopegel”

156
Q

Was kann ein Messgerät für Kamerasignale alles darstellen?

A

Luminanzdiagramm, Vektorskop, RGB-Parade, GBR-Parade, Color Histogram, YCrCb, RGB Histogramm, YRGB-Peak (Säulendiagramm), Helligkeits-Histogramm, YCrCb- Overlay, RGB-Overlay, Audio Phase Meter

157
Q

Was ist ein Messgerät für Kamerasignale?

A
  • > externes Messsgerät (meist bessere Auflösung) oder als Software integriert (z.B. Kamerasucher, Monitor)
  • > stellt einzelne oder alle Videozeilen übereinander als Luminanzplot dar
  • > Funktion ist Signal- und Kurvenabhänig
  • > auch als RGB-Parade oder RGB-Overlay
  • > sehr gut geeignet einzelne Bildbereiche konstant zu belichten.
  • > Nachteil: kann nur mit Kamera eingesetzt werden.
158
Q

Was stellt ein Waveform-Monitor dar und was kann man damit leicht korrigieren/erkennen?

A

Er schreibt alle Zeilen des aktuellen Bildes übereinander. Man kann dadurch sehr genau sehen, wie starkt die hellsten Punkte belichtet sind (Spannung 100%). Wenn das Signal also länger auf 100% ist, kommt es zu einem Clipping. Der weißwert muss dann dunkler gestellt werden.

159
Q

Was sind Video-und Datarange?

A

-> Videorange = Legal Range (“Normal Range”) ( = 0-100% IRE)
-> Data Range = Extended Range: Signal wird auf z.B. 0-1024 CVs verteilt. ( = -9 - 109% IRE)
——————————-
Die Videorange ist also ein kleinerer Bereich. Das Videosignal wird eher von TV Geräten und das Datasignal eher von PC-Bilderschirmen. Wenn das jeweilige Signal aber von den anderen Wiedergabemedien bzw. der jeweilig anderen wiedergegeben wird, kommt es zu einem zu steilen oder zu flachen Bild. Das Signal muss also immer mit dem richtigen Wiedergabegerät wiedergegeben werden.

160
Q

Was passiert, wenn Video- und Datarange Signale auf verschiedenen Displays wiedergegeben werden?

A
Videorange auf PC-Monitor:
Wiedergabe zu flach
-------------------------------
Videorange auf TV-Gerät:
Datarange auf PC-Monitor:
korrekte Wiedergabe
-------------------------------
Datarange auf TV-Gerät:
Wiedergabe zu steil
161
Q

Wie funktioniert die Belichtungskontrolle “Zebra”?

A
  • > Einblendung/Funktion im Kamerasucher oder Monitor (gewisse Bereiche werden schraffiert dargestellt)
  • > geeignet als Indikator für z.B. Über- / Unterbelichtung (schraffierte Bereiche, z.T. wählbar)
  • > üblicherweise bezogen auf IRE Videolevels (IRE=Institute of Radio Engineers)
  • > Zebralevels sollten in Abhängigkeit der Kurve in der Kamera gewählt werden.
162
Q

Wie funktioniert die Belichtungskontrolle “Histogramm”?

A

-> Mengendiagramm für Luminanz oder RGB
-> gibt Hinweise auf “Ausgewogenheit der Belichtung”, Über und Unterbelichtung
-> bei echten RGB-Sensorhistogrammen erkannt man also Signalclipping, wenn die Werte über 100% sind.
——————————-
schlecht geeignet um z.B. Hauttöne konstant “auf Anschluss halten” (gewisse gemischte Farben genau einzustellen)

163
Q

Wie funktioniert die Belichtungskontrolle “False Color Mode”?

A
  • > am Kameraausgang/ -sucher oder an vielen Onboard-Monitoren wählbar.
  • > färbt Bildbereiche je nach Helligkeitspegel/ -bereiche nach einzelnen Farben ein (z.B. 100-109 IRE rot, 43-47 IRE grün, …)
  • > Jeder Hersteller implementiert dies individuell, also die Farben unterscheiden sich
  • > Bezug auf IRE-Videolevels?
  • > ideal und nützlich mit einstellbaren Levels.
164
Q

Wie funktioniert die Belichtungskontrolle “Belichtungsmesser”?

A

Ein Lichtmesser testet die Belichtung an einer bestimmten Farbe.

  • > Alle Messungen beziehen sich immer auf 18% Grau.
  • > Lichmessung erfolgt in Lux (Lichtwerte, “Arbeitsblende”)
  • > Objektmessung: Leuchtdichtemessungen in cd/m^2: Kontrastmessungen
165
Q

Was sind die Kenngrößen der Lichtmessung?

A
  1. Lichtstrom [Lumen]
  2. Beleuchtungsstärke [Lux]
  3. ## Leuchtdichte [cd/m^2]Beleuchtungsstärke: 1 Candela in 1m Entfernung mit Bezug auf 1m^2 (Lichtmessung, “Incident Light”)
    Leuchttichte: Licht einer Fläche, in der Stärke einer Kerze (reflektiertes Licht, Selbstleuchter)
166
Q

Was sind EV´s in Bezug auf die Lichtmessung?

A

als relative Einheit sind EV´s (Exposure Values) universell und unmissvertändlich -> es ist eine logarithmische Einheit, steht für ganze Blendenstufen

167
Q

Was für Parameter sind bei der Belichtungsmessung für den Film schon gegeben?

A

Belichtungszeit (Shutter), ISO, Dynamikumfang der Kamera

168
Q

Durch was wird die Belichtung an der Kamera gesteuert?

A

Die Irisblende der Optik, über ND-Filter, Lichtsetzung, …

169
Q

Wann sind Belichtungsmesser sehr hilfreich?

A

Bei der Arbeit mit log-Encoded oder RAW-Aufzeichnung sind Belichtungsmesser wieder sehr hilfreich (vermessung des Szenenlichts)

170
Q

Wie kann der Aufnahmekontrast analysiert werden?

A

Man kann die Daten oer Software analysieren (z.B. DaVinci Resolve: Video Waveform oder “pipette”) -> Kurvenplot erstellen (unter Berücksichtigung der gewählten Gammakurve)

171
Q

Wie kann man den Dynamikumfeng/SNR einer Kamera testen?

A

-> Um den Dynamikumfang/SNR einer Kamera zu testen, wird im Labor ein sehr großer Szenenkontrast simuliert.
-> Test: “Szenenkontrast” sollte größer sein als der Dynamikumfang des Kamerasystems: Grenzwerte ermitteln!
——————————-
1.
-> kamera auf grundempfindlichkeit einstellen (ISO)
-> 18% Graukarte gleichmäßig auf offene Blende ausleuchten (z.B. 2,0f)
-> stufenweise abblenden - jeden Schritt dokumentieren und kurz aufnehmen
-> bis kein Nutzsignal mehr sichtbar ist.
——————————-
2.
-> Licht anpassen um 18% Graukarte auf kleinste Blende auszuleuchten (T22)
-> stufenweise aufblenden - jeden Schritt dokumentieren und kurz aufnehmen
-> bis zum absoluten Clipping fortfahren
-> separat Noisfloor (mit geschlossenen Objekdeckel) und White Clipping (per Handy-LED, … ) ermitteln

172
Q

Wie kann eine gezielte Nutzung des Belichtungsspielraums herbeigeführt werden?

A
  1. “Expose to Right” (ETTR)
    - > Highlight Protection + so viel Zeichnung in den Schatten wie möglich aufnehmen…
  2. Gezielte Überbelichtung zur Rauschunterdrückung -> befriedigende Belichtung der Schatten + Highlightprotection + Korrektur im Grading (-> keine technische Belichtung bildwichtiger Teile am Noisefloor)
  3. zuvor Tests drehen und graden! Screeningtests!
173
Q

Wie nehmen Augen Farbe und Helligkeit wahr?

A
  • > Stäbchen (Nachtsehen) sind Lichtempfdinlich, können aber keine Farbstimuli differenzieren (nur S/W)
  • > Zapfen (Tagsehen) werden nur bei ausreichender Lichtmenge aktiviert und sind empfindlich für: lange (rot), mittlere (grün) und kurze (blaue) Lichtquellen (LMS), können auf diese Weise differenziert wahrgenommen werden:
  • > Reizintesnitäten an den 3 Farbrezeptoren erzeugen Farbvalenzen.
174
Q

Wie verhält sich der Stimulus der Empfindlichkeit der Stäbchen und Zäpfchen?

A

Beim Tagsehen (Zapfen) wird aus der Summe der Reize (L und M) der größte Stimulus gebildet: Hellgrün wirkt als hellste Farbe.

175
Q

Was für Arten von sehen gibt es?

A
  • > Photopisches Sehen (Tagsehen, “Zapfensehen”, helladaptiertes Auge: Empfindlichkeitsmaximum bei 555nm, hellgrün)
  • > Mesopisches Sehen (Dämmerungssehen, Zapfen und Stäbchensehen gemischt)
  • > Skotopisches Sehen (Nachtsehen, “Stäbchensehen”, dunkeladaptiertes Auge, Empfindlichtkeitsmaximum bei 505nm (blaugrün))
176
Q

Was beschreibt die V-Lambda-Kurve?

A

Die “V-Lambda-Kurve” beschreibt die spektrale Hellempfindlichkeit des menschlichen Sehapparats. Bei Nachtsehen verschiebt sich die spektrale Hellempfindlichkeit von Gelb-Grün zu Blau-Grün, also die V-Lambda-Kurve wandert in der darstellung weiter nach links.

177
Q

Was beschreibt die Dreifarbentheorie?

A

Drei Primärfarben (Rot, Grün, Blau) mischen sich zu Sekundärfarben zusammen. Sich gegenüber liegende Farben befinden sich gegenüber auf dem Farbkreis.

178
Q

Was für Arten von Farbmischung gibt es?

A

Additive und Subtraktiv, funktion klar

179
Q

Weshalb sieht das Auge Farben, bzw. wie werden die Farben erzeugt, die das Auge sehen kann?

A
  • > Objekte mit unterschiedlichen Oberflächen reflektieren oder absorbieren Lichtwellen unterschiedlich und erscheinen in der Interpretation des Hirns in bestimmten Farben.
  • > Da nur RGB reflektiert werden, bzw. erzeugt werden am Bildschirm, mischt der HSV (Human Visual System) die Farben zusammen und erzeugt so andere Farben.
180
Q

Was ist die Farbtemperatur?

A

Die Einheit der Farbtemperatur ist Kelvin (K) und bestimmt den “Weißpunkt” -> Industriestandartwerte: 5600K für TAgeslicht, 3200K für Glühlicht

181
Q

Was ist bei der Farbtemperatur des Tageslichts über den Tag hinweg zu beachten?

A

Tageslicht (natürliches Licht) besteht aus einer Mischung von:
-> warmem Licht (Sonnenstrahlen) und kühlem Licht (Himmelblau und Atmosphäre)
——————————-
Das Verhältnis davon verändert sich aber über den Tagesablauf kontinuierlich. Um ein Motiv über Stunden hinweg auf Continuity drehen zu können, ohne dass Farbfehler auftreten, muss der Weißpunkt konstant gehalten werden.
-> dies kann bereits in der Kamera geschehen (Filterung/Weißabgleich)
-> und/oder in der Postproduktion (Colorgrading)

182
Q

Wie beeinflusst die Farbtemeperatur die Farben?

A

Die Farbtemperatur beeinflusst die Wahrnehmung aller Farben (Simultankontrast).
-> In der Filmfotografie ist die Berücksichtigung der Farbtemperatur wichtig, damit ein Motiv in den Korrekten Farben aufgenommen und wiedergegeben kann.

183
Q

Was sind Konversionsfilter?

A
  • > Nicht passende Farbtemperaturen (Daylight, Tungsten) können an der Kamera (fotomech.) in den standardisierten Kelvinwerten passend zur Farbsensibilisierung eines Bildträgers (Sensor, Emulsion) konvertiert werden.
  • > Anpassung des Weißpunkts als Annäherungswert
184
Q

Wie kann der Weißpunkt angepasst werden?

A
  • > Die meisten Kamerasensoren haben eine “native” Farbempfindlichkeit von 3200K.
  • > durch Vorfilterung können Standwerte (“Presertwerte A, B, C, D) eingestellt werden (subtraktive Farbmischung -> Lichtverlust)
  • > Zusätzlich kann zur Feinabstimmung auf elektronischem Weg eine Farbkorrektur erfolgen (manuell oder automatisch) -> “Weißabgleich”
185
Q

Was zeigt das Vektorskop wenn eine bei einem wärmeren Licht bzw. kälterem Licht abgebildete Graukarte aufgenommen wird?

A

Wenn eine Grautreppe warm abgebildet wird, dann zeigt das Vektorskop eine Verschiebung ins Orangene, wenn es kalt abgebildet wird, eine Verschiebung in das blaue. Wenn sie ohne Stich abgebildet wird, bleibt der Punkt still in der Mitte.

186
Q

Wie kann man die Farbtemperatur am Waveformmonitor erkennen, wenn RGB-Parade angezeigt wird?

A

Wenn das bild z.B. zu warm eingestellt ist, zeigt der Monitor einen Farbstich mit reduziertem Blauanteil.

  • > Die differenzierte Darstellung der einzelnen Farbkanäle ermöglicht z.B. gezielte korrekturen:
  • > Bei der Aufnahme (Lichtsetzng, z.B. erhöhung des Blauanteils)
  • > in der Postproduktion (Colordrading, gezielte Rauschunterdrückung.)
187
Q

Was ist CIE?

A

Comission International de l´Èclairage

188
Q

Was beinhaltet die Anatomie des CIE Diagramms?

A

(Stellt die Farben/Farbräume dar)

  • > Die Spektralen Orte (Hue) repräsentieren die Farben des Spektrums mit max. Sättigung.
  • > Die Sättigung nimmt zum Zentrum hin ab bis durch additive Mischung Weiß entsteht.
  • > Es entsteht eine Linie auf der die natürlichen Lichtfarben als Weißpunkte repräsentiert werden (“Black Body Curve”)
  • > Die Magentafarben sind kein Bestandteil des Regenbogenspektrums, können aber durch Mischung erzeugt werten, PurPurGerade
  • > Y = Helligkeit (XyY), die eigentlich in 3D dargestellt werden müsste.
189
Q

Was ist das CIE-Normalvalenzsystem, wie sieht es aus und was bringt es?

A

Das CIE-Normalvelenzsystem (XYZ-Farbmodell von 1931) ist ein Modell zur visualisierung de menschlich sichtbaren Farbspektrums (LMS-Tristimulus).
-> Das farbige Feld des XYZ-Raumes repräsentiert die Menge aller sichtbaren Farben (HSV)
-> Es existieren noch keine Möglichkeiten, ale diese Farbvalenzen mit vorhandenen Geräten wiederzugeben (-> Theoretische Farben)
-> Durch die Grundbedingung x+y+z = 1 lässt sich der z-Anteil (Helligkeit) jeweils rechnerisch ermitteln (z = 1-x-y)
-> Die Farben der Grafik stellen eine grobe Orientierung innerhalb des virtuellen Farbraumes (Farbmodell) dar. Die auf Ausgabegeräten darstellbaren Farben beschränken sich z.B. auf die dreieckige Fläche im Inneren der Grafik (Gamut). Die am meisten gesättigten ,öglichen Farbtöne befinden sich an den kanten des “Dreiecks”.
——————————
Farbräume decken immer einen teil dieses Nromalvalenzsystems ab.

190
Q

Wie sieht das digitale RGB-Farbmodell (8 Bit) aus und wie ist es aufgebaut?

A
  • > Dsa RGB-Farbmodell und seine Code Values kann man als linearen Farbraum anschaulich als Farbwürfel räumlich visualisieren (Bei 8 Bit immer 256 Werte pro Kanal)
  • > Der reelle CIE-RGB-Farbraum entsteht durch Umrechnung des virtuellen CIE-XYZ-Farbraums (der z.T. auf nicht darstellbaren Farbreizen beruht) auf die Eichreize von gut darstellbaren Spektrallinein (R: 700nm, G: 546,1nm, B:435,8nm).
191
Q

Über was gibt der Farbort im digitalen RGB-Farbmodell (8 Bit) auskunft?

A

Ein Farbort kann als Punkt innerhalb eines Farbmodells mit geeigneten Koordinaten exakt beschrieben werden und repräsentiert die vereinbarte Farbe (“Farbwörter”) sind in Farbräumen meathematisch kontinuierlich beschreibbar, ihre reale Präsentation ist dagegen nautgemäß nur diskontinuierlich möglich (CVs).
-> Ein Farbort repräsentiert exakte Informationen über Farbton, Farbsättigung und Helligkeit.

192
Q

Was für Farbräume gibt es?

A
  1. “Virtuelle Farbräume” (Farbmodelle): zur Vermessung und Bestimmung von Farbertwn (CIE XYZ, CIE LUV, LAB, …)
  2. “Reale Farbräume”: Farbvalenzen die real dargestellt werden können (Rec-709, S-RGB, …)
193
Q

Was sind Gamuts?

A
  • > sind formal für die Körper in einem Farbmodell, die “Farbraum” genannt werden (“volume”)
  • > können mit einem Gerät durch innere Farbmischung dargestellt werden
  • > durch RGB-“Primaries” (Code Values) festgelegt (Tristimulus)
  • > sind geräteabhängig, limitierte Farbräume: z.B. Displays, Projektoren, …
194
Q

Wie unterscheiden sich die Videofarbräume von Rec.709 und Rec.2020 in der Fernsehwelt?

A

Rec.709: 8 Bit, je 256 Werte pro Kanal (RGB), Dreieck ist viel kleiner als bei Rec.2020
Dreieck befindet sich mit den Ecken auf den “RGB-Primaries” (CVs)
-> klassisches Fernsehen (HDTV)
——————————
Rec.2020: 12 Bit, je 4096 Werte pro Kanal (RGB), Dreieck viel größer als bei bei Rec.709,
-> neues Fernsehen (UHDTV)

195
Q

Was ist DCI-P3?

A
  • > DCI-P3 ist der Standard-Farbraum für D-Cinema
  • > Der DCI-P3-Farbraum ist ein RGB-Farbraum, der 2007 durch die SMPTE für die DCI-compliant Projektion standardisiert wurde.
  • > Es gibt nur wenige Displays, die DCI-P3 abbilden können (z.B. Dolby PRM 4220)
  • > DCI-P3 deckt 85% von CIE 1931 ab, 86,9% von CIE 1976
196
Q

Wie verhalten sich Gamuts aller RGB-Farbräume im Vergeleich mit DCI P3?

A
Farbraum -> Coverage
------------------------
Rec.709/sRGB -> 100%
NTSC 1053 -> 90.1%
Adobe RGB -> 93.6%
DCI P3 -> 100%
Rec.2020 -> 72.9%
Pointers Gamut -> 85.5%
Visible Spectrum -> 41.8%
197
Q

Können Kamera-“Gamuts” größer als die Auswertungsziele sein?

A

Je nach Aufzeichnungsmöglichkeit können die Sensordaten zu großen oder kleineren Teilen gespeichert werden:
-> RAW-Daten: speichert fast die volle Sensorkapazität als linearen/log Datensatz (unkomprimiert/komprimiert)
-> Log-Video: Speichert sehr große Bereiche der Dynamik und Farbräume (Gammakodierung)
-> HD-Video: Speichert Dynamik und Farben in deutlich reduzierter Weise - Rec.70 (Life Brodcasting)

198
Q

Wie verarbeiten Brodcasting Kameras normalerweise die Gamuts?

A

Brodcasting Kameras zeichnen in der regel nur den Standard ITU-Rec. 709 Farbraum auf, der limitierte Farben hat, aber Display-Referred ist.

199
Q

Was ist die CIE-XYZ Normalfarbtafel?

A

Mit der Aufstellung des CIE-Farbraums ist Farbe zahlenmäßig erfassbar. Farbvalenzen lassen sich durch Umrechnung mit entsprechenden Matrizenoperationen beschreiben. Mathematische Farbtransformationen zwischen einzelnen Farbräumen werden durch Farbmatrizen vorgenommen (präziseste Wandlungsform).

200
Q

Was sind LUTs und was bringen sie?

A
  • > LUTs (Look Up Tables) sind grundsätzlich Tabellen, die vorberechnete Werte enthalten (z.B. Farbwerte)
  • > Echtzeitbearbeitung möglich! (z.B. als Metadaten für Monitoring)
201
Q

Wie funktionieren LUTs?

A

-> farben und Gammawerte werden in Form von repräsentatoven Stützdaten in Matrizen notiert und als RGB-Komponenten erfasst.
-> stellen Anwendung für Farbmanagement innerhalb eines Workflows für Konvertierungen von einem Farbraum zu einem anderen dar (Transformationen)
-> Übertragung von Farben und Kontrastwerten in andere Zielfarbräume, wie z.B. log-Daten in “Rec.709” für HD-Monitore, also von “log” zu “lin” (Tone-/ Gamut-Mapping) (Anwendung für Umformatierungen z.B. bei Linearisierung von log-Daten)
———————-
LUTs sind qualitativ z.T. nicht sehr exakt, da sie nur mit Samplingraten arbeiten (punktuelle Werte), im Gegensatz zu Rechenfunktionen, die alle Werte exakt transferieren.
LUTs eigenen sich daher nicht generell für alle Arbeitsschritte einens Color-Workflows.

202
Q

Was für Arten von LUTs gibt es?

A
  • > 1D-LUTs: Transformieren Hellwerte und Farben (über das gesamte Bild, zweidimensional)
  • > 3D-LUTs: Sind dreidimensional (3 Werte pro Pixel) und können Hellwerte und Farben sowie Sättigung pro Pixel transformieren (sekundäre Farbkorrektur).
203
Q

Was beötigt ein LUT um funktionieren zu können?

A

Eine LUT benötigt einen definierten Input und Output Color-Space.

204
Q

Was korrigieren 1D-LUTs?

A

Primäre Farbkorrektur

-> Kontrast und Gamma pro Farbkanal

205
Q

Was korrigieren 3D-LUTs?

A

Sekundäre Farbkorrektur

  • > Crosskonvertierung zwischen Farbkanälen
  • > unabhängige Kontrolle von Sättigung, Hellogkeit, Kontrast pro Farbkanal RGB -> Farbtrippletts
206
Q

Wie wird die Qualitt eines Farbtripletts beschrieben?

A

8x8x8 -> Raster zu klein für die meisten Transformationen (-> z.B. für in-Camera-Anwendungen: EVF)
———————-
16x16x16 -> ist gebräuchlich für Previews (z.B. Monitoring) (-> z.B. für Set-Monitoring via etadaten)
———————-
64x64x64 -> ist Renderingqualität, einsatz in der Postproduktion (-> z.B. für bleibende Konvertierungen)

207
Q

Wie funktioniert ein Filmworkflow mit Digital Intermediate (DI)?
(Colorworkflow mit Intermediate LUTs “Baked-In”)

A

Ziel des Colormamagement ist es auf allen 3 Endauswertungszielen die gleichen Farben und Gammawerte (=Look) zu erreichen (Brodcasting, Digital Cinema, Analoge Kopie)

208
Q

Vergleichen sie die Farbräume der Filmwelt.

A

Immer mehr Farben:

  • > Pointer Gamut
  • > Rec.709 /sRGB
  • > DCI-P3
  • > Rec.2020
  • > ACES
209
Q

Was ist das ACES?

A

Das ACES (Academy Color Encoding System) ist ein Farbraum. Dieser bietet mehrere Vorteile für bestehende
Produktionsworkflows:
-> Standardisierteer linear-light Farbraum
———————-
-> 16-Bit half floats im OpenEXR-Fileformat (open source) (->Pixel können über 30 Blendenstufen Dynamikumfang speichern + WCG; -> alle Farben des menschlichen Sehsystems erfassbar (Wide Color Gamut))
———————-
-> kompatibel zu Filmdichte-Übertragungen übersteigt und ersetzt das frühere Cineon: ADX density encoing
———————-
-> integer ACES encoding in 10-/12-/16-bit logarithmische formate (Übertragung über HD-SDI, Verwendung in LUTs und Farbkorrektursysteme)
———————-
-> Set von Referenzbildern (ASAP)
———————-
-> Reference Rendering Transform (RRT) für abgedunkelte Kino-Umwelt
———————-
-> Set von Reference Transforms von ACES Farbraum zu Standard-Farbräumen “Output device transforms” (ODT)
———————-
———————-
-> ACES wurde entwickelt um alle Komponenten digitaler Workflows einzubeziehen: Film, digitale Kameras, CGI, Composition, Color Grading, Projektoren, …
———————-
-> Vorraussetzungen: Vermessung aller Komponenten

210
Q

Wie wird die Farbkonversion von Kameras zu ACES gemacht?

A

Die Farbe entsteht aus einem Vergleich aus Reference Input Capture Device (RICD) mit Input Device Transforms (IDT) A, B, C, …

211
Q

Was bringt die Farbkonversion ACES zu Asuwertingszielen?

A

Anpassung der Ausgabewerte an unterschiedliche Auswertungsziele

  • > Erstellung einer Reference Rendering Transform (RRT) (Master für unterschiedliche Deliveries)
  • > in Kombination mit eigenen Output DEvice Transforms (ODT) (für jedes Delivery einzeln)
212
Q

Wie ist der AECES Referenzsignalwert von der “Original Scene” zu “Theater Reproduction”?

A

Der Weg geht von der Szene bis zur korrekten Reproduktion
-> Original Scene -> Reference Input Cature Device -> ACES -> RRT -> ODT -> SMPTE Reference Projector -> Theater Projektion

213
Q

Wie kann es zu einer Datenredutkion kommen, wenn man Farbunterbtastung ausführt?

A

Die Videokomponenten des Video Signales (RGB) (Farbdifferenzkodiertes Digitalfernsehen) werden zu einem “YCrCb”-Farbmodell umgewandelt (Helligkeit-Farbigkeit-Modell)

214
Q

Was bringt die Umwandlung in ein YCrCb-Signal?

A
  • > Es gibt eine analogie zum menschlichen Sehsinn
  • > Helligkeit-Farbigkeit-Modell
  • > Aufspaltung in Komponenten: Helligkeit (grün) und Farbdiffferenzsignale (CrCb)
  • > Die Daten werden 3:2 reduziert
215
Q

Was für arten von Farbunterabtastung bei YCrCb-Farbdifferenzsignale gibt es?

A

4:4:4
-> Masteringqualität
-> VFX-Anwendungen
-> Chroma-Key Effekte
–> Empfohlene Farbtiefe für Bearbeitung in der Postproduktion
(Ein 4:4:4-Sognal eines Sensors mit Bayer-Mosaic wurde bereits hoch interpoliert!)
—————————–
4:2:2
-> geeignet für Brodcasting
-> wenig Flexibilität
-> Datenmenge sparend
–> ausreichend für reine Darstellungen/Wiedergabe
—————————–
4:2:1
-> Suboptimale Qualität (Prosumer, Consumer)
—————————–
4:2:0
-> Suboptimale Qualität (Prosumer, Consumer)

216
Q

Wie unterscheiden sich die Farbräume bei der Farbabtastung (Bildaufnahme)?

A

RGB (4:4:4)
-> optimal, da volle Farbauflösung (keine Farbunterabtastung) - “Premium-Qualität” (Mastering, Filmscanning, VFX-Anwendungen, Chroma-Key-Effekte, beste Flexibilität)
—————————–
YCrCb (4:2:2)
-> ausreichend für menschliches Auge und Postpro (Datenreduktion) (meist ausrecihend zur Bilddarstellung (Delivery, z.B. Brodcasting)
-> meist ausreichend zur Bilddarstellung (Delivery, z.B: Brodcasting)
—————————–
Suboptimale Farbunterabtastungen (4:2:0, 4:1:1, 3:1:1) = Sichtbare Qualitätseinbußungen, z.B. bei Chroma-Key Effekte

217
Q

Was sind Lookfiles?

A

Diese Dateien können während der Aufnahme in die Kamera geladen werden und dann wird der Look des Films verändert, z.B. kann eine vorgefertigte Datei geladen werden, die es so aussehen lässt, als wäre der Tag die Nacht (Day4Night)

218
Q

Was ist ein Infrarot-Sperrfilter?

A
  • > Dichroitische Beschichtungen reflektieren (blockieren) bestimmte Wellenlängen des Lichtspektrums (Infrarot)
  • > lassen gezielt bestimmte Wellenlängen des sichtbaren Spektrums passieren (Farben)
219
Q

Was ist das Infrarot-Problem bei der Verwendung von ND-Filtern?

A
  • > Kamerasensoren sind empfindlich für die Infrarotsrahlung (>700nm)
  • > einfache ND-Filter lassen IR-Strahlung durch
  • > besonders fällt das bei hoher Lichtenergie wie Sonnenlicht auf
  • -> Fehlfarben treten stärker auf, Infrarotstrahlung nimmt proportional zu.
220
Q

Wie wirkt sich die Infrarot-Kontamination bei der Verwendung von ND-Filtern auf Farben aus?

A

Wenn ein ND-Filter mit etwa (ND-0.9 –stärkerer Filter–) verwendet wird, kommt es zu einer höheren IR-Kontamitnation bei hoher Lichtintensität,, schwärzen wirken also eher rötlich. Ohne ND-Filter kommt es zu reinen Schwärzen, das heißt ein Farbechteres Bild ohne IR-Kontamination

221
Q

Was ist Spatiale Auflösung?

A

Gesamtzahl der Pixel in einem digitalen Bild

222
Q

Was ist die Resolution?

A

Pixel pro Längeneinheit (z.B. Sensorbreite)

223
Q

Was ist die Detailauflösung?

A

Feinheit der Detailübertragung einer Ortsauflösung (Frequenzen, z.B. Linienpaare)

224
Q

Was ist schärfe?

A

Detailwahrnehmung: Kombination aus spatialer Resolution und Kontrast (MTF) (-> kann sich auf unterschiedliche Parameter beziehen)

225
Q

Wie lässt sich Schärfe “berechnen”?

A

schärfe = Auflösung * Kontrast

226
Q

Was ist die MTF?

A

Die Modulation Transfer Frequency (Kontrastübertragungsfunktion)

227
Q

Wie kann man die MTF per Kontrastmessung herausfinden?

A

Die ermittlung der MTF kann mit dem Vegleich von der Vorlage zur reproduktion kommen.
-> Durchschnittlicher, nicht sehr hoch empfindlicher Negativfilm erreicht bei 120lp/mm noch einen MTF-Wert von 50%

228
Q

Für was ist MTF da?

A

MTF dient zur Klassifizierung einzelner Teile in der Bildverabreitung.

229
Q

Wie kann man alle Teiler eines MTF-System zusammenrechnen?

A

druch Multiplikation zählen alle teile zu einer Gesamt-MTF (System)

230
Q

WIe lässt sich MTF berechnen?

A

Resolution + Kontrast = MTF

231
Q

Was ist für unseren Schärfeeindruck wichtig?

A

Mehr Kontrast erhöht den Schärfeeindruck.

232
Q

Was muss bei der Kaskadierung von MTF beim digitalen Workflow alles mit einbezogen werden?

A

-> Eine sehr gute Linse liefert etwa einen MTF von 60%
-> 4:2:2 sampling liefert etwa eine 75% MTF
-> Ein recorder kann etwa 99% MTF wiedergeben
-> eine sehr gute HD-Projektion liefert etwa einen MTF von 60%.
———–
Es resuliert also:
60% * 75% * 99 % * 60% = 27%

233
Q

Was sind spatiale Interferenzen?

A

Dies geschieht z.B. wenn ein Muster von einem Sensorraster übertragen und aufgenommen wird.

234
Q

Was muss ein Sensor erfüllen, um die spatiale Frequenz vollständig aubbilden zu können?

A

um die spatiale Frequenz vollständig abbilden zu können, muss die Anzahl der horizontalen Fotozellen doppelt so hoch sein, wie die Linien der Bildvorlage. (Abtasttheorem)

235
Q

Was geschieht, wenn die spatiale Frequenz der Bildvorlage zu hoch für den Sensor wird?

A
  • > Wied die Frequenz der Vorlage (Linienpaare) zu hoch, können feine Details nicht mehr differenziert werden.
  • > Interferenzen (Wellenmuster) entstehen Artefakte: Spatiales Aliasing
  • > Wiedergabe teils als graue Flächen
  • > kreiert eigene Muster, da die Ortsauflösung die native Sensorauflösung (resolution) übersteigt
236
Q

Was bringt das gezielte Verunschärfen gegen spatiales Aliasing (Moiré)?

A
  • > Elektronische oder optische FIlter unterdrücken Frequenzen über dem Nyquist Limit
  • > Nyquist Limit: Weniger als zwei Abtastungen (Fotozellen) pro Linienpaar
237
Q

Was macht der Tiefpassfilter gegen spatiales Aliasing?

A

-> Optical Low Pass Folter (OLPF)
-> Tiefpassfilter, um einfallende Lichtpunkte (leicht) zu verunschärfen:
–> Licht wird polarisiert und um einen Bildpunkt vertikal verschoben
–> Licht wird wieder entpolarisiert und horizontal geteilt (Phasenplättchen)
–> Licht wird erneut in horizontaler Richtung polarisiert
…..
Das Einfallende licht wird auf diese Weise präzise und um einen Pixel in die horizontale und vertikale Richtung gespreizt. -> mikroskopischer Verunschärfungsfilter (Interferenzfilter)
—————————
Die resultierende gezielte Unschärfe beseitigt den Moiré-Effekt
—————————-
-> Ansatz, der auf Kosten der Auflösung (Detailwiedergabe) geht
-> reduziert Schärfe des Bildes
-> küstliche Kantenschärfung erforderlich.

238
Q

Was ist das besondere an den RED “OLPF”?

A

RED bietet auswechselbare OLPFs an.

-> Sind aber Fehleranfällig und aufwändig

239
Q

Was machen OLPFs?

A

OLPFs (optical Low Pass Filter) können Moireés reduzieren und einen angenehmen Look erzeugen

240
Q

Was kann der Einsatz eines falschen OLPFs herorbringen?

A

OLPFs können bei falschen Einsatz zu deutlich unscharfen Bildern führen.

241
Q

Wie kann Datenredutkion bei der Sensorauslesung herbeigeführt werden?

A

Pixelskipping und Center Crop

242
Q

Was ist Pixelskipping?

A

Da beim Fotobetrieb 18MP -> zu groß für Videoanwendungen ist, muss eine Datenreduktion erfolgen. Die Fläche des SLS soll zugunsten der Optik ausgenutzt werden (DOF)
-> Pixelskipping bei der Auslesung
-> Probleme mit Aliasing (Tiefpassfilter unpassend für HD-Auswertung)
——————
Bsp.:
-> 18MP (5184 x 3456 nativ) wird reduziert zu
-> 8 bit, sRGB / Adobe RGB
-> 1920 x 1080 (H.264, MOV)

243
Q

Was ist Center Crop?

A
  • > Auch Windowing genannt.
  • > Für die Verminderung der Auflösung wird die ausgelesene Sensorfläche reduziert (z.B Red Kameras)
  • > anschließendes Resizing in der Postproduktion: Qualität im ergebnis?
  • > optische Konsequenzen (“Brennweite”, Schärfentiefe, Vignettierung, MTF)
244
Q

Weshalb kommt es zur Datenreduktion bei der Sensorauslesung und was für Verfahren gibt es?

A
  • > Problem: Datenreduktion als Notwendigkeit (z.B. für Highspeed Aufnahmen)
  • > Unterschiedliche Verfahren in der Auslesung bei abweichung von der nativen spatialen Auflösung von Sensoren Möglich:
  • -> Windowing (“Cropping”)
  • -> Pixelskipping (oder Lineskipping)
  • -> Resizing, Resampling
245
Q

Wie verhält sich die Datenreduktion beim Beispiel von 4K?

A

Aufnahme mit nativer Sensorauflösung 4K für:

  • > 2K Delivery: Verwendung aller Bildpunkte (4K -> 2K Debayer), Resampling in der Postproduktion ==> Sehr gut!
  • > 2K Delivery: Pixelskipping bei Aufnahme (Datenreduktion), gleiche Sensorfläche, weniger Auflösung ==> oft starkes Aliasing (OLPF?)
  • > 2K Delivery: Cropping (Datenreduktion, z.B. bei HFR), kleinere Sensorfläche, weniger Auflösung; Resizing in der Postproduktion auf Zielauflösung ==> Aliasing, Optische Veränderung
246
Q

Was ist Resampling?

A

-> mathematische Methode digitale Bilder in andere Größen von Pixelrastern zu übertragen
-> Veränderung der Farb- und Bittiefe, Übertragung in anderen Farbraum
–> Downsampling: Reduzierung der Pixelzahl oder Bittiefe (Verlustbehaftet)
–> Upsampling: Vergrößern eines Bildes (Pixelzahl); z.B. Ausschnittsvergrößerungen
————-
==> Für Resamplings möglichst keine krummen Bruchzahlen als Faktor verwenden!

247
Q

Was passiert mit der Farbtiefe und der spatialen Auflösung beim resampling?

A

Farbtiefe und Spatiale Auflösung können niemals durch resampling aufgewertet werden.

  • > z.B. kann aus einem 4:2:2 Abtastung wieder per Resampling ein 4:4:4 Signal verwendet werden, aber die Fehlende Farbinformation kann nur mathematisch interpoliert werden, niemals ergänz werden.
  • > 2K kann zu 4K upgesampelt werden, aber weist Qualitätseinbußen auf
248
Q

Was sind spatiale Auflösungsformate im TV und Film? Insbesondere 4K?

A

TV: UHDTV (“4K”) -> 3840 x 2160
Film: (“4K”) -> 4096 x 2304

249
Q

Wie viel Größer ist 4K als 2K? Und 8K als 4K?

A

4K ist 4 mal größer als 2K

8K ist 4 mal größer als 4K

250
Q

Was für Qualitäts-Standards bestimmt DCI?

A
  • > Digital Source Master (DSM)

- > bezeichnet das Quellmaterial, z.B. Online-Master, noch wenig spezifiziert.

251
Q

Für was sind Standardisierte Werte durch DCI?

A
  1. Postproduktion: Digital Cinema Distribution Master (DCDM)
    -> Übernimmt die Funktion eines Integrativs, Ausgangsmaterial (Master) für alle weiteren Distributionsformate (DCP, HD-File, Filmout, …)
    -> legt wesentliche Parameter fest, bietet genaue Spezifiziering (international relevant)
    …..
  2. Auslieferung: Digital Cinema Package (DCP=
    -> Distributions-File für digitale Kinoprojektion
    …..
  3. Wiedergabe: DCI Compliant Projektion
    -> technische Parameter für digitale Kinoprojektion
252
Q

Was macht DCDM?

A
  • > Digital Cinema Distribution Master übernimmt die Funktion eines Internegativs: Ausgansmaterial (Master) für alle weiteren Deliverables (-> ACES)
  • > legt wesentliche Parameter fest, bietet genaue Spezifizierung, international relevant
253
Q

Was sind die DCDM-Parameter nach DCI-Spezifikation?

A
Auflösung: 
-> 2K: 1998x1080 (1:1,85 "flat") oder 2048x858 ("Scope")*
-> 4K: 3996x2160 (1:1,85 "flat") oder 4096x1716 ("Scope)*
--------------------
Aspect Ratio:
1: 1,85 "flat" oder 1:2,39 "Scope"*
---------------------
Pixel:
1:1
----------------------
Bildfrequenz:
24Hz, 48Hz
-----------------------
Farbraum:
XYZ
----------------------
Weißpunkt: 
6500K ("D65")
--------------------
Gamma:
2,6
-------------------
Kodierung:
12 Bit
.......................
*= keine anamorphotisch-optische Kompression
254
Q

Was ist das Digital Cinema Package (DCP) des DCI Qualtitäts-Standards?

A
  • > digitale Filmkopie in der Bild- und Tondaten in einem speziellen Datenformat vorleigen
  • > Fileformat: MXF (“Material-eXchange-Format”)
  • -> Die kompromierten Video (-JPEG 2000) und Tondaten werden in einem “Digital Cinema Package” (DCP) in MXF-Files “verpackt”.
  • -> nicht propreität, somit offen für jedermann
  • -> mit XML-kodierten Inhaltsverzeichnissen
  • > maximale Datenrate 250 MBit/s
  • > 24 und 48 B/s (fps) bei 2K, (4K nur bei 24Hz)
  • > (25 B/s werden für Europa eingearbeitet…)
  • > Erweiterungen Datenrate dringend erforderlich: 4K, HFR 120 fps
255
Q

Wann ist eine Projektion “DCI-Compliant”?

A
Parameter:
....
Auflösung: 
2K mit 2048x1080 Pixels oder 4K mit 4096x2160 Pixels
....
Leuchtdichte:
48 cd/m^2
.....
Weißpunkt:
x = 3,14; y = 3,51
.....
Gamut minimal:
Rot: x=0,680; y=0,329 ;; Grün: x=0,265; y = 0,690 ;; Blau: x=0,150, y=0,060
.....
Kontrast:
sequentiell: min. 2000:1, intraframe min. 150:1
......
Gamma:
2,6
.....
Audio:
Bis zu 16 Kanälen
256
Q

Was gibt es für historische Filmformate?

A

Die wichtigsten Bildformate für 35mm (projektion):

  • > Academy = 1:1,37
  • > Amerikanisches Breitwandformat = 1:1,85
  • > Cinema Scope (anamorph) (1:1,18 Aufnahme): Projektion:
    1: 2,4 (analog) oder 1:2,39 (digital)
  • > VistaVision = 1:1,49 (sehr ähnlich “Full Frame” (FF)
257
Q

Was ist Academy?

A
  • > 1,37 : 1
  • > entspricht dem später danach bestimmten 4:3 - Format, wie es in der Fernsehindustrie bezeichnet wird (mit Platz für Lichtton)
  • > 1,33 : 1
  • > war das Format der Stummfilme, auch bei Normal- 16mm und 8mm (auch als “Open Gate” bezeichnet, ohne Platz für Lichtton) spielt in der heutigen Filmindustrie kaum noch eine Rolle, nur für Plates
258
Q

Was ist das Amerikanische Breitwanformat?

A

1,85 : 1

  • > international wichtiges Format, das in die digitale Kinematographie übernommen wurde
  • > sehr verbreitetes Aufnahme- und Projektionsformat ursrünglich aus den USA
259
Q

Was ist Cinema Scope?

A

2,40 : 1 (analog)
2,39 : 1 (digital)
-> das zweite heite international wichtige Projektionsformat (analog, digital)
-> zum Teil mit anamorphotischen Objektiven aufgezeichnet und projiziert (anamorphotische Projektion nur analog)
-> au dem früheren Original Cinema Scope (2,35 : 1, analog) entwickelt
-> digital: 2,39 : 1 (“Flat” = CS-Aspect Ratio ohne anamorphotische Einzerrung)

260
Q

Was gibt es in Europa noch für Filmformate?

A

Ein weit verbreitetes Format in Europa war 1,66 : 1, dem nativen Bildseitenverhältnis von Super-16mm. Es ist entstanden, da z.B. Low-Budget-Filme, die S-16 gedreht wurden, für eine Kinpauswertung direkt auf 35mm kopiert wurden (“Blow-Up”). Das Format 1,66 : 1 ist sehr ähnlich dem in der Fernsehwelt verwendeten Standardformat von HDTV (-> heute kein Standard-Projektionsformat für digitales Kino mehr)

261
Q

Wie ist der TV- Standard im der “Film-Sprache”?

A

1,78 : 1 = 16 : 9

-> kein Standard Projektrionsformat für digitales Kino!

262
Q

Was sind die momentan zwei einzigen zugelassenen Bildformate nach der DCI-Norm?

A

-> 1,89 : 1
-> 2,39 : 1
—————————
—————————
Auflösungen:
-> 2K mit 1998 x 1080 Pixel oder 2048 x 858 Pixel (Scope)
-> 4K mit 3996 x 2160 Pixel oder 4096 x 1706 Pixel (Scope)
——————————
Aspect Ratio:
1,85 : 1 oder 2,39 : 1
—————————
Bildfrequenz:
24Hz oder 48Hz
————————
Farbraum:
XYZ
—————————
Weißpunkt:
6500K
—————————
Gamma:
2,6
—————————
Codierung:
12 Bit

263
Q

Was heißt DCI?

A

Digital Cinema Initatives

264
Q

Was ist das Standard Filmformat für die Aufnahme und Projektion?

A
  • > 4-perf Normal-35mm
  • > Aus diesem Format können verschiedene Bildformate “ausgeschnitten” werden.
  • > Bsp.: 1,37 : 1 (4x3) der 1,85 : 1 oder 1,66 : 1 der 1,78 : 1 (16x9)
265
Q

Was ist ein Anamorphotisches “Cinema - Scope”? (Oder auch das 2:1?)

A
  • > Prinzip: Anamorphitische Kompression durch optische Stauchung
  • > Das “Breitbild” wird sozusagen auf das kleinere bzw. schmälere Format des Films, der belichtet wird, gestaucht und bei der Projektion quasi wirder zu dem Breitbild “aufgefächert”.
  • > Abbildung wird nur in der Horizontalen bei der Aufzeichung (Faktor 2:1, also 1 : 2,39) und der anschließenden Entzerrung in der Projektion (2:1) ebenfalls durch einen anamorphotischen VOrsatz (zylinderförmiges Linsenelement) entzerrt.
  • > Bildseitenverhältnisse, bei denen dieses Verfahren zum einsatz kommt: 1:2,35 / 1: 2,40 (Lichttonwiedergabe) oder 1:2,55 (Magnettonwiedergabe) oder 1:2,39 (Digitale Cinema)
266
Q

Welche Formate können aus einem Super-35-Film entnommen werden?

A
  • > 2,40 : 1 (das am meisten Verwendete)
  • > 1,85 : 1
  • > 1,78 : 1 (16:9)
267
Q

Nenne Beispiele für Film- und Fernsehformate.

A
  • > Film: 1,37 : 1 / 1,85 : 1 / 2,39 : 1

- > Fernsehen: 1,78 : 1 / 1,33 : 1 / 1,85 : 1 / 2,35 : 1

268
Q

Nenne Filmformate für 16:9 - Geräte.

A
  • > Für die Ausstrahlung vom Film im 16 : 9 - Format.
  • > 1 : 1,78 (Vollbild)
  • > 1 : 1,33 (Pillarbox)
  • > 1 : 1,85 (Letterbox)
  • > 1 : 2,35 (Letterbox)
269
Q

Nenne Auslesemodi für Kamerasensoren.

A
  • > 16:9 (2,8K)
  • > 16:9 (3,2K)
  • > 6:5 (4:3 Cropped / oder 1 : 1,195) -> für anamorphotische Cinema-Scope Optiken (2,39 : 2 = 6:5) (SXT)
  • > 4:3 (mit VFX - Marks oder repositioning) (-> 1 : 1,85) -> 4:3-Sensor Modus: Ausgabe in 1:1,85
270
Q

Was ist “Open Gate” bei der Aufzeichnung von ARRI Alexa?

A

Der 4:3- Sensor kann verschiedene Bildformate aufnehmen, das Format wird digital bestimmt.

271
Q

Wie verhält sich die Hochskalierung auf 4K / UHD bei “Open Gate” von der ARRI Alexa?

A
  • > Sensor Mode: 16:9
  • > Recording Format: ProRes 4K UHD
  • > Photosites on Sensor: 3200 x 1800
  • > Up-sample Factor: 1,2
  • > Pixels in Recording Format: 3840 x 2160
  • > Distribution Format: 4K UHD TV
  • > Pixels in Distribution Format: 3840 x 2160
  • > Notes: ALEXA SXT, ALEXA Mini, AMIRA
  • > Sensor Mode: Open Gate
  • > Recording Format: ProRes 4K Cine
  • > Photosites on Sensor: 3414 x 2198
  • > Up-sample Factor: 1,2
  • > Pixels in Recording Format: 4069 x 2636
  • > Distribution Format: 4K DCI
  • > Pixels in Distribution Format: 4096 x 2160
  • > Notes: ALEXA SXT
272
Q

Was bringt ein 3-pref Film?

A

Weniger groß -> 25% ökonomischer, muss aber entzerrt werden

273
Q

Was ist ein 2-perf Film?

A

Weniger groß -> 50% ökonimischer, muss sehr entzerrt werden.

274
Q

Was sind allgemeine Qualitätskriterien für Film- und Fotooptiken?

A
  • > befriedigende Schärfeleistung (Detailwiedergabe, Formatbezogen, …)
  • > großes Kontrastübertragungsvermögen (MTF)
  • > Gutes Streulichtverhalten (Oberflächenvergütung der Linsen)
  • > Geringe geometrische Verzeichnungen (perspektivisch richtige Abbildungen)
  • > Hohe Lichtstärke (kleine Blenden-Zahl)
  • > geringe Naheinstellgrenze
  • > Möglichst geringe Abbildungsfehler (Chromatische oder Sphärische Aberrationen, Randunschärfen, …)
  • > gleichmäßige Ausleuchtung der Bildfläche (kein Randabfall / Vignettierung)
  • > Großer Brennweitenbereich, bei Zoom-Optiken / Festbrennweiten
  • > Bokeh, Wiedergabe der Unscharfen Bereiche
275
Q

Was sind spezielle Anforderungen für Bewegtbildaufnahmen?

A
  • > stufenlos verstellbare Irisblende (für Blendenzüge bei der Aufnahme)
  • > lange mechanische Umsetzung des Fokusgetriebes für Präzises Schärfeziehen
  • > Zahnkränze für den Betrieb mit Schärfezieheinrichtungen
  • > Bildruhe beim Umfokussieren
  • > “Innenfokussierung” (eine mechanische Längenveränderung beim Fokussieren)
  • > Farbneutralität, gute Farbkorrektur (Konstanz innerhalb eines Satzes)
  • > Zooms mit durchgägnig konstantem Blendenwert für Zoomfahrten
  • > gleichmäßige Formatausleichtung für Standards
  • > gleiche Baugrößen innerhalb eines Satzes, Frontdurchmesser
  • > kompakte Bauweise, geringes Gewicht
  • > ähnlicher “Fokusweg” innerhalb eines Objektsatzes
  • > leichte “Laufeigenschaften” von Fikus und Blende
  • > Cine-Mount
  • > Schnittstelle für Metadaten
276
Q

Was gibt es für Arten von Cine-Optiken?

A
  • > Festbrennweiten: (“Primes”), meist beste optische Leistungen
  • > Zoom-Objektive: (“Transfokator”), mit veränderbaren Brennweiten
  • > Lichtstärke: (“Speed”) z.B. “High-Speed” lichtstärker als f=2,0; oder “Standard” mit Lichtstärke ab f=2,1 aufwärts
  • > Formatbedingt nach Boldfeldgrößen (z.B. S-35mm, S-16mm, (APS-C, MTF, …))
  • > Objektivfassungen: (“Mounts”): PL-Mount, ARRI, MTF
  • > Spezialoptiken: Macro, Anamorphen, Schnorchel, …
277
Q

Was für Arten der Brennweiten gibt es bei den Cine-Optiken?

A
  • > Normalbrennweiten
  • > Lange Brennweiten, Tele-Objektive
  • > Kurze Brennweiten, Weitwinkel-Objektive
278
Q

Was für Auswirkungen haben unterschieldiche Brenweiten?

A

Proportionen der Objekte im Bildraum ändern sich.

279
Q

Wie verhält isch die proportionale Staffelung durch Anwendung unterschiedlicher Brennweiten?

A

Die unterschiedliche Charakterisitik der Brennweiten verändert die Proportionen der Objekte im Raum zueinander und stellt damit ein wesentliches Instrumentarium der Bildgestaltung dar.

  • > kurze (Vorne viel größer als hinten)
  • > mittlere (normale Proportionen)
  • > lange (Vorne ähnlich groß wie Hinten)
280
Q

Was ist die Normalbrennweite?

A
  • > stellt für die Bildgestaltung auf die Nähe-Distanz-Wahrnehmung (und Darstellung) die “optische Mitte” dar (Normale Abbildung)
  • > erntspricht etwa dem menschlichen Blickfeld bei “beidäugigem Sehen mit konzentrierter BEtrachtung”
  • > vertikale Bildwinkel von ca. 30°, horizontal 50°
281
Q

Wie unterscheiden sich Normalbrennweiten?

A

Normalbrennweiten sind Formatbedingt unterschiedlich.

282
Q

Was ist die Faustregel um die Normalbrennweite herraus zu bekommen?

A

Faustregel: Die Bilddiagonale eines Bildformats entspricht grob der dazu gehörigen Normalbrennweite

283
Q

Was sind Tele-Objektive?

A
  • > Vergrößerung der Objekte
  • > mit zunehmender Länge der Brennweite weniger Schärfentiefe (Objektseitig)
  • > können Objekte im Raum gut durch Schärfestaffelung freistellen
  • > erlauben selektive Schärfe bzw. selektive Unschärfe(-verlagerungen)
  • > haben eine “verflachende” Ästhetik des Raumes (Kompression des Raums)
284
Q

Was für Brennweiten haben Teleobjektive?

A

Lange Brennweiten

285
Q

Was für Brennweiten haben Weitwinkelobjektive?

A

Kurze BRennweiten

286
Q

Was sind Weitwinkelobjektive?

A
  • > Verkelinerung der Objekte in der Bildtiefe
  • > Räumlichkeit betonende Ästhetik
  • > hohe Randdynamik, z.B. bei Bewegungen der Kamera(-Fahrten!)
  • > haben objektseitig mit abnehmender Länge der Brennweite immer mehr Schärfentiefe
  • > Besonders kritisch beim Auflagemaß (Flangeback)
  • > Zunahme von optisch-Geometrischen Verzerrungen bei abnehmender Länge der BRennweite
  • > Effekt wird bei Auf- und Untersichtigen Perspektiven verstärkt (-> stürzende Linien)
287
Q

Wie verändert die Schärfentiefe die Zerstreunungskreise?

A
  • > Ist die Schärfentiefe zu weit in der ferne, kommt es aufgrund der Brechung der Linse in der Filmebene zu einem unscharfen Punkt. Insbesondere passiert dies, wenn der Punkt noch weiter aus der Blickachse entfernt ist.
  • > Ist sie genau richtig und zusätzlich in der Mitte der Blickachse, findet der Fokuspunk (Brennpunkt) sich direkt auf der Filmebene.
  • > Ist die Schärfeebene zu nah, brechen die Strahlen zu spät und der Fokuspunkt lieg hinter der Filmebene. Teilweise ist das immer noch tolerierbar, da der Kreis immer noch “scharf” wirkt.
288
Q

Was für einen Einfluss hat die Blende auf die Schärfentiefe?

A
  • > Eine große Blendenöffnung führt zu einen großen Zerstreunungskreis: Viel unschärfe
  • > Eine kleine Blendenöffnung fürht zu einem kleinen Zerstreuungskreis, und daher zu einer kleineren Tiefenschärfe.
289
Q

Was für einen einfluss hat die Brennweite auf die Schärfentiefe?

A
  • > Lange Brennweiten: Schärfeebenen liegen weit auseinander

- > kurze Brennweiten: Schärfebenen liegen nah beieinander.

290
Q

Wo kann man Schärfentiefen nachschauen?

A

In einer Schärfentiefetabelle.

291
Q

Was gibt es für Bildkreis- und Sensorgrößen?

A
  • > Super 35mm
  • > 4/3”
  • > 2/3”
  • > 1/2”
292
Q

Was für ein Bildfeld wird in der Kamera verwendet?

A
  • > Single Large Sensor (SLS) als Bedarf des Marktes (Filmlook)
  • > geringe Schärfentiefe als Gestaltungsmittel
  • > Sensorgröße ähnlich Super-35
  • > Verwendung von Cine-Objektiven (PL-Mount) mit deren Vorteilen (mechanisch und Temperatur-Stabilität)
293
Q

Wie unterscheiden sich Film/Video und Sensorgrößen?

A
Film:
-> Vistavision
-> 3 Perf Super 35
--------------------
Sensor:
-> Digital Full Frae 
-> Digital Super 35
-> Digtal APS-C
294
Q

Wo gibt es ähnlichkeiten zwischen analogen Filmformaten und Digitalen Sensorgrößen?

A
  • > S-35mm und APS-C

- > KB und Vista Vision

295
Q

Was ist bei der Verwendung von Cine-Objektiven zu beachten, insebsondere bei älteren und bei der Verwendung verschiedener Sensorgrößen?

A
  • > Ältere Objektive (30+ Jahre) leuchten oft nur einen Bildkreis 27mm Durchmesser aus (N-35)
  • > neuere Serien einen Bildkreis von 31,3mm (Super-35)
  • > Der Durchmesser des Bildkreises muss größer sein als die Bilddiagonale eines Sensors, wenn keine Vignettierung entstehen soll
296
Q

Was ist bei der Verwendung von Full-Frame und S-35-Optiken zu beachten?

A

-> Bildkreis von Optiken für S-35mm füllen z.B. das Format “Kleinbild” (KB-Foto, “Full-Frame”, VistaVision) nicht mehr aus!

297
Q

Was ist der “Crop-Faktor”?

A
  • > Brennweitenverlängerungsfaktor
  • > Brennweiten können über den Formfaktor für verschiedene Formate angegeben werden
  • > Der Umrechnungsfaktor von APS-C Sensoren zu 35mm-Kleinbild ist z.B. 1,6
  • > Sensoren in APS-C-Größe haben annähern die gleiche Fläche wie Super-35mm-Film und damit ein relativ ähnliches Schärfentiefefeld sowie Bildwinkel
298
Q

Was ist die Lichtstärke?

A

Lichtstärke eines Objektives (“Offenste Blende”, Angabe als f-stop, theoreischer Wert)

  • > Je größer die Öffnung (Durchtrittsöffnung) eines Objektives, um so größer ist seine Lichtstärke
  • > Die Lichtstärke (“offenste Blende”) einer Optik wird von der Größe der Durchtrittsöffnung und der Brennweite bestimmt (in f-Stop angegeben)
  • > f-Stops bezeichnun den theoretischen Wert einer Blendenöffnung
  • > Quoptient aus maximal möglichen Durchmesser der Eintrittspupille und Brennweite
299
Q

Was berechnen T-Stops?

A

“T-Stops” bezeichnen das tatsächlich transmittierte Licht iner Optik

300
Q

Wie kann man f-Stops berechnen?

A

Bsp.:
-> 50mm : 25mm = f2

301
Q

Was für Arten von Verzeichnungsfehlern (Distortions) gibt es?

A
  • > kissenförmige Verzeichnung
  • > verzeichnungsfreie Abbildung
  • > tonnenförmige Verzeichnung
302
Q

Was ist die sphärische Aberration?

A

Lichtstrahlen am Rand der Linse werden unterschiedlich stark gebrchen und daher kommt es zu unschärfen

303
Q

Wie kann man die Spärische Aberration beheben?

A

Achromaten lassen sie entstehen und Apochromate beheben sie

304
Q

Wie kommt es zur sphärischen Aberration?

A
  • > konstruktiv bedingt besonders kritisch an Linsenrändern

- > können teilweise durch Abblenden der Optik (Irisblende) eingedämmt werden

305
Q

Was sind Chromatische Aberrationen?

A
  • > Strahlen unterschiedlicher Wellenlängen (Farben) werden verschieden stark gebrochen.
  • > Farbspreizung (Dispersion), besonders an Kontrastkanten sichtbar
  • > konstruktiv bedingt besonders kritisch an Linsenrändern
  • > können teilweise durch Abblenden (Irisblende) eingedämmt werden.
306
Q

Kann man die Qualität der Linsen mithilfe der MTF erkennen?

A

-> MTF zeigt die Verschlechterung der Abbildungsqualität an den Linsenrändern?

307
Q

Wie kann man die MTF bzw. die Abbildungsqualität verbessern?

A

-> nutzt man z.B. nur die Mitte des Bildkreises einer Optik (Filetstück) erzelt man meist die beste MTF
-> Verteil bei der Verwendung kleinerer Formate (Cropping)
(Ästhetische Veränderung von Brennweiten)

308
Q

Was sind Beugungserscheinungen?

A
  • > Beugung ist die Ablenkung von (Licht-) Wellen bei einem Hindernis
  • > Durch Beugung kann sich eine Welle in den Raumbereichen ausbreiten, die auf rein geradem Weg durch ein Hindernis versperrt wären
  • > Wenn der Lochdurchmesser deutlich kleiner ist als die Wellenlänge, entstehen dahinter Kugelwellen?
309
Q

Was passiert mit Beugungserscheinungen bei der Kamera?

A
  • > Bei Licht ist die Beugung einer Faktor, der das Auflösungsvermögen Kamera-Objektiven begrenzt
  • > Wird die Blendenöffnung zu klein gewählt, entstehen sichtbare Beugungserscheinungen (Verunschärfungen)
  • > Formatabhängig: je größer das Format, desto größer der Effekt
  • > bei 35mm-Format etwa ab Blende 11
310
Q

Wo liegt der optimale Blendenbereich, wo man Abbildungsfehler vermeiden kann?

A
  • > optimale Blende liegt bei Cineobjektiven meist zwischen Blende 2,8 und 5,6++
  • > kann sehr unterschiedlich nach Objektiven ausfallen
  • > Chromat: Aberrationen können z.T. bei günstigeren Linsen weg gerechnet werden
311
Q

Was ist die Arbeitsblende bei S-35mm?

A

-> Arbeitsblende, präferiert bei S-35mm

312
Q

Was bringen asphärische Linsen?

A
  • > vermindern Abbildungsfehler an den kritischen Linsenrändern: Sphärische Aberration, Chromatische Aberration
  • > rotationssymetrisch, aber keine Ausschnitte von Kugeloberflächen
  • > durch Einsatz asphärischer Flächen ca. 2-3 sphärische Linsen ersetzt werden
  • > Nachteil: Kostenintensive Herstellung
313
Q

Was ist die optimale Blende bei asphärischen Cine-Objektiven?

A

Die optimale Blende liegt etwa bei 1,4 - 8.
-> optimale Blende beim Highend-Objektivserien mit asphärischen Flächen, optimiert auf die Verwendung mit offener Blende.

314
Q

Zu was für Bildfehler kann es bei Objektiven ohne Oberflächenvergütung kommen?

A
  • > Streulicht (“Veiling Glare”)

- > Lens - Flare

315
Q

Was ist Oberflächenvergütung und was bringt sie?

A
  • > Bei einer realen Linse wird ein Teil des Lichtes an der Oberfläche reflektiert.
  • > Durch die Oberflächenvergütung kann dieser Effekt minimiert werden (Aufgedampfte Partikel, mechanisch sehr sensibel)
  • > “Multilayercoating” (Antireflexbeschichtungen) bis über 70 Schichten:
  • -> Unterdrückung von Reflexen optischer Oberflächen (Linsen, Objektiven, Prismen, Platten), Erhöhung der Transmission Oberflächenvergütungen bewirken eine Entspiegelung der Oberflächen. Durch die Verminderung von Streulicht auf optischen Systemen wird für eine gute Kontrastwiedergabe gesorgt.
316
Q

Was gibt es für international gängige Cine-Lensmounts? (Objektivfassungen)

A
  • > PL-Mount: (52mm) “Positive Locking”, meist verbreitet für Cineobjektive
  • > B4-Mount: z.B. HD-Kameras mit 2/3”-Chips
  • > C-Mount: Schraubgewinde, sehr kleine Bauweise
317
Q

Was gibt es für Foto-Mounts für Video?

A
  • > EF-Mount (Canon)
  • > F-Mount (Nikon)
  • > Four-Thirds (Leica, Panasonic)
  • > E-Mount (Sony)
  • > X-Mount (Fujifilm)
318
Q

Was ist das Auflagemaß? (Flangeback)

A

Trotz der Verwendung der gleichen Fassungen (PL-Mount) bei 16 und 35mm - Kameras können z.B. 16mm-Objektive oder Optimo “Rouge” wegen der größeren Baulänge ab der Mount-Auflage an der Kamera (“größere Schnittweite”) nicht an 35mm- Kameras angesetzt werden, da diese sonst z.B. den Umlaufspiegel beschädigen würden.

319
Q

Was macht ein 4K-taugliches Objektiv für das Bewegtbild aus?

A

-> müssen Auflösung von 4K- unterstützen (4K-Projektion) (4K-Linienauflösung, MTF)
-> meist Single Large Sensor (SLS) tauglich (Super-35mm-Bildfenster => Fotoobjektive bieten sich z.T. an
-> meist PL-Mount gefasst (Auch EF-Mount, E-Mount) => Achtung: Alte Objektive leuchten ift nur Bildkreis von 27mm Durchmesser aus, neuere einen Bildkreis von 31,3mm (S-35)
-> viele moderne Digital-Objektivserien (ca. 10 Jahre) gelten als 4K-tauglich:
=> Vergütung (MTF)
=> Telezentrische Bauweise (Shading, Farbübersprehungen)
=> Bildqualität bei offener Blende bis zu Bildrändern optimal?
-> bei welchen Blendeneinstellungen werden 4K-taugliche MTF-Werte erreicht?

320
Q

Was ist ein Telezentrisches Design für den Einsatz an Sensoren?

A

Anwendung bei:
-> Videoobjektiven für CCDs
-> Filmoptiken für Sensoren
-> Pixel Crosstalk, Vignettierung, Shading werden bisschen minimiert

321
Q

Was sind Anamorphotische Objektive?

A
  • > Horizontal deoppelt verkürzte Brennweite, als vertikal
  • > Auflösungsgewinn für Breitwandbilder zu “Analogzeiten” (4:3)
  • > Heute: Look-Eigenschaften
322
Q

Was ist der Standard-Faktor bei Anamorphotischen Objektiven?

A

2:1

323
Q

Was sind ND-Filter?

A

Auch Graufilter, oder Neutraldichte-Filter:

  • > in log10 Schritten (ganze Blendenstufen)
  • > “Variable”-ND-Filter stufenlos einsetzbar (z.T. in Kameras hinter der Optik, vor dem Sensor eingebaut) (Besonders wichtig, wenn Fotooptiken ohne stufenlose Irisblende zu Einsatz kommen)
  • > ND-Filter mit Infrarotsperrung (IRNDx) (oder Farbkonversionen) sind als Kombinationen erhältlich
324
Q

Was sind Pol-Filter?

A
  • > Polarisation (zirkular, linear, warm) => Vorsicht bei Schwenks mit nicht-telezentrischen Objektiven: Shading-Probleme; Lichtverlus ca. 2 Blenden
  • > zirkulare Pol-Filter verursachen keine Shadingprobleme bei digitalen Kameras
  • > zwei Polfilter können in Kombination wie ein Stufenloser ND-Filter verwendet werden und das Licht schließlich komplett sperren (Variable-ND: Sony)
325
Q

In was für Bauweisen gibt es Pol-Filter?

A

linear und zirkular

326
Q

Was gibt es für Optische Filter?

A

Kontrast- und Effektfilter

327
Q

Was bewirken Kontrast- und Effektfilter?

A
  • > Schärfen- und Kontrastveränderungen (Verteilen Licht in Lichtern oder Schatten um…) Low-Contrast-Filter, Soft-Contrast, Pro-Mist, Fog, … => Vorsicht bei Einstrahlungen: starke Kontrast einbußen
  • > Farbveränderungen (Farbkonversionsfilter, Sky, Haze, Sepia-Filter, …)
  • > Effekte (Star-Effekte, etc., …)
  • > Vorsatzlinsen (Prismenvorsätze, Vorsatzlinsen)
  • > Verläufe, Schärfeverlagerungen (Verlaufsfilter, Splitfeld-Vorsatzlinsen, …)