Filmtechnik (6FP) Flashcards
Bei welcher Bildwechselfrequenz kommt es zur Bewegungsverschmelzung für das menschliche Auge?
Ab etwa 16-18 Einzelbildern pro Sekunde kommt es zu einer Bewegungsverschmelzung.
Was ist der “Stroboskopische Effekt” und wie hängt er mit der Bewegungsverschmelzung zusammen?
Der Effekt beschreibt die Nachbildwirkung, das heißt für die Bewegungsverschmelzung ist es wichtig, dass die Bilder ähnlich sind, da sonst keine Illusion von fließender Bewegung und Kontinuität entstehen kann.
Was ist die Flickerfrequenz?
Die Flickerfrequenz ist auf dem Bildschirm oder auch beo der Wiedergabe als Flickern zu erkennen, das heißt, dass es zwar zu einer Bewegungsverschmelzung kommt, das Auge aber immer noch einzelne Bilder erkennen kann.
Wie verhält sich die Flickerfrequenz Aufnahmeseitig?
- Ab ca.20-22 B/s Aufnahmefrequenz wird ein Flickern in der Projektion nicht mehr signifikant wahrgenommen (ABER: nur wenn die Bilder in einer höheren Frequenz wiedergegeben werden)
- Helle/weiße Fläche sind am kritischsten (->HDR)
Wie verhält sich die Flickerfrequenz bei der Wiedergabe/Projektion?
- Flimmerverschmelzungsfrequenz ist helligkeitsabhängig (22-90Hz)
- die critical flicker frequenzy (CFF) liegt im analog Kino bei etwa 40-50Hz
Seit wann sind die Internationalen Standard-Bildwechselfrequenzen in der analogen Kinoproduktion eingeführt worden?
1929, seit der Einführung des Tonfilmstandards (da die Synchronisation nun Maßgebend war) und ist bis heute gültig.
Was sind die Vorteile der Internationalen Standard-Bildwechselfrequenzen in der analogen Kinoproduktion?
Sie bietet einen guten Kompromiss zwischen Bewegungsauflösung, Kosten, Ästhetik und ist vor allem pragmatisch (z.B. bei internationaler zusammenarbeit)
Wie sind die Internationalen Standard-Bildwechselfrequenzen in der analogen Kinoproduktion bei der Aufnahme?
Bei der Aufnahme (“Aquisition”): 24 B/s = 24Hz
- > Dunkel- und Belichtungsphasen sind gleich lang
- > auch fps genannt
Wie sind die Internationalen Standard-Bildwechselfrequenzen in der analogen Kinoproduktion bei der Wiedergabe?
Bei der Wiedergabe (“Projektion”): 24B/s mit 48Hz
- > jedes Einzelbild wird 2x projiziert
- > Befriedigend geringer Flickereffekt
Wie lange gelten die Internationalen Standard-Bildwechselfrequenzen in der analogen Kinoproduktion Standards bereits?
90 Jahre, also beinahe 100 Jahre Kinogeschichte wurden geschrieben.
Mit welchem Bauteil funktioniert ein Mechanischer Shutter?
Mit einer Umlaufblende.
Welchen Faktor der Bildaufnahme bestimmt die Umlaufblende?
Die Belichtungszeit.
Weshalb kann man die Belichtungszeit bei einem mechanischen Shutter mit 180° Shutteröffnung nicht verlängern?
Bei einem so weit geöffnetem Shutter kommt es nur zu einer sehr kurzen Verdeckung des Bildfensters, in dem der Film transportiert werden kann. Wäre die Blende bzw. der Shutter größer, würde der Film konstant belichtet.
Wie verhält sich die Shutteröffnung bei den Standardwerten im Kino? Nenne die Standardwerte ebenfalls.
Bildrate: 24 B/s (Tonsynchron)
Bildwechselfrequenz: 24Hz
Belichtungszeit: 1/48s bei 180° Shutteröffnung
Was erzeugt die spezielle Ästhetik beim Kinofilm?
Die Standardwerte erzeugen die Ästhetik:
- > Hell- und Dunkelphase sind gleich lang
- > Auf und abschwellende Belichtung
Wie wird das Flickerproblem bei der Wiedergabe gelöst?
Wenn man bei der Aufnahme einen 180° Shutter verwendet, kommt es zu einer Belichtungsphase pro Bild, bei 24 B/s, 1/48S Belichtungszeit kommt es zu einer Bildfrequenz von 24Hz. Gibt man diese Bilder genau so wieder, erreicht man ebenfalls einen Frequenz von 24Hz, was zu einem Flickern führen kann. Ein Trick, wie man dem Problem vorbeugen kann, ist wenn man bei der Wiedergabe zwei Belichtungphasen pro Einzelbild vornimmt. Die Bildfrequenz wird dadurch auf 48Hz erhöht.
Wie nennt man den Shutter ud die Technologie, wenn man zwei Beichtungen pro Einzelbild erhalten will?
Einen Butterfly-Shutter oder Doppelflügel-Umlaufblende. Die Technologie wird Doubleflashing genannt.
Was ist die Bildwechselfrequenz?
Die Bildwechselfrequenz oder auch die Bildrate ist die Anzahl der wiedergegebenen Einzelbilder pro Sekunde. Dies wird auch die temporale Auflösung genannt.
(vgl. Bildwiederholfrequenz bei Wiedergabe)
Was ist die Bildwiederholfrequenz?
Die Anzahl der Bildprojektionen pro Sekunde (Flickerfrequenz). (vgl. Bildwechselfrequenz bei Aufnahme)
Wie funktioniert der Filmtransport bei einem analogen Projektor?
Der Film wird mit einem Standard von 24 (in Ausnahmen 25) B/s Transportiert, was aufgrund der Tonsynchronität fest vorgegeben ist. Jedes Bild wird bei der Wiedergabe zwei mal Projiziert, also mit 48Hz. Durch eine Doppelflügel-Umlaufblende wird das erreicht, auch Doubleflashing genannt. Der Filmtransport 24 (25) B/s ist wie bei der Aufnahme in der Kamera für die Bildwiedergabe zwingend intermittierend (wird für die Wiedergabe angehalten). Für die Tonwiedergabe sollte er jedoch kontinuierlich (die Tonspur kann nicht stoppen) sein (z.B. Lichtton). Dies wird durch einen Versatz von Bild und Ton erreicht, der immer genau 21 Bilder beträgt.
Mit was für Techniken und Standards arbeiten digitale Projektoren?
Ein elektronischer Filmprojektor arbeitet mit einem arbeitet mit elektronischem Shutter: 24 oder 48 B/s bei 48Hz (DCI-Standard).
Was sind die Vorteile eines digitalen Projektors (oder elektronischen Shutters)?
Längere Belichtungszeiten sind möglich als bei einer analogen Projektion, da keine “Transportlücke” nötig ist, was zu
- weniger Flickereffekt führt (längere Belichtungszeit, kürzere Totzeit) und außerdem zu einer
- helleren Bildwiedergabe (längere Belichtungszeit, kürzere Totzeit) + (perfekter Bildabstand)
Was für Möglichkeiten gibt es noch, die Bildwiederholfrequenz zu erhöhen?
- mit 72Hz, wenn jedes Bild drei mal Projiziert wird
- bei S3D z.B. 2x72p = 144Hz
- zukünftig DCI-Standards (HFR): 120 B/s?
Wie verhalten sich die Belichtungszeiten in Abhängigkeit zu dem Hellsektor bei der Physikalischen Umlaufblende bei 24fps?
Erst Hellsektor (shutter angle), dann Belichtungszeit:
180° = 1/48s
90° = 1/96s
45° = 1/192s
22,5° = 1/384s
11° = 1/768s
-Hellsektor (shutter angle) > als 180° sind nicht möglich, aufgrund des Filmtransports.
Wie verhalten sich die Belichtungszeiten in Abhängigkeit zu dem Hellsektor bei dem elektronischen Shutter bei 24fps?
Erst Hellsektor (shutter angle), dann Belichtungszeit: 360° = 1/24s 270° = 1/32s 180° = 1/48s 90° = 1/96s 45° = 1/192s 22,5° = 1/384s 11° = 1/768s Hier sind auch Hellesktoren über 180° möglich.
Wie groß ist die Blende und die Belichtungszeit beim Standard im Kino?
180°, 1/48s, 24fps
Wie wirken sich Hellsektoren über bzw. unter 180°?
Bei Hellesktoren die größer als 180° sind, kommt s zu längeren Belichtungszeiten und daher zu dem sogenannten Motion-Blur. Bei Hellsektoren kleiner als 180° kommt es zu immer kürzeren Belichtungszeiten. Es kommt mehr und mehr zu sogenannten Shuttered Motion.
Wie viele Blendenstufen heller wird das Bild, wenn man von 180° Hellsektor / 1/48s auf 360° Hellsektor / 1/24s geht?
Um eine Blendenstufe, das heißt man muss mit einrechnen, dass das Bild heller wird und daher muss man die Blende entsprechend eine Blendenstufe schließen, um ein kontinuieriches Belichtungsverhältnis hinzubekommen.
Was sind Zeitraffer und Zeitlupe und wie kann man sie erreichen?
Die Veränderung der Bewegungsgeschwindigkeit in der Wiedergabe und man kann sie erreichen, indem man die Geschwindigkeit des Films verändert.
Wann spricht man von Zeitlupe, wie kann man die Verhältnisse bezeichnen und mit was für Bildraten muss man aufnehmen, um den Effekt bei gleichbleibender Wiedergabe zu erreichen?
Von Zeitlupe spricht man, wenn eine Aufnahme mit einer höheren Bildrate aufgezeichnet wird und das Bild in der Standard-Wiedergabe wiedergegeben wird und das Bild somit langamer erscheint.
- > Eine Sekunde Echtzeit / Aquisition (Aufnahme) -> Wiedergabe mit 24 B/s (Projektionstandard) -> erzielte Zeit, Wiedergabe
- > 1s mit 24 B/s -> Normalgeschw. 24 B/s (Tonsynchron) -> 1s Wiedergabe
- > 1s mit 48 B/s -> Wiedergabe mit 24 B/s (Zeitlupe 1:2) -> 2s Wiedergabe
- > 1s mit 96 B/s -> Wiedergabe mit 24 B/s (Zeitlupe 1:4) -> 4s Wiedergabe
- > 1s mit 12 B/s -> Wiedergabe mit 24 B/s (Zeitraffer 1:0,5) -> 1/2s Wiedergabe
Wie verhalten sich Blendenwerte in bezug auf die Schärfentiefe?
Kleine Blende (1,0) = geringe Schärfentiefe (hoher Buccee); große Blende (22) = hohe Schärfentiefe (kleiner Buccee)
Wie verhält sich ISO in Bezug auf das Bildrauschen?
kleiner ISO (100) = geringes Bildrauschen;
großer ISO (20000) = hohes Bildrauschen;
Iso ist die “Empfindlichkeit des Films”
Wie verhält sich die Bewegungsunschärfe in Bezug auf die Belichtungszeit?
lange Belichtungszeit (1/10s) = hohe Bewegungsunschärfe /Verwacklungsunschärfe; kurze Belichtungszeit (1/1000s) = geringe Bewegunsunschärfe / Verwacklungsunschärfe. Die Standardbelichtungszeit bei Film/TV ist 1/50s.
Was geschieht bei einer Verdopplung der Bildrate in Bezug auf die Belichtungszeit?
Die Belichtungszeit wird halbiert.
Wie muss mand die Lichtmenge erhöhen, wenn man die Belichtungszeit halbiert, um eine konstante Belichtung beizubehalten?
Wird die Belichtungszeit verdoppelt, muss zum Ausgleich die Lichtmenge verdoppelt werden, da nur noch halb so viel Licht auf den Sensor trifft.
Was kann alternativ zur erhöhung der Lichtmenge gemacht werden, um eine korrekte Belichtung zu erhalten?
- Die Irisblende am Objektiv muss um einen Blendenwert geöffnet werden (-> Verändernung der Schärfentiefe), z.B. von f.4 zu f.2,8 (log-Prinzip)
- einen ND-Filter “ziehen”
Eine Szene ist für die Belichtung bei Blende f.4 / 34 B/s eingeleuchtet, soll dann aber mit 96 B/s gedreht werden. Was muss gemacht werden, um weiterhin eine korrekte Belichtung zu erhalten?
24 B/s -> 96 B/s (Verdoppung der Bildfrequenz)
- > 1/48s -> 1/192s (Viertel Belichtungszeit)
- > f.4 -> f.2,0 (Belichtungskorrektur um zwei Blendenstufen)
Was sind die Unterschiede der Auswirkungen der Veränderung von Belichtungszeit / Shutter bei analogen und digitalen Techniken?
Sie sind gleich.
Was geschieht, wenn man die Belichtungszeit/Shutter verändert in hinsicht auf die technischen Aspekte?
- Veränderung der Belichtungszeit (Gewinn/Verlust an Lichtmenge)
- Temporale Interferenzen (sequenziell) (z.B. Flicker-Probleme durch diskontinuierliche Lichtquellen, Wagenradeffekt, …)
Was geschieht, wenn man die Belichtungszeit/Shutter verändert in hinsicht auf die technisch-gestalterischen Aspekte (Bildqualität und Bildästhetik)?
- Motion Bur (Bewegungsunschärfe durch länge der Bleichtungszeit), dient zur Bildgestaltung, Ästhetik (z.B. “Gladaiator,…)
- Flickern in der Projektion (Verschmelzung Helligkeitsunterschiede, besonders auf hellen Flächen sichtbar)
- Judder: Mangelnde Bewegungsverschmelzung
- resultierende Schwenkgeschwindigkeiten wegen Judder (Formatabhänig)
- Wahrnehnumgszunahme von Artefakten z.B. bei 4K-Auflösung und HDR
Was sind temporale Interferenzen?
Wenn es durch das Lichtwellenmuster (abstrahlverhalten einer bestimmten Lampe) zu einem “temporalen Aliasing” kommt. Das Licht erscheint dadurch anders auszusehen, als es eigentlich sollte bzw. verändert sich die ganze Zeit.
Wie sieht die Helligkeit einer Lampe in Abhängikeit zur Wechselstromphase aus, wenn es sich um diskontinuierliche Strahler handelt?
Eine “Sinus”-Welle, die allerdings immer nur über der x-Achse verläuft, also aus ganz vielen kleinen Hügelchen, also der Bereich unter der X-Achse wird immer an der X-Achse gespiegelt.
Wie sieht das Frequenzverhalten einer 230V 50Hz Wechselstromphase aus?
Ein klassischer, nach unten beginnender Sinus mit der Wellenlängendauer von 1/50s.
Was ist ein “Diskontinuierlicher Strahler”?
Gasentladungslampen (HMI, Leichtstoffröhren), LED, …
Was für Arten von Strahlern gibt es?
Kontinuierliche und diskontinuierliche Strahler.
Wie sieht die Helligkeit einer Lampe in Abhängikeit zur Wechselstromphase aus, wenn es sich um kontinuierliche Strahler handelt?
Eine Gerade, die immer ein bisschen über der X-Achse parallel zur X-Achse verläuft.
Was ist ein “Kontinuierlicher Strahler?”
Tageslicht (Sonne), Temperaturstrahler (Glühlicht, Halogenlicht, …)
Weshalb verhalten sich “diskontinuierliche Strahler” nicht linear in Ihrer Frequenz?
Die diskontinuierlichen Straher funktionieren nur in Abhängigkeit zum fließendem Strom, das Heißst sie sind von der Wechselfrequenz abhängig. kontinuierliche Strahler dagegen erhitzen z.B. einen Draht, der immer gleich hell bleibt und in der Wechselphase nicht abkühlt.
Weshalb kann es bei diskontinierlichen Strahlern zu “Flickern” bei der Aufnahme kommen?
Zwangsläufig kommt es bei Aufnahmen mit Licht aus HMI-Scheinwerfern zu Interferenzen zwischen der Frequenz der Lichtimpulse und der Bildfrequenz der Kamera (Kino: 24 B/s), wenn diese nicht synchronisiert werden.
Was kann man als Alternative zum Synchronisieren der Kamera zu den diskontinuierlichen Strahlern vornehmen?
Man kann vor die Lichtquellen Flickerfreie Vorschaltgeräte vorschalten.
Was kann man machen, um trotzt der temporalen Interferenzen und inkompatiblen Zeitmustern mit diskontinuierlichen Strahlern aufzunehmen?
Wenn man mit dem Kino-Standard (24B/s) aufnimmt, mit einer klassischen Blende von 180° kommt es zu einer Belichtungszeit von 1/48s. Für eine Fotografische Aufnahme wäre die Aufrundung aif 1/50Hz tolerierbar, aber für die filmaufnahme nicht, da es sonst zum Flickereffekt kommt. Für die Synchronisation mit dem Stromnetz muss die Belichtung also genau mit der gleichen Frequenz sein, da sonst eben die zeitlichen Interferenzen entstehen (Flickereffekt).
Man muss es daher, wenn man in Europa dreht an den 50Hz Netzstrom mit 1/50s oder in den USA an den 60Hz Netzstrom 1/60s anpassen. Dies ist möglich, da die Bildfrequenz einen Standard besitzt.
—————–
Taucht nicht bei kontinuierlichen Strahlern auf.
Was sind die Netzstromfrequenzen in Europa und den USA?
Europa: 50Hz
USA: 60Hz
Weshalb gibt es in Film/TV standard-Bildraten?
Es ergibt eine normale Bewegungswiedergabe und vor allem eine garantierte Synchronisation mit dem Ton.
Wie sind die feststehenden Belichtunszeiten für Film, PAL-Video und NTSC?
Film: 24 B/s -> 1/48s -> Progressiv, Vollbilder
PAL-Video: 25B/s -> 1/50s -> Interlaced/Zeilensprungverfahren
NTSC: 30 B/s -> 1/60s
Wie erfolgt die Steuerung der Belichtung in der Filmfotografie hauptsächlich?
Hauptsächlich über die Irisblende an der Optik (oder auch durch ND-Filter, ISO Verstärkung, Lichtsetzung, …)
Kann man die Belichtungszeit über Shutter und Bildraten steuern?
Ja, aber nur begrenzt.
Wie lässt sich mit der Umlaufblende das temporale Aliasing mit der Netzfrequenz vermeiden?
Eine Exakte Anpassung der Belichtungszeit an die Netzfrequenz (50Hz oder 60Hz) über die Veränderung des Hellsektors der Umaulaufblende oder auch ee´lektronisch. Die Öffnung des Hellesktors (Sektorenblende) wird so weit verkleinert, dass die belichtungszeit z.B. exakt 1/50s beträgt und damit kompatibel zum 50Hz-Stromnetz ist.
Wie groß muss die Blende/Belichtungszeit gewäht werden, damit es zu keinen temporalen Frequenzen mit der Netzfrequenz kommt?
25B/s x 180° -> (50Hz) = 1/50s -> kein Flickern
————————
24B/s x 172,8° -> (50Hz) = 1/50s -> kein Flickern
————————
24B/s x 144° -> (60Hz) = 1/60s -> kein Flickern
Mit was kann die Belichtungszeit bei fester Bildrate verändern?
Mit der Sektorenblende.
Was für einen Einfluss hat eine Sektorenblende auf die Belichtungszeit?
Beim Kino ist die Umlaufgeschwindigkeit vorgegeben, da eine feste Bildrate Gesetz ist. Über die Sketorenblende kann die Größe des Hellsektors verkleinert werden, was zu einer Verkürzung der Belichtungszeit pro Einzelbild fürht. Je kleiner die Hellphase ist, desto kürzer ist die Belichtungszeit. Je kürzer die Belichtungszeit ist, desto schärfer scheinen die Einzelbilder (weil weniger Motion Blur / Bewegungsschärfe). Längere Belichtungszeiten als 180° sind als Standard nur bei elektronischen Shuttern möglich. Bis zu 360°.
Auf was für vorgefertigte Abschnitte ist die Sensorenblende einstellbar?
- 180° -> 24B/s -> 1/48s
- 180° -> 25B/s -> 1/50s (TV)
- 172,8° -> 24B/s -> 1/50s (Kino)
- 90° -> 24B/s -> 1/96s
- 45° -> 24B/s -> 1/192s
Wie lässt sich die Belichtungszeit berechen?
Bsp: 360/180 * 24 = 1/48s
Was passiert, wenn man den Hellsektor von 180° auf 90° reduziert?
Bei einem 90° Hellsektor ist die Öffnung von einem 180° Hellsektor halbiert.
- > Die Belichtungszeit wird um die Hälfte reduziert.
- > Ausgleich um einen Blendenwert: z.B. von f=4 auf f= 2,8 (Irisblende an der Optik)
Welche kreativen Veränderungen kann eine veränderung der Belichtungszeit hervorrufen? Bzw. zwischen welchen “Extremen” hat man die Wahl?
lange Belichtungszeit -> weiche Bewegungen -> unschärfen (Motion Blur)
————————
Die Standardbelichtung 1/48s (@24fps) bzw. 1/50s (@25fps) ist ein guter kompromiss. Eine Veränderung der wird meistens aus kreativen Gründen vorgenommen.
Was sind die Probleme im gegensatz zu der Standard-Belichtungszeit bei Judder und Motion Blur?
Motion-Blur (Bewegungsunschärfe):
je länger die Belichtungszeit, desto mehr Bewegungsunschärfe
->Belichtungszeit zu lang (und/oder) die Bewegungen zu schnell
->zu viel Bewegungsverschmelzung
——————————–
Judder (Bildruckeln/fehlende Verschmelzung):
Bewegungen sind zu schnell für die aufgezeichneten Zeitblöcke (Diskretisierung!)
-> mangelnde temporale Auflösung
-> Bildrate zu gering
-> zu wenig Bewegungsverschmelzung
Von was ist es noch abhängig, ob es zu Judder oder Motion-Blur kommt?
Von der Bewegungsgeschwindigkeit der Objekte oder der Kamera.
Wie kann man verhindern, Motion-Blur oder Judder bei der Bewegungsgeschwindigkeit auftaucht?
Man muss die Szene an sein Ziel anpassen, z.B. man muss die Schwenkgeschwindigkeiten anpassen (Richttabellen)
Was bringt HFR?
Die High-Frame Rate Technologie reduziert die durch die 24 fps Standardprojektion verursachten Artefakte. Motion Blur, Ruckeln und Flackern aufgrund schneller Beewgungen und Kameraschwenks sind nicht mehr länger sichtbar.
Weshalb ist Judder ein heute weitaus wichtigeres Thema wie vor vielen Jahren?
Mit der ständigen verbesserung und den neuen Technologien der Film/TV- Welt wie HFR, Motion Imaging, 4K, Stereo, HDR, … verbessert sich ständig die Bildqualität und deshalb wird auch der Judder deutlich sichtbarer.
Wie können Artefakte (Aliasing) bei der Aufnahme und Wiedergabe entstehen?
Bei der Aufnahme:
Judder -> Akqusition (Kamera-Aliasing) -> Aufnahme diskreter Zeitblöcke aus kontinuierlichem Signal
————————
Bei der Wiedergabe:
Strobing -> Wiedergabe (Display-/Projektor-Aliasing) -> Aus Zeitblöcken soll wieder eine flüssige Bewegung generiert werden.
Was sind die Probleme, wegen denen man versucht hohe Bildwechselfrequenzen (HFR) zu benutzen?
Bei dem Standard von 24 B/s kommt es zu einem Mangel an Bewegungsauflösung:
- Bei Objektgruppen, Kamerabewegungen (speziell: S3D, UHD/4K, HDR)
- Sichtbare Artefakte: Unscärfen durch Bildruckeln (Judder)
- Wahrnehmung von deutlich weniger Schärfe bei Schwenks in 4K im gegensatz zu Stills.
Bringt HFR nur bei der Aufnahme etwas?
Nein, auch bei der Wiedergabe: man kann 48 B/s oder 60, 96, 120 B/s mit der selben Bildwiederholrate wiedergeben, und so die “klassischen 24 B/s” deutlich flüssige erscheinen lassen.
Was für Vorteile bringen HFR?
- > bessere temporale Auflösungen, d.h. Bewegungen werden besser abgebildet
- > weniger Judder
- > weniger Motion-Blur
- > bessere Detailwiedergabe
- > kein Flickern mehr!
Wie wirkt sich HFR auf die Belichtung aus?
Durch die kurzen Belichtungszeiten geht Licht verloren, das heißt die Belichtung muss angepasst werden. Ein vorteil ist hier, wenn mit elektronischen Filmkameras gearbeitet wird, da diese duch dem 360° offenen Shutter eine Blende mehr Licht einfangen können.
Was besagt die Bildrate bei der Aufnahme?
Angabe unterschiedlicher Bildinformationen pro Sekunde.
Wie viele Bildinformationen ergibt eine Aufnahme mit 24, 48 und 96 B/s bei der Wiedergabe wieder?
24 -> 1 Bild
48 -> 2 Bilder
96 -> 4 Bilder
Wie funktioiert die Wiedergabe der Aufnahmegeschwindigkeiten von 24, 48, 96 B/s?
24-> Double Flash: es wird zwei mal der gleiche Bildinhalt gezeigt, 48Hz, lange Belichtung
48 -> Double Flash: es wird bei jeder Belichtung ein anderes Bild gezeigt, 48Hz, lange Belichtung
96 -> es werden vier unterschiedliche Bildinhalte gezeigt, in der zweit in der normal zwei Bilder gezeigt werden, 96Hz, lange Belichtung
Wie verhält sich die Bewegungsunschärfe bei 1/100s (86,4°), 1/50s (172.8°), 1/25s (345.6°)?
1/100s: Die Schärfe nimmt bei kürzeren Belichtungszeiten deutlich zu, bessere Detailabbildung -> Zunahme von Opazität
1/50s: Standardaufnahme
1/25s: Bewegungsunschärfe nimmt bei längeren Belichtungszeiten deutlich zu.
->Zunahme von Transparenz, schlechtere Detailwiedergabe (Kontrastverlust durch Motion Blur)
Was sind die Nachteile von HFR?
- > Sehgewohnheiten aus dem analogen Kino werden vermisst (Korn, Bildstand, Flickern, Schlieren, Tiefe, …)
- > steriler, kühler Look - kein “Seifenopern-Effekt”
- > elektronischer, künstlicher HD-Video-Look
- > Touch of Magic fehlt, zu viel Realismus
- > den Bildern fehlt es an Aussagekraft, “Puch” wird vermisst, Banalisierungseffekt
Was für moderne und neue Möglichkeiten liefert uns HFR noch?
- > “Creative Shutter”, wird zum Beispiel mit 120Hz aufgenommen, später dann auf 24B/s herunter gesampelt, um z.B. den Wagenradeffekt zu vermeiden.
- > “Synthetic Shutter”, bei dem im nachinein verschiedene Framerats zusammen gebaut werden, damit der klassische “Kino-Look” noch erhalten bleibt, aber schnelle Bewegungen besser abgebildet werden.
Von was hängt die Bildqualität in der Kinematografie ab?
- > Bewegungsdarstellung: Framerate, Shutter, Motion Blur, Judder, Flickern
- > Dynamikumfang: SNR, Aufnahmekontrast, Gammakodierung
- > Farbdarstellung: Farbraum, Farbstruktur, Datenreduktion
- > Spatiale Auflösung: Schärfeeindruck/MTF, Widergabe
- > Kompression: Visuell verlustfrei, Kaskadierung?
- > Optik: Auflösungsvermögen, Vergütung, Lensdesign
Inwiefern unterscheiden sich die Zielsetzungen vom TV- und Filmworkflow?
TV-Workflow (Display Referred):
-> Direkte Anwendungsmöglichkeiten ohne Bearbeitungsschritte (Live)
-> Standardisierte Bandbreiten und Farbräume: ITU BT-Rec. 709 (HDTV), Rec 2020 UHDTV
-> Display-refered Lichtwerte der Szenen werden bei der Aufnahme an Wiedergabestandards angepasst
-> Postproduktion nicht zwingend notwendig, Standardisierung aller Geräte
->Ziel: Schnelle und direkte Wiedergabe für Live-TV und Brodcasting, gute Bildqualität
————————————
Filmworkflow (Scene Referred):
-> Bestmögliche Bildqualität für Aufnahme und Wiedergabe, das Seherlebnis steht im Fokus (erweiterter Dynamikumfang, Farbdarstellung, spatiale Auflösung, temporale Auflösung)
-> Postproduktion zwingend notwendig
-> Scene-Referred: Lichtwerte werden wie in der Szene aufgenommen - anschließende Postproduktion ist zwingend notwendig
-> Ziel: Maximale Bildqualität, bestes Seherlebnis für die Asuwertung in Projektion
-> hohe Flexibilität für Bearbeitung in Postproduktion
Riecht Philip komisch?
Ja, weil er immer eine Taschenravioli von gestern Abend in seiner hinteren Hosentasche transportiert.
In welcher Art zeichen Kameras Videosignale auf (Videogammakorrekturen)?
Sie zeichen lineare Videosignale auf
Nenne ein paar Videocodes.
HDCAM, DVCPRO HD, CDCAM HD, AVC HD, …
In welchen drei Arten können Filmkameras Videosignale aufzeichen?
- > Linear Video mit Gammakorrektur (HD-Video) (Displayreferred (TV))
- > Videosignale mit logarithmischer Gammakodierung (Scene Referred)
- > Daten im RAW-Format aufzeichen (Scene REferred)
Nenne drei optionen für den Filmworkflow bei digitaler Bildaufzeichtung.
Videoaufzeichnung im HDTV-Standard, UHDTV:
-> Display-Referred (schneller Workflow ohne POostproduktion möglich), Video Codecs
-> schnell und günstig
—————————–
Videoaufzeichnung mit Log-Gammakodierung:
-> Scene-Referred (Postproduktion notwendig), Video Codes
-> effizient und hochwertig
—————————–
Raw-Datenaufzeichnung:
-> Scene-Referred (Postproduktion notwending)
-> am hochwertigsten, da möglichst unbeschnittene Daten aufgezeichnet werden: aufwändig und teuer
Wie sehen Sensoren Licht?
Sensoren sind eigentlich “Photonensammler”. Sie bestehen aus lichtempfindlichen Fotozellen (photosites) und nehmen Ladung auf (mV). Sie bestehen aus analogen Bauteilen, können aber nur Helligkeitswerte sehen (“Grauwerte”: S/W-Bilder). Die Ladungen, die beim Eintreffen vom Licht erzeugt werden (analoges Signal), wird (an A/D-Wandlern hinter den Sensoren) in lineare digitale diskrete Signale umgesetzt (quantisiert).
Dies ergibt eine lineare Aufzeichnung von Ladung.
Die Fähigkeit der Fotozellen ist allerdings begrenzt, d.h. die Ladungskapazität ist begrenzt, weswegen bei übermäßiger Belichtung die Ladung überlaufen kann, und es dadruch zum sogenennanten “Whiteclippng” kommt.
Welche drei Arten, Sensoren Farben sehen zu lassen, gibt es?
CCD: -> 3CCD-Prisma -> Lichtsignal wird durch ein Prisma aufgespalten und von drei Sensoren verarbeitet -> fertig prozessierte RGB-Signale -> Brodcasting ----------------------------- CMOS: -> Appertur wie ein 35mm-Film -> CFA-Farbmosaik: processing nötig -> Bayer-Pattern mit viel grün -> SLS ("Filmlook") ----------------------------- Faveon -> übereinander liegende Farblayer. die jeweils eine (RGB) Farbe auslesen -> volle Auflösung auf alle Kanälen -> keine Verbreitung in der Praxis
Was sind die Vorteile eines CCD-Bildwandlers?
- hohe Lichtausbeute, also besserer Füllfaktor
- geringes Rauschen, da nur ein A/D-Wandler
- weniger Defektpixel aufgrund einfacherer Sensorstruktur
Was sind die Nachteile eines CCD-Bildwandlers?
- langsamere Auslesezeiten als bei CMOS, da nur ein A/D-Wandler digitalisiert
- hohe Herstellungskosten
- Blooming und Smearing bei Überbelichtung
- hoher Stromverbrauch
- für einige CCD-Typen hoher baulicher Aufwand
- komplexer Kameraaufbau (Prisma)
Was sind die Vorteile eines CMOS-Bildwandlers?
- schnelleres Auslesen und damit höhere Frameraten
- pixelgenaues Auslesen
- Geringer Stromverbrauch
- weniger anfällig für Blooming
- geringer baulicher Aufwand
- geringere Herstellungskosten
Was sind die Nachteile eines CMOS-Bildwandlers?
- Geringere Lichtempfindlichkeit (kleiner Füllfaktor)
- stärker rauschanfällig, da pro Pixel ein Verstärker
- “Pixel Crosstalk” durch fehlgeleitete Strahlen
- anfällig für Pixeldefekte
Wie ist eine CMOS-Bildwanlder-Zelle aufgebaut?
Nachteil: Schlechterer Füllfaktor als bei CCD
—————————–
Vorteil: Gezielte Ladungsabfuhr mit unterschiedlicher Verstärkung pro Fotozelle möglich (ermöglicht HDR)
Was sagt der Füllfaktor über einen Sensor aus?
Je besser der Füllfaktor (lichtempf. Fläche), desto mehr Lichtenergie kann von den Fotozellen aufgenommen werden. je mehr Licht aufgenommen werden kann, desto empfindlicher der Sensor, desto weniger Rauschen entsteht.
Was bringen die Mikrolinsen über der Fotozelle?
Mikrolinsen sollen mangelnde Füllfaktoren ausgleichen, verursachen gleichzeitig aber unterschiedliche Herausforderungen:
-> Vignettierungen, Pixel Crosstalk, Streulicht, Beugungserscheinungen, reduzierte MTF
Weshalb hat ein CMOS-Bildwandler einen erhöhten Dynamikumfang?
Durch den möglichen Zugriff auf jeden einzelnen Bildpunkt (oder Bildpunktgruppen) kann eine nicht lineare Ladungszunahme einfach erreicht werden. (z.B. hohe Lichtenergie kann mit geringerer Verstärkung versehen werden, geringe Lichtenergie kann gezielt verstärkt werden). Eine höhere Dynamik ist erreichbar, im Gegensatz zu CCDs, trotz schlechterem Füllfaktor. Über die Steuerung gezielter Ladungsabfuhr kann resulitierende Ladung (Licht einer Szene) logarithmisch von der Beleuchtungsstärke abhängen. Der Belichtungsumfang ist dann mit ca. 170dB sogar größer möglich, als der des menschlichen Auges -> HDR CMOS (HDRC). Eine kostengünstige Anfertigung von großen Bilddiagonalen -> Vorteile für Filmkameras.
3 CCD-Block vs. SLS-CMOS mit Farbmosaik: nenne vor und Nachteile.
3 CCD mit Prisma und separierten RGB-Werten:
-> Vorteil: volle RGB-Daten ohne Processing
-> Nachteil: Prismen können nicht in S-35mm-Größen gebaut werden
———————————
Single Large Sensor mit Bayer-Farbmosaik:
-> Vorteil: Single Large Sensor
-> Nachteil: RGB müssen über Farbmosaik errechnet werden.
Wie funktioniert ein Farbmosaikfilter?
“Bayer-Pattern”: Fotozellen sind nur Lichtempfindlich, werden dadurch eben mit RGB-Farbfiltern versehen: Farbtrennung in R, G oder B bei jeder Fotozelle. Die Anzahl der grünempfindlichen Fotozellen ist dabei doppelt so hoch, wie die der rot- und blauempfindlichen (50% grün, 25%% rot, 25% blau). Der Rot und Blaukanal sind dadurch schlechter aufgelöst. Es gibt also einen systemimmanenten Unterschied zu analogem Film oder dem 3 CCD: Fehlende Farbwerte müssen interpoliert (also geschätzt) werden.
Was geschieht beim “De-Mosaicing” oder beim “De-Bayering” des Bayer-Patterns?
Fotozellen repräsentieren keine einzelnen Pixel. Um die resultierende Farbe zu berechnen, werden 9 Farbsenoren (33 mit 2Blau, 2Rot und 5Grün) betrachtetund die Werte werden zu einem resultierenden Pixel/Farbe zusammengefasst. Der mittlere PIxel wird also immer als der neue “Pixel” betrachtet, die 8 außern herum helfen bei der Interpolation. Am Rand z.B. muss also ein Teil der Informationen geraten werden.
- > Fotozellen sind keine “Pixel”
- > erst nach der Interpolation entstehen einzelne RGB-Pixel
- > nur 33% der Informationen können direkt “gemessen” werden.
- > 67% der Farben und Tonwerte werden mathematisch geschätzt!
Was geht durch den digitalen “Entwicklungsprozess” (De-Bayering) vor allem verloren?
Besonders kritisch sind jegliche Kontrastdaten.
Von was ist die Qualität des De-Bayerings abhängig?
Die Qualität ist abhängig von den dafür verwendeten Algorithmen abhängig.
Wie verhält sich die native Auflösung beim De-Bayering und was ist zu beachten?
-> Der Bildverabreitungsprozess des Debayerings ist rechenintensiv und zeitaufwändig.
-> Der Debayering-Prozess bringt durch die rechnerische Interpolation einen hohen Verlust (ca. 30%) der Farbauflösung und der “nativen” Ortsauflösung mit sich (abhänig von der Qualität des Debayeringalgorithmus)
——————-
-> Überabtastung des Zielauflösung erforderlich für sehr gute Ergebnisse (20-50%) (-> Abtasttheorem)
——————-
Praktische Anwendung:
-> Die “native” Auflösung eines Kamerasensors mit CFA sollte idealerweise ca. 20.50% über der Auflösung des Zielformats liegen, um eine optimale Bildqualität zu erreichen.
-> In der Praxis werden trotzdem anderweitig gute Ergebnisse Produziert
Was besagt das Nyquist-Shannon-Abtasttheorem?
Ein Signal muss mindestens mit der doppelten Frequenz abgetastet, um temporales Aliasing zu vermeiden und das Ursprungssignal in der Vollständigkeit wieder herstellen kann.
Was für Arten von “Debayering”-Methoden gibt es?
Bei allen Methoden müssen Helligkeits und Farbinformationen eines Pixels eines CFA-Bildes errechnet werden:
- > “Superpixel” verwendet 4 CFA-Pixel für einen RGB-Pixel: Spatiale Auflösung des errechneten RGB-Bildes ist nur nich 1/4 der “Nativen” auflösung.
- > “Bilineare interpolationsmethone” erhält die originae Auflösung durch die Verrechnung umliegender Pixel, tendiert aber zu unscharfen Bildern und Farbartefakten an den Kontrastkanten. Die Methode ist jedoch sehr schnell.
- > “Variable Number of Gradients” verarbeitet zuert Hellwerte umliegender Pixel, vergleicht diese und fügt zuletzt die interpolierte Farbinformation hinzu. Kontrastkanten werden besser Verarbeitet und ewniger Farbartefakte sowie Farbrauschen generiert.
Zu welchem Zeitpunkt wird das De-Bayering verwendet?
Es kann entweder direkt intern erfolgen, wenn auf das Format “ProRes” z.B. gespeichert werden soll, damit das Bild direkt angeschaut werden kann, oder aber später in einem externen Programm, dann wird auf die interne Karte mit RAW geschrieben, da dort keine Veränderung der Daten erfolgt.
Was ist der Unterschied von Video (“Baked In”) und RAW (“Metadaten”) in Hinsicht auf den Signalweg?
Der Unterschied liegt bei den Metadaten. Bei Video wirken sich die Einstellungen der Kamera direkt auf das Videosignal aus, sie können im Nachhinein nicht mehr direkt Verändert werden, sondern das veränderte Signal muss bearbeitet werden. Bei RAW werden die Kameraeinstellungen in die Metadaten geschrieben und separat dem Video beigelegt. Das RAW Video kann also danach immer noch verändert werden, indem einfach die mitgelieferten Kameradaten verändert werden.
Wie werden RAW-Daten (“Digitales Nefativ”) zu RGB-Bildern (Videosignale) gerechnet?
Der gesamte Prozess geschieht meistens in einem In-Camera Videoworkflow-Processings, kann aber theoretisch auch danach in der Software erfolgen:
- -> “Dead Pixel removal”: Tote Pixel werden mit Farbinformationen der nächsten Pixel interpoliert
- —————— - -> “Noise Reduction”: Frühe Bearbeitung vereinfacht spätere nonlineare Arbeitsschritte (Starke Rauschunterdrückung verschlechtert Detailauflösung)
- —————— - -> “Linearisation”: Ausgleich spezieller Sensor Charakteristika (Knee)
- —————— - -> Blacklevel Subtraction: Ausgleich von Fehlersignalen z.B. aus thermalem Rauschen und elektrischen Interferenzen
- —————— - -> “De-Mosaic zu RGB”: schon gelernt ;) verschiedene Algrithmen
Welche Parameter können bei der RAW aufzeichnung auch erst in der Postproduktion festgelegt werden und was für Vorteile bringt das?
Die Daten können nicht nur in der Postproduktion eingestellt werden, sonder müssen!
- > Weißabgleich: Farbton auf der Planckschen Kurve
- > Farbraum: Festlegung des Zielfarbraums (P3, Rec.2020, …)
- > Sensorempfindlichkeit: Verstärkung der Signale (Gain)
- > Rauschunterdrückung: Denoising (z.B. Szenenabhängig möglich)
- > Kantenschärfung: Detail (z.B. Szenenabhängig möglich)
- > Dies erlaubt es die aufgezeichneten Daten später noch individuell pro Einstellung maximal felxibel in der Postproduktion beeinflussen zu können (unter Laborbedingungen!)
- > Großer Vorteil für die optimale Bildbearbeitungsmöglichkeiten in der Postproduktion (Grading) da wichtige Parameter noch nicht eingrenzend festgelegt wurden (Farbraum, Spatiale Auflösung, …)
- > im Gegensatz zu bereits prozessierten RGB-Video-Bildern, bei denen die o.g. Parameter bereits unveränderlich (“eingebacken”) worden sind.
Was für Faktoren werden beim De-Mosaic-Prozess von RAW zu RGB bearbeitet?
-> Objektiv-Korrekturen: Chromatische Aberrationen, Verzerrungen, …
-> Cropping: Formatskonvertierungen
-> Scaling: Up oder Down
-> Weißabgleich: Farbton
-> Color Conversion: Farbkonvertierung auf z.B. Rec709
-> Color Enhancements: Hauttöne, Himmelblau, …
-> Toning Curve: Kontrastanhebung
-> Gamma Curve: Kodierung zu z.B. Rec.709
-> Kantenaufsteilung: “Detail”
-> Clip to fewer Bits: Reduktion der Bittiefe
-> Lossy Compression: datenreduktion auf Ziel-Datenrate
——————-
Ist das Processing abgeschlossen, sind die Veränderungen im RGB-Signal nicht mehr umkehrbar, d.h. sie sind in den RGB-Signalen festgeschrieben (“Eingebacken”)
Wie lässt sich in RAW-Dateien eine höhere Dynamik als in z.B. Rec.709?
Es lässt sich in RAW ein teilweise ein weit höherer Dynamikumfang und Farbraum speichern, wenn das komplette Sinal eines Sensors unbeschnitten aufgezeichnet werden.
Kann RAW komprimiert werden?
Ja, z.B. in RedRAW (kann aber einbußen in der Dynamik verursachen)
Für welche Art von Arbeit sind RAW-Aufnahmen geeignet?
Für Film, wenn Zeit für Postproduktion ist.
Was sind die Vorteile von RAW-Aufzeichnung?
- > Deutlich vereinfachte Kameraelektronik und Menüs sind möglich, was zu einer kleineren Bauweise der Kameras und weniger Aufwand beid der Bedienung führt.
- > Größere Flexibilität in der Bearbeitung der Bilder, beste Korrekturmöglichkeiten in der PP. Es sind aso präziese Bearbeitungen untter “Laborbedinungen” (PP) möglich, sowie felxiblere Bildgestaltung in der PP.
Was sind die Nachteile von RAW-Aufzeichnung?
- > Postporduktion zwingend notwendig
- > gegenüber einer direkten Aufzeichnung von RGB-Daten, entstehen in der PP z.B. hohe Bearbeitungszeiten, die tuer werden können.
- > mögliche Fehlerquelen in der Kommunikationskette (Weißpunkt, Verstärkung, ….)
In was können sich RAW-Daten unterscheiden?
- > Manche Kameras komprimieren die RAW-Files vor dem Speichern, worudh es zu verlusten kommen kann.
- > RAW kann mit linearer oder logarithmischer Gammakodierung speichern.
Was ist Cinema DNG?
ein universelles (nicht-proprietäres) Rohdatenformat mit Metadaten
Nenne Beispiele proprietärer Lösungen bei der Kodierung mit RAW-Daten,
- > 16 Bit lin: (Sony): Komressionsstufen
- > 12 Bit log uncompressed: (ARRI): logarithmische gammakodierung
- > 12 Bit log compressed (RED): logarithmische Gammadarstellung
- > 10 Bit log: (CANON): in Kombinationen mit Festlegungen (ISO, Weißabgleich, …): logaritmische Gammakodierung
Wie viele Blendenstufen kann das menschliche Auge wahrnehmen?
Etwa von -20 bis 30 Blendenstufen.
Wie verhält sich die Schärfe bei der Wahrnehmung in Bezug auf die menschliche Helligkeitswahrnehmung (Blendestufen)?
- > kleiner als -20: Wahrnehmbarkeitsschwelle
- > -20 bis -8: Monochrom, sehr schlechte Schärfe
- > -8 bis 4: schlechte Farben, und schlechte Schärfe
- > 4 bis 20: gute Farbe und Schärfe
- > größer als 20: Blenden
In welchen Blendestufen bewegt sich eine Natürliche Szene, bezogen auf die menschliche Helligkeitswahrnehmung?
-> Von -2 bis 18: umfasst etwa 20 Blendenstufen
In welchen Blendestufen bewegt sich die Wahrnehmung ohne Adaption, bezogen auf die menschliche Helligkeitsswahrnehmung?
-> Von etwa -2 bis 11: umfasst etwa 13 Blendenstufen
In welchen Blendestufen bewegen sich Kameras, bezogen auf die menschliche Helligkeitswahrnehmung?
Ewa von -2 bis 12.5: umfasst etwa 14.5 Blendestufen.
Wo liegen die meisten Formate der Bildwiedergabe im Film/TV?
Vor allem im unscharfen und dem Bereich mit den schlechten Farben, etwa von -8 bis 4, Blenden, einer Helligkeit von etwa -2 bis 1 [10^x cd/m^2]
Was ist Log E?
Der Begriff Log E ist eine relative Belichtungseinheit. Jedes mal, wenn sie die Belichtung verdoppelt, nimmt Log E um 0,3 Einheiten zu.
-> Wärend die Belichtung durch Multiplikation eines Faktors ansteigt, steigt der log E durch Addition an.
———————————
Zahl: 1; 10; 100; 1000; 10000; 100000; …
Logarithmus: 0, 1, 2, 3, 4, 5, …
———————————
Logarithmische Zahlen stellen den proportionalen Anstieg mit linearen Zahlen dar.
Wie sieht die typische Kennlinie eines S/W Negativ-Filmmaterials aus?
In hellen Bildpartien des Orginalbildes wird im Negativ durch stärkere Belichtung mehr Silber als in dunklen gebildet.
-> Diese Partien werden auf dem Negativ “dichter” abgebildet (=weniger transparent = zunehmend opak)
-> stärkere Schwärzung = höhere Opazität
-> Der Grad der Silberbildung (Schwärzung) ist abhängig vom Grad der Beleuchtungsstärke (l*t = log H erzeugt Dichte)
-> ist zusätzlich durch die Art der Entwicklung beeinflussbar (Zeit und Temperatur)
———————————
Je länger der lineare Bereich, desto größer ist der Szenenkontrast im Bild!
———————————
Y-Achse = Dichte D von 0 bis 2
X-Achse = log H
Kennline: startet bei 0,4 flach und steigt (unten an der Schwelle) dann linear an und flacht dann wieder an der Schulter (oben) ab.
Was für eine Art von Ladung nehmen Licht-Sensoren wahr?
Sie nehmen lineare disktrete Signale umgesetzt (Quanitisierung). Zur anpassung an das menschliche Auge werden logarithmische Darstellungen verwendet.
Was sind die drei Optionen für den Filmworkflow mit digitaler Bildaufzeichnung?
- Videoaufeichnung im HDTV (Rec.709)
- > Display-Referred (schneller Workflow ohne Postproduktion möglich)
- > schnell und günstig
- ——————————– - Videoaufzeichnung mit Log-Gammakodierung
- > Scene-Referred (Postproduktion notwendig)
- > effizient und hochwertig
- ——————————– - RAW-Datenaufzeichnung
- > Scene-Referred (postproduktionnotwendig!)
- > aufwändig, teuer, am hochwertigsten.
Was beschreibt der Dynamikumfang?
Der Dynamikumfang repräsentiert den Unterschied zwischen dem dunkelsten und dem hellsten Tonwert, der während einer einzelnen Belichtung auf einem System aufgezeichnet werden kann (Belichtungsspielraum).
Durch was wird “Dynamic Range” begrenzt?
- > maximale Ladungsaufnahme eines Sensors, bis das Clipping in den Lichtern erreicht wird.
- > Signal über dem Grundrauschen (Noise) eines Sensors in den Schatten.