Filmtechnik Flashcards
Filmgenerationen in Kopierschritten?
- Originalnegativ
- Interpositiv
- Internegativ
- Theaterkopien (“Massenkopien)
Welche Bereiche hat eine typische Kennlinie von Negativ-Filmmaterial?
Schleier bei Dichte 0,4
Schwelle
Linearer Bereich
Schulter
Desto heller das Original, desto dichter und somit dunkler der Film –> Negativ.
Silberteilchen (Korn) dunkel
Wie lässt sich der Gamma wert im Nachhinein verändern?
Push: flacheres Gamma Entwicklungsprozess abgeschwächt: niedrigere Temperatur kürzere Dauer
Pull:
steileres Gamma
Gegenteil von Push
Wie viele Blendenstufen lassen sich im analog-Film aufnehmen? Welcher Wert liegt in der Mitte?
10 Blendenstufen
18% Grau in der Mitte (da logarithmisch)
Was ist der Gammawert bezogen auf analog-Film? Was gibt er an?
Anstiegswert der Korn-Empfindlichkeit auf Licht im linearen Teil.
Er gibt Auskunft über die Kontrastanstiegscharakteristik eines Bildträgers.
Je größer der Anstieg der Dichte pro Belichtungsstufe, desto steiler der Anstieg der Gradiationskurve (desto größer der Gammawert)
Was sind ablesbare Eigenschaften der Gammakurve?
Kontrastumfang
Höchstschwärzung
Kontrastverhalten (Gammawert)
Systemgamma für analoges Kino: Wie errechnet es sich? Was ist günstig für die Projektion? Was ist günstig für die Akquisition? Was ist die Charakteristik von Intermediatemeterialien?
Y Negative x Y Positive = Y System
Steile Positiv-Kennlinien mit hohen Dichtewerten sind günstig für die Projektion (Kontrast)
Flache Negativ-Kennlinien bilden den Gegenpart in der Kopierkette und sind Vorteilhaft in der Akquisition.
Intermediatematerialien stehen ca. bei Gamma 1,0 und haben keine eigene Charakteristik.
Ab wie vielen FPS beginnt die Bewegungsverschmelzung?
Flickerfrequenz?
16-18 FPS Bewegungsverschmelzung
Flimmerverschmelzungsfrequenz ist Helligkeitsabhängig (22-90 Hz)
critical flicker frequency (CFF) im analogen Kino bei ca. 40-50Hz.
bei hellen flächen am kritischsten (logisch wegen kontrast)
Technische Standards analoges Kino:
Aufnahme “Akquisition” FPS?
Wiedergabe “Projektion” FPS?
Aufnahme 24 FPS
Wiedergabe 24 B/S und 48 Hz
–> Guter Kompromiss (Kosten/Ästhetik)
Was bestimmt die Belichtungszeit? analog?
Mechanischer Shutter, Umlaufblende
Belichtungszeit 1/48 bei 180° Shutteröffnung
Spezielle Ästhetik durch physikalische Rotation:
Hell- und Dunkelphase
Auf- und abschwellende Belichtung
Shutter bei der Wiedergabe?
180° Butterfly Shutter
2 gegenüberliegende Öffnungen mit je 90°
–> Bildfrequenz 48Hz bei 24fps
Zeitdehnung?
Wiedergabe Shutter bleibt gleich. Aufnahme fps verdoppeln oder halbieren sich.
Achtung:
Blende muss dementsprechend auch mitverstellt werden um 1 Blendenstufe. Oder andere anpassungen
Veränderbare Belichtungszeit bei fester Bildrate
Wie?
Sektorenblende kann hinter der Umlaufblende herausgefahren werden und die Größe des Hellsektors verkleinern.
Vergrößern geht nur bei einem elektronischen Shutter.
Vorgefertigte werte der SB:
180° & 25 B/s –> 1/50s (TV)
172,8° & 24 B/s –> 1/50s (Kino)
1/50s ist gut wegen Flickerfrequenz wegen Stromnetz etc
Wovon hängt die Bewegungsdarstellung ab?
Framerate Shutter Motion Blur Judder Flickern
Wovon hängt der Dynamikumfang ab?
- wichtig
SNR (Signal to Noise Ratio)
Aufnahmekontrast
Gammakodierung
Wovon hängt die Farbdarstellung ab?
Farbraum
Farbabtaststruktur
Datenreduktion
Was wird durch die Optik beeinflusst?
Auflösevermögen
Vergütung (antireflex beschichtung)
Lensdesign
Welche 3 Optionen gibt es für Filmworkflow bei digitaler Bildaufzeichnung?
- Videoaufzeichung im HDTV-Standard (Rec 709) UHDTV: (Rec.2020)
Display-referred (schneller Workflow ohne Postproduktion möglich)
schnell und günstig - Videoaufzeichnung mit Log-Gammakodierung
Scene-referred (Postproduktion notwendig!)
effizient und hochwertig - RAW-Datenaufzeichnung
Scene-referred (Postproduktion notwendig)
am hochwertigsten, alle Sensordaten
aufwändig, teuer
Demosaicing?
Fotozellen sind noch keine Pixel.
Fotozellen nehmen wegen Bayer-Pattern nur einzelne Farbwerte auf.
33% der Infos werden direkt gemessen.
67% werden interpoliert, bis man Pixel hat.
Was ermöglicht die RAW-Datenaufzeichnung?
Nachträglich: Weißabgleich Zielfarbraum festlegen Sensorempfindlichkeit (Gain, Exposure) Rauschunterdrückung (Denoising) Kantenschärfung (Detail)
–> flexible Postproduktion, Grading
bei bereits prozessierten RGB-Video-Bildern sind die oben genannten Parameter beriets unveränderlich (“eingebacken”) worden.
Bildqualität von Kamerasystemen hängt ab von:
Bewegungsdarstellung Dynamikumfang Farbdarstellung Spatiale Auflösung Kompression Optik
Dynamikumfang und Spitzenhelligkeiten, Filmarten
Natürliche Szene: 20 fstops
Wahrnehmung ohne Adaption ca 13 fstops
Kameras bis zu 14.5 fstops
Cinema 2D ist gerade noch so ok. Kontrast 1000:1, größtenteils Mesopic vision. Aber ja auch alles im dunklen kino.
Cinema 3d Kontrast wie 2d aber Helligkeit kritisch –> Scotopic vision.
TV Mesopic vis Photopic vision, aber leider nur 200:1 dafür relativ Hell
Hdr Display in allem viel besser als tv
hdr Prototypes noch viel besser
Was ist der Dynamikumfang und wodurch wird er begrenzt?
Ist der Unterschied zwischen dem dunkelsten und hellsten Tonwert, der während einer einzelnen Belichtung auf einem System aufgezeichnet werden kann.
Dynamic Range wird begrenzt durch:
maximale Ladungsaufnahme eines Sensors, bis das Clipping in den Lichtern erreicht wird.
Grundrauschen eines Sensors in den Schatten.
Was sind Bandings?
Erkennbare Stufen bei Helligkeits- und Farbverlaufdarstellungen aufgrund von unzureichender Bittiefe.
Was sind CVs?
Codevalues
diskrete Helligkeitsschritte
Wie viele CVs reichen aus, um den Helligkeitsverlauf einer Blende Licht ohne sichtbare Quantisierungsstufen abzubilden?
70
Probleme bei linearer Kodierung?
Gibt mehr als genügend CVs, aber Verteilung succt.
zu wenig im Schatten und zu viel in den Höhen.
Denn:
digitaler Sensor = linear
Augen (auch Sensor) = log
analog. Film = log
Man bräuchte 16 Bit, um diskrete Schritte einer Szenenluminanz von 9 Blendenstufen der Quantisierung visuell unsichtbar zu machen, brauchen aber zu viel Speicherplatz).
Was sagt ein Gammawert von 1, größer und kleiner aus?
1 = keine Veränderung >1 = Kontrastzunahme <1 = Kontrastabnahme
Logarithmische Gammakodierung?
für menschliche Helligkeitswahrnehmung optimierte Schritte
durch die logarithmische Gammacodierung liegen die CVs visuell besser verteilt vor
Optimierte Verteilung der CVs in alle Bereiche des Kontrasts einer Szene (70CVs)
bessere Möglichkeiten für Colorgrading, da in allen Helligkeitsstufen ausreichend CVs
–> Visueller Gewinn von Dynamikumfang bei reduziertem Datenaufkommen
Monitoring bei log?
lin gespeichertes bild wird log abgespeichert und log angezeigt.
–> sieht low aus, kontrast low etc
–> lösung: luts steilen das bild beim monitoring wieder schnell auf
Gängige Methoden zur Belichtungskontrolle?
Monitor
Video Waveform
False Color Mode
empfehlenswerte Belichtungstechnik?
Expose To The Highlights!
kurz vorm clippen
im nachhinein exposure runter –> noise geht auch runter
Belichtungskontrolle Video Waveform?
Video Waveform:
externes Messgerät, oder als Software integriert.
stellt einzelne oder alle Videozeilen übereinander als Luminanzplot dar
Funktion ist Signal- und Kurvenabhängig.
auch als RGB-Parade oder RGB-Overlay
–> sehr gut geeignet, um einzelne Bildbereiche konstant zu belichten
Belichtungskontrolle Monitor?
Monitor.
traditioneller SMPTE Farbbalken (farbbalken mit den wesentlichen Elementen des Pluge-Testbilds)
Problem:
birgt große Chance Fehler bei der Belichtung zu machen
(Qualität des Bildschirms, Umgebungslicht, …..)
Belichtungskontrolle False Color Mode?
färbt Bildbereiche nach Helligkeitspegel/bereicen nach Farben ein.
cool and good
Belichtungskontrolle externe Devices?
Belichtungsmesser.
Man geht zum Objekt und tut so, als ob man es selbst wäre. Kalotte richtung Cam. Misst einfallendes Licht auf das Objekt (IN LUX)
Wenn man nicht hingehen kann –> Objektmessung.
Ist aber ungenauer und ähnlich dem Kameraeigenen approximierten Wert.
Farbtemperaturmesser!!!!!!!!!!!! gibts auch. für weißabgleich
Kenngrößen der Lichtmessung?
Lichtstrom: Lumen
Lichtstärke: Candela
Beleuchtungsstärke: Lux
Leuchtdichte: nit oder cd/m^2
EV’s (exposure values) sind als relative Einheit universell und unmissverständlich
logarithmische Einheit, steht für ganze Blendenstufen
Was geben Belichtungsmesser an?
den Blendenwert, bei dem die gemessene Lichtenergie mittleres Grau erzeugen wird.
Ermittlung derKontrastübertragung einer Kamera?
Durch Testen!
1.
Kamera auf Grundempfindlichkeit einstellen (ISO)
18% Graukarte gleichm+ßig auf offene Blende
ausleichten (z.B. T: 1,4)
stufenweise abblenden - jeden Schritt dokumentieren und kurz aufnehmen
bis kein nutzsignal mehr sichtbar ist
2.
Licht anpassen um 18% Graukarte auf kleinste Blende auszuleuchten
stufenweise aufblenden - jeden schritt dokumentieren und kurz aufnehmen
bis zum absoluten Clipping fortfahren
separat Noisefloor (geschlossener Deckel) und White Clipping (mit handy led oä) ermitteln
3.
Daten per Software analysieren (Davinyc Reslav)
4.
Kurvenplot erstellen
5.
Profit
ETTR?
Expoze to the Rite
Rezeptoren für Farbstimuli im menschlichen Auge?
Stäbchen: 130 Mio Nachtsehen S/W Blau-Grün empfindlich nur in Dunkelheit aktiv
Zapfen: 6 Mio aktivert bei ausreichend Licht Reagieren jeweils auf R, G oder B Hell-Grün empfindlich (besonders, hellste Farbe, am wichtigsten für Helligkeitsempfindung)
Farbwahrnehmung abhängig von Licht. Seharten:
Photopisches Sehen: == Foto Tagsehen, Zapfensehen helladaptiertes Auge 555nm is king, hellgrün
Mesopisches Sehen:
== some
Dämmerungssehen
Zapfen und Stäbchen gemischt
Skotopisches Sehen == Skull Nachtsehen, Stäbchensehen dunkeladaptiertes Auge 505nm is king, blaugrün
Was beschreibt die V-Lambda-Kurve?
Die V-Lambda-Kurve beschreibt die spektrale Hellempfindlichkeit des menschlichen Auges beim Tag- und Nachtsehen.
Es ist zu erkennen, dass sich die spektrale Hellempfindlichkeit beim Nachtsehen von Gelb-Grün zu Blau-Grün verschiebt.
Dreifarbtheorie?
Primärfarben: RGB
Sekundärfarben: aus 2 Primärfarben gemischt
Komplementärfarben:
diejenigen Farben, die zusammen vermischt weiß ergeben. stehen sich im Farbkreis gegenüber.
Farbmischung? 2 Arten?
Additiv:
addition zu weiß
Lampen, Licht
Subtraktiv:
absorption zu schwarz
Filter, Druck
Standart-Farbtemperaturwerte in Kelvin.
Daylight: 5600K
HMI-Lampen
Glühlicht: 3200K
Glühfaden
100W Haushaltsbirne
funfact: Kerzenlicht: 1500K
momentanes Licht: 2K18
Farbtemperatur wird in Kelvin angegeben und bestimmt den Weißpunkt
Farbtemperatur im real life?
Tageslicht besteht aus warmem und kühlem Licht. (Sonne / Himmelsblau).
Das Verhältnis verändert sich kontinuierlich.
Weißpunkt muss deshalb immer konstant gehalten werden für ~ c o n t i n u i t y ~
Kann in der Kamera passieren oder in der Post (grading etc)
Farbtemp beeinflusst die Wahrnehmung aller Farben (Simultankontrast = beschreibt die Wechselwirkung von nebeneinander liegenden Farbflächen)
Konversionsfilter?
Nicht passende Farbtemperaturen (Daylight, Tungsten) können an der Cam in den standardisierten Kelvinwerten passend zur Farbsensibilisierung eines Bildträgers konvertiert werden.
Anpassung des Weißpunkts als Annäherungswert.
Filter–> Lichtverlust!
Not sure aber glaub nur relevant bei analogue
Was ist üblicherweise die Farbempfindlichkeit von Kamerasensoren in Kelvin?
3200K, Glühlicht
Farbmodelle?
Hue Saturation Value
sieht aus wie 1 cake, unten alles black, oben spektralfarben, mitte oben weiß
Hue Saturation Lightness 1 Kreisel von vorm oberster punkt white unterster punkt black äußere kante spektralcolors
und natürlich:
CIE XYZ
RGB-Farbmodell
8bit
exakte beschreibung eines Farbortes
farbton, farbsättigung, helligkeit
Farbraum Arten?
Virtuelle:
zur Vermessung und Bestimmung von Farbwerten
CIE XYZ, CIE LUV <3, LAB, LMS
Reale:
Farben, die real dargestellt werden können.
finden geräteübergreifend Verwendung
Rec.709, S-RGB, Rec.2020, DCI-P3)
Gamut?
Körper in einem Farbraum
Geräteabhängig limitierter Farbraum
Farbräume und ihre Anwendung?
DCI-P3: Film
Rec. 709 und Rec.2020: TV (letzteres UHD)
Nehmen Kameras mehr, als Auswertungzielfarbraum auf?
Filmkameras:
ja - Reserve in Farbgestaltung/Colorgrading
Raw - alles
Log- auch viel
Broadcasting:
in der regel nur Rec.709 der ziemlich scheisse ist und limiterte farben hat, aber display-referred ist. live und so
HD-Video - Rec.709 - reduziert
CIE-XYZ?
Farbmodell
theoretisch
geräteunabhängig
aufnahme - wandlung - cie - wandlung - wiedergabe
farbe ist zahlenmäßig erfassbar.
farbvalenzen umrechnung durch matrizenoperationen (präziseste wandlungsform!)
LUTs
Lookup Tables
Tabellen, die vorberechnete Werte enthalten fürs Farbmanagement
LIN ZU LOG!!!!
Echtzeit!
Benötigen Input und Output Color Space
1D: pro Farbkanal, über das gesamte Bild
3D: pro Pixel, “sekundäre Farbkorrektur”,
Qualität nicht die allerbeste, da Samplingraten, feste Werte
16x16x16 Previes (monitoring) 64x64x64 Renderingquali
Ziel des Colormanagement mit Luts?
auf allen 3 Endauswertungszielen (Broadcasting, Digital Cinema, Analoge Kopie) die gleichen Farben und Gammawerte (=Look) zu erreichen.
Analoge Kopie wird nach Grading gedruckt, die beiden anderen individuell geLUTtet. so matchen sie sich alle 3 am ende
ACES?
Academy Color Encoding System Standardisierter Farbraum (lin und log) Open Source Format über 30 Blendenstufen pro Pixel alle Farben des menschl. Sehsystems erfassbar.
Reference Rendering Transform (RRT) für abgedunkelte Kino-Umwelt.
Set von Reference Transforms vom Aces zu Standard-Farbräumen (recs, dci p3) –> OUTPUT DEVICE TRANSFORMS, ODT
wurde entwickelt, um alle Komponenten digitaler Workflows einzubeziehen:
Film, digicams, CGI, Compositing, Grading, Projektoren, …
von den oscar dudes
Farbkonversion von Kameras zu ACES
Vergleich von Reference Input Capture Device mit Input Device Transforms
Farbkonversion von ACES zu Auswertungszielen
Erstellen einer Reference Rendering Transform (RRT) (Master für untesch. Deliveries, zb Kino mit dunkler Umgebung)
in Kombination mit eigenen Output Device Transforms (zb für Broadcast, Kino, etc, jedes Delivery einzeln) im Anschluss.
YCbCr-Farbraum
Analogie zum menschlichen Sehsinn Aufspaltung in Komponenten 1. Helligkeit Y (vor allem aus grün gebildet) 2. Farbdifferenzsignale (CbCr) --> Datenreduktion 3:2
Farbunterabtastung bei YCbCr Farbdifferenzsignalen?
Welche gibt es und wofür sind sie geeignet?
4:4:4
Masteringqualität
Bearbeitung in Postprod
4:2:2 horizontal immer 1 ausgelassen Broadcasting wenig Flexibilität ausreichend für Wiedergabe
4:1:1
horizontal immer 3 ausgelassen
suboptimal, Konsumer
4:2:0
suboptimal
ND-Filter
einfache Neutral Density Filter lassen IR-Strahlung passieren. Problem….
deshalb IR Sperrfilter
wie zeichnet sich IR Kontamination aus?
Auf einmal keine reine Schwärzen, Farbverfälschung
Spatiale Auflösungsformate TV & Film
TV:
HDTV:
1920 x 1080
Rec.709
UHDTV (“4k”)
3840 x 2160
Rec.2020
DCI-Compilant Kino:
2K 16:9
2048x1152
2,4MP
4K 16:9
4096 x 2304
9.4MP
8K
35,4MP
Spatiale Auflösung:
Definition
Resolution
Detailauflösung
Schärfe
Definition:
Gesamtzahl der Pixel in einem digitalen Bild
Resolution:
Pixel pro Längeneinheit (Sensorbreite)
Detailauflösung:
Feinheit der Detailübertragung einer Ortsauflösung (Frequenzen, Linienpaare)
Schärfe:
MTF, kombi aus Resolution und Kontrast
MTF?
Heynacher Integral
Resolution + Kontrast = Schärfe.
Kaskadierung von MTF in Prozent von Aufnahme bis Wiedergabe.
Linse 60%
4:2:2 sampling 75%
Compression 99%
Projection Lens 60%
–> 27% MTF
MTF digitaler Kameras
Verlust von Kontrast bei steigenden spatialen Frequenzen
niedriger Füllfaktor eines Sensors kann opt. besser aussehen, aber Aliasing verstärken
Spatiale Interferenzen.
Wann entstehen sie?
2 Raster treffen aufeinander und bilden Artefakte
Aliasing: “Moirê-Effekt”
sampling-rate muss doppelt so hoch, als höchste frequenz sein, um aliasing zu vermeiden.
den grenzbereich nennt man:
Nyquist frequency limit
nyquist abtast-theorem.
Spatiale Interferenzen.
Was kann man dagegen machen?
Digitaler Filter
Optischer Filter (OLPF)
gezielte Unschärfe beseitigt Moiré-Effekt
geht auf Kosten der Auflösung (Detailwidergabe)
nachfolgende Kantenschärfung notwendig
einige Hersteller bieten untersch, auswechselbare OLPFs für versch. Anwendungszwecke an.
wichtig: passende OLPFs nehmen, sonst ganz komische effekte
Datenreduktion bei der Sensorauslesung. Wieso und wie? Was sind Probleme, die auftreten?
18MP zb sind zu viel für 2k Video. Weniger machen bei der Aufnahme:
Pixelskipping
zugunsten der Optik (DOF)
starkes Aliasing
Cropping
kleinere Sensorfläche
Aliasing, andere Optik (Brennweite etc)
Weniger machen bei Post:
alle Bildpunkte aufnehmen, dann n1es Debayer in der Post
–> sehr gut
Qualitäts Standards DCI
DSM?
DCDM? Parameter?
DSM:
Digital Source Master
Quellmaterial, wenig spezifiziert
DCDM:
Digital Cinema Distribution Master
feste Parameter, international relevant
Parameter:
2K oder 4K
flat (1:1,85) oder scope (1:2,39)
keine anamorphotisch-optische Kompression
24Hz, 48Hz XYZ Farbraum 6500K Weißpunkt 2,6 Gamma 12 Bit Kodierung
DCP
Digital Cinema Package
in MXF-Files verpackt
250Mbit/s
braucht dringend Erweiterung für 4K, HFR 120fps etc.
4K läuft nur auf 24Hz, 2K auch auf 48.
Projektor und DCI?
Dci-Compilant
sagt, was ein Projektor können muss
48nit leuchtdichte 2k und 4k Auflösung (und zwar flat+scope, also maxima) 2,6 Gamma 150:1 intraframe 2000:1 sequentiell
Video im XYZ-Farbraum
Audio mit bis zu 16 Kanälen, unkomprimiert
Zusammenfassung MTF Projektion
Kontrast: Projektor Optik (incl. Schutzscheibe) Screengain Leuchtdichte Streulicht Dynamic Range
Messmethoden:
Off to On, sequentiell, 2000:1
ANSI (Checkerboard), simultan, 550:1
In Situ (kombi aus oberen) 200:1
Filmformate:
1,33:1
Stummfilme, open Gate, ohne Ton
1,37:1
mit Tonspur
ACADEMY
später als 4:3 genannt
1,85:1
Amerikanisches Breitwandformat
“flat”
DCI NORM
2,4:1 (analog) 2,39:1 (digital)
CinemaScope
analog mit anamorphotischen Objektiven aufgezeichnet und Projiziert. Digital nicht mehr
dig: DCI NORM
1,66:1
war in eu verbreitet
natives verhältnis von super 16mm
Historische Formate
wichtigste Bildformate für 35mm
- Academy 1:1,37
- Amerikanisches Breitwandformat 1:1,85
- CinemaScope 1:1,8 Aufnahme
Projektion:
1: 2,40 analog
1: 2,39 digital
weitere: Vistavision quer auf Film nahezu wie kleinbildsensor 36x24 1:1.49
1: 2
1: 1,66 (super 16)
Ton gespeichert analog wie?
Bilateralschrift, tonspur 22 frames vor der bildspur, läuft kontinuierlich und nicht sequentiell
Film zu Fernsehen? Format?
Letter oder Pillarbox wird eingebaut. Manchmal auch gecroppt