Lektion 3: Multimediaplattformen und -systeme Flashcards

1
Q

Multimedia-Authoring-Tool

A

Hierbei handelt es sich um eine Software, mit der multimediale Inhalte zu einer größeren zusammengefügt werden können, in der Interaktivität hergestellt wird.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

3-D-Multiview-Video

A

Bezeichnung für ein 3-D-Video-System, das mit Multiview Video Coding (MVC) umgesetzt wird. Dieses ist eine Erweiterung für den Video-Codec H.264/AVC bzw. H.265/HEVC (Fraunhofer IHH 2019).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Hypermedia

A

eine Multimediaanwendung, die netzartige, mithilfe von Hyperlinks verknüpfte Medien wie Text, Bild, Ton, Grafik und Video beinhaltet

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Lineare Medien

A

Bei linearen Medien handelt es sich z. B. um TV-Angebote, die im klassischen Sendebetrieb chronologisch ausgestrahlt werden. Der nicht lineare Konsum erfolgt beliebig.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

One-Pager

A

Bezeichnung für eine Webseite, auf der alle Inhalte auf einer einzigen Seite dargestellt werden. In der Regel können erweiterte Inhalte über JavaScript bedarfsgerecht nachgeladen werden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Walkthrough

A

Bildschirmaufzeichnung eines Online-Spielverlaufs, der die besonderen Herausforderungen des Spiels thematisiert.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Reality Content

A

Inhalte, die ungeschönte oder unbearbeitete Szenen aus dem Leben und Umfeld von Personen wiedergeben

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Remix-Kultur

A

Dieser Begriff steht für das Neu-Mischen von Inhalten und damit die Erstellung neuer Werke im Sinne von Collagen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Codec

A

Algorithmen, die Daten oder Signale digital kodieren und dekodieren.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

IP-Telefonie

A

Internet Protokoll Telefonie; Telefonkommunikation über Internetverbindung und Rechnernetze, anstelle analoger Leitungen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Corporate Media

A

Medieninhalte, die in Unternehmen zu Werbe- oder Imagezwecke produziert werden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Snackable Content

A

Hierunter versteht man kurze, leicht verdaulich aufbereitete Medieninhalte, die ihre Aussage auf den Umfang weniger Sekunden oder Minuten reduzieren.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Storyboarding

A

Bezeichnung für ein comicartiges Panel, das die Szenen, Dialoge und Abläufe einer Filmproduktion oder Animation skizziert.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

CGI

A

Die Abkürzung steht für Computer Generated Imagery und meint per 3-D-Animation bzw. Computergrafik erzeugte Bilder oder Sequenzen in einer Filmproduktion.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

DRM

A

Dieser Begriff bezeichnet Maßnahmen, die das Kopieren, Herunterladen, Speichern und Weiterverbreiten urheberrechtlich geschützter Inhalte verhindern.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Advanced Applications

A

Bezeichnung für hochentwickelte oder fortgeschrittene Anwendungen und Systeme, die für technisch komplexe, hochspezialisierte Bereiche eingesetzt werden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

SQUID

A

Hierunter versteht man einen Proxyserver und Web-Cache aus der GNU General Public License mit guter Skalierbarkeit.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

lighttpd

A

Ausgesprochen: „lighty“. Hierbei handelt es sich um einen Webserver, der, anders als sein Name es vermuten lässt, besonders für Dienste mit hoher Auslastung (Load) geeignet ist.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Python

A

Bezeichnung für eine höhere Programmiersprache mit reduzierter, übersichtlicher Syntax zur objektorientierten, strukturierten Programmierung.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Evolutionäre Architektur

A

Die evolutionären Serverarchitekturen sind modular konzipiert, sodass Erweiterungen und Wachstum möglich sind, während die Gesamtanwendung weiter funktional bleibt. Das Gegenteil ist eine monolithische Serverarchitektur, bei der sich Veränderungen an einer Stelle auf die gesamte Funktionalität auswirken können.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Shard

A

Shards sind „Splitter“, im Sinne speziell organisierter Datenbankpartitionen, die auf unterschiedlichen Datenbankservern und Hardware horizontal verteilt gespeichert werden, um die Datenbank-Last zu reduzieren.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

NoSQL

A

Dieser Begriff steht für „Not only SQL“. Es handelt sich um nicht-relationale, horizontal skalierbare Datenbanken, die auf SQL basieren, aber kein festgelegtes Tabellenschema benötigen, sondern auf Performance und Skalierbarkeit ausgelegt sind. NoSQL eignet sich besonders für Big-Data-Anwendungen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

Geoblocking

A

Regionale Sperrung von Internetinhalten – meist aufgrund von Lizenzeinschränkungen – durch den Anbieter auf Basis der Nutzer-IP.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

4K-Video

A

Bezeichnung für HD-Videos mit einer Auflösung von in etwa 4.000 Pixel (Bildbreite). 8K steht entsprechend für UHDTV (Ultra HD-TV).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
Q

CABC

A

Die Abkürzung steht für „Context-based Adaptive Binary Arithmetic Coding“; eine verlustfreie Entropiecodierung für Binärdaten, die im Video-Codec H.264 AVC angewendet wird.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
26
Q

ZIP-Kompression

A

Hierbei handelt es sich um eine Archivkompression, die mehrere Dateien verlustfrei in einem komprimierten Ordner zusammenfasst und diesen als ZIP-Datei ablegt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
27
Q

Psychoakustik

A

Hierunter versteht man die Wissenschaft zur Wahrnehmung von Schall durch den Menschen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
28
Q

AAC (Advanced Audio Coding)

A

ein verlustbehaftetes Audiodatenkompressionsverfahren auf Basis modifizierter diskreter Kosinustransformation (MDCT)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
29
Q

Dashboard

A

Hergeleitet vom deutschen Begriff „Armaturenbrett“ stellt ein Dashboard im hier verwendeten Sinn eine grafische Benutzeroberfläche insbesondere bei Online-Applikationen dar, die zur Administration von Software (in der IT von Servern) dient und einen Überblick über die relevanten Inhalte der Anwendung zusammenfasst.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
30
Q

Spatial Audio

A

Hierunter versteht man räumliches Audio, 3-D- und immersive Sound.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
31
Q

LC-Low Complexity

A

Hierbei handelt es sich um ein Profil für Audiodateien, die mithilfe von AAC (Advanced Audio Coding) mit mittlerer bis hoher Bitrate codiert werden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
32
Q

Frame Rate

A

Dieser Begriff bezeichnet Bildraten, die angeben, wie viele Bilder in einem Video/Film pro Sekunde aufgezeichnet bzw. wiedergegeben werden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
33
Q

VP9

A

Hierunter versteht man einen 2013 von Google publizierten, offenen Codec für Webvideo, basierend auf OGG, den YouTube zur Codierung von Videos mit hohem Besucheraufkommen nutzt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
34
Q

Invite-only

A

Nur speziell ausgewählte Nutzer, die eine Einladung erhalten, haben zu diesem Service Zugang

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
35
Q

Wearables

A

Dieser Begriff bezeichnet ein als Accessoire tragbares, technisches Gerät, das die Anbindung an Onlinedienste erlaubt und Datenaustausch und Vernetzung bietet.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
36
Q

Voice Assistance

A

Dies ist die Bezeichnung für digitale Sprachassistenten, die sprachgesteuert Aufgaben verrichten (Beispiele: Cortana, Alexa/Echo, Siri, Google Assistants. etc.).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
37
Q

Stripe

A

Dies ist eine Software-Plattform für Online-Zahlungsabwicklung. Die Integration erfolgt über das Stripe API, das auf der RESTful-Technologie basiert.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
38
Q

EP – Extended Play

A

Dies ist eine Kompilation von Musikstücken, die in der Abspiellänge zwischen einer Single und einem Album (früher: LP – Langspielplatte) liegt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
39
Q

PCM – Pulse Code Modulation

A

Bezeichnung für ein spezielles Verfahren, das ein analoges Signal in ein digitales Signal umwandelt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
40
Q

Beta-Version

A

Die Bezeichnung für ein Softwareprodukt, das in seiner Entwicklung zwar bereits so fortgeschritten ist, dass es publiziert werden kann, sich aber dennoch in einer Testphase befindet.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
41
Q

Encrypted Media Extensions (EME)

A

Hierbei handelt es sich um eine Spezifikation des W3C für den Datenaustausch zwischen einem Webbrowser und einer DRM-Software.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
42
Q

Early Adopters

A

So bezeichnet man Personen, die zu den Ersten gehören, die eine neue Technologie nutzen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
43
Q

IMF

A

Die Abkürzung steht für Interoperable Master Format; ein SMPTE-Standard (Time-Code-Standard von Sendern zur Synchronisation verschiedener Geräte sowie diverser Video- und Audiotechniken).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
44
Q

Rich Client Application

A

Hierunter versteht man eine Applikation, bei der der größte Teil der Datenverarbeitung im Client (z. B. Browser) stattfindet.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
45
Q

Source Requests

A

Bezeichnung für Quellenanfragen und Liefertermine, die Netflix auf der Grundlage vorläufiger Titel- und Inhaltslisten eines Anbieters ausgibt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
46
Q

Konkrete Plattformangebote im Unterhaltungs-, Konsum- und Informationssektor sind:

A

-Gaming-Plattformen (Social-, Video- und Mobile-Games),
-Streaming-Plattformen (Video-on-Demand und Audio/Podcasts),
-News-Portale (interaktive Reportagen/Datenjournalismus),
-E-Learning-Angebote (z. B. Game-Based-Learning),
-Live-Services (geodatenbasierte Navigationsdienste wie z. B. Google Maps).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
47
Q

Typische Anwendungsfälle, die sich aus den Einsatzgebieten für Multimediaplattformen ergeben, sind:

A

-Conferencing (Videokonferenzportale wie Zoom, Skype etc.),
-Streaming (Youtube, Vimeo, Stitcher, Spotify),
-IPTV (Netflix, Mediatheken, Gamesportale),
-Webcast (Live-Übertragungen).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
48
Q

Neben Werbung kommen vielfältige Informations- und Unterhaltungsformate zum Einsatz, wie:

A

-Reportagen,
-Serienformate,
-Interviews
-How-To’s/DIY (Do-it-Yourself-Szene),
-Erklärvideos,
-Unternehmensfilme,
-Live-Event-Reportagen

49
Q

Wichtige Technologien in Multimedianetzwerken sind:

A

-Plattformtechnologien (Hypermedia, Serverarchitektur),
-Netzwerktechnologie (Übertragung, Bandbreiten, Streaming),
-Datenaufbereitung und Verarbeitung (Coding, Kompression, Algorithmen),
-Schnittstellen und APIs.

50
Q

Multimediaplattformen werden auf komplexen Serverarchitekturen betrieben. Die technischen Komponenten, aus denen sich diese Umfelder meist zusammensetzen, sind:

A

-Webserver (Auslieferung des Dienstes),
-Videoserver (Speicherung datenintensiver Inhalte),
-Thumbnail Server (Speicherung und Verwaltung großer Mengen Bilder),
-Datenbanken (Speicherung von Verknüpfungen und Metadaten)

51
Q

Über die Integration verschiedener API-Codes können externe Applikationen damit auf Informationen zugreifen oder bestimmte Aktionen durchführen. Zum Beispiel:

A

-Playlisten erstellen,
-Channel-Feeds (Bulletins/Kanal-Feeds) integrieren,
-Abonnements verwalten,
-externe Anfragen autorisieren,
-Uploads durchführen und verwalten sowie
-Keywordsuchen ausführen.

52
Q

Da Spotify die Anbindung an viele externe Dienste und Devices anbietet, ist auch der Entwicklerbereich stark ausgebaut. Die Plattform bietet APIs und SDKs (Software Development Kits) an. Entwickler finden dort Informationen zu:

A

-Spotify Web API,
-Web Playback SDK,
-Arbeiten mit iOS,
-Arbeiten mit Android und
-Spotify Widgets.

53
Q

Das derzeit (Stand Juli 2019) in einer Beta-Version vorliegende Web Playback SDK von Spotify ist eine clientbasierte JavaScript-Bibliothek, die die Entwicklung neuer Player erlaubt, um Titel von der Plattform in einem Browser über Encrypted Media Extensions (EME) abzuspielen. Das Web Playback SDK erlaubt:

A

-Erstellung neuer Player mit Spotify Connect,
-Audio Streaming über unterstützte Browser,
-Abruf von Metadaten des jeweils abgespielten Tracks,
-Abruf von Metadaten über die Session eines Nutzers sowie
-Integration lokaler Playbackfunktionen (Pause, Play, Volumen etc.)

54
Q

Die genutzten Anwendungen und Technologien der Plattform decken verschiedene Bereiche ab, wie:

A

-Auswertungen von Big Data (große Datenmengen),
-Entwicklungs- und Auslieferungs-Tools (Build and Delivery),
-Common Runtime Services (Standard-Laufzeitservices) und Bibliotheken,
-Tools zur Codierung von Inhalten,
-Lösungen zur Datenpersistenz (Aufbewahrungszeiten), Stabilität und Performance,
-Tools für Sicherheit,
-User-Interface-Entwicklung (Benutzeroberflächen).

55
Q

Content-Partner und deren Partner können damit:

A

-den Status der gelieferten oder zu liefernden Inhalte überprüfen,
-Termine für Medienlieferungen im Blick behalten,
-ihre Teams und Partner in die Workflows integrieren und
-die Performance der Inhalte in Echtzeit prüfen.

56
Q

Weitere hilfreiche Content-Tools sind:

A

-API Developer’s Toolkit: Bereitstellung der Backlot Source Requests & Delivery Management API zur automatisierten Anlieferung und Verwaltung von Inhalten an Netflix und zur Generierung der erforderlichen API Keys für den Zugriff auf die Backlot API.
-IMF (Interoperable Master Format) Tools: Tools, die zur Erstellung komponentenbasierter Medienformate genutzt werden. Diese verwalten alle Medieninhalte wie Sound, Bilder, Videosequenzen, Untertitel, Metadaten usw. in separaten Dateien und setzen sie bei der Wiedergabe zusammen. So werden Zulieferungsprozesse optimiert und Korrekturvorgänge können framebasiert durchgeführt werden. Die Umsetzung von Versionierungen bzw. Lokalisierungen und das Downstreaming wird erleichtert. IMF ist ein offenes und erweiterbares Format.
-QC (Quality Control) Tools: Werkzeuge zur Qualitätskontrolle, die die Einhaltung der Spezifikationen prüfen, automatisierte Verifizierung von Inhalten und automatisierte Qualitätskontrollen und Korrekturen durchführen.
-Timed Text Tools: Tools zur Integration textbasierter Inhalte wie Untertitel, Anmerkungen etc.

57
Q

Multimediaanwendungen sind demnach „multimodal“. Was bedeutet das?

A

d. h., sie binden Medienmodule ein, die mehrere menschliche Sinne gleichzeitig ansprechen.

58
Q

Wozu wird das Multimedia-Redaktionsformat „Scrollytelling“ genutzt?

A

Es wird genutzt, um journalistische Inhalte als One-Pager aufzubereiten, auf denen Leser durch das Navigieren im Browser (Scrollen) eine lineare Handlung nachvollziehen und mit dem Inhalt (Text, Audio, Video) interagieren können. Es wird im redaktionellen Bereich und für das Corporate-Publishing in Unternehmen eingesetzt. Scrollytelling-Tools sind Racontr, Storyform oder Pageflow.

59
Q

Wie können Multimediaformate ausgegeben werden und welche Ausgabeart wird online bevorzugt?

A

Multimediaanwendungen können als softwarespezifische „Stand-alone-Containerformate“ (.app/.exe) zur Installation auf einem Endgerät ausgegeben werden oder als Hypertextanwendungen konzipiert sein (Hypermedia). Online dominieren Hypertextanwendungen, die diverse Inhalte zu Multimedia vereinen.

60
Q

Was war der erste Anwendungsbereich für Streaming?

A

Einer der ersten Anwendungsbereiche für Streaming war das Internetradio

61
Q

Wann kommen Webcasts zum Einsatz?

A

Webcasts kommen z. B. für Vorlesungen, Webinare und Events oder nutzerstarke Meetings wie Konferenzen zum Einsatz. Außerdem werden sie gerne für Live-Produktvorstellungen genutzt, die von mehreren Tausend Zuschauern gleichzeitig gestreamt werden können (Barz/Bassett 2016, S. 16). Häufig werden Übertragungen zusätzlich aufgezeichnet, damit sie im Nachhinein von Nutzern (teils gegen Entgelt, on-demand) abgerufen werden können.

62
Q

Was ist IPTV?

A

IPTV steht für Internet Protocol Television, was auf Deutsch Internetfernsehen bedeutet. Es handelt sich um eine Technologie, bei der Fernsehprogramme und Videoinhalte über das Internet an den Fernseher oder ein anderes Endgerät übertragen werden. IPTV ermöglicht es den Benutzern, Fernsehsendungen und Videoinhalte nach Bedarf anzusehen. Es bietet Funktionen wie zeitversetztes Fernsehen (Time-Shift), bei dem Benutzer eine Sendung pausieren, zurückspulen oder vorspulen können, sowie Video-on-Demand (VoD), bei dem Benutzer aus einer Bibliothek von Filmen und TV-Sendungen wählen können.
Magenta-TV ist ein Beispiel von IPTV.

63
Q

Was ist digitales Broadcasting?

A

Digitales Broadcasting bezieht sich auf die Übertragung von Rundfunkinhalten, wie Fernsehsendungen und Radioprogrammen, in digitaler Form. Im Gegensatz zum analogen Broadcasting, bei dem die Inhalte als analoge Signale übertragen werden, werden beim digitalen Broadcasting die Inhalte in digitale Daten umgewandelt und übertragen.

64
Q

Multimediale Netzwerke und ihre Teilnehmer können in vier Bereiche gegliedert werden. Welche sind das?

A

Zunächst bilden die Content-Ersteller bzw. -Provider einen wesentlichen Bestandteil in einer Multimediastruktur. Sie erstellen und lizenzieren bei Bedarf Inhalte und liefern diese entlang erforderlicher technischer Spezifikationen an einen Plattformbetreiber (Service-Provider) aus. Dieser sorgt für technische Anpassungen und die Auslieferung der Inhalte an die Abonnenten und Nutzer über einen Netzwerk-Provider und stellt interaktive Features bereit.

65
Q

Was ist ein Videocontainer?

A

Ein Videocontainer stellt bereits ein auf einer Multimediaplattform publizierbares Medienformat dar, das in die Anwendung eingebunden und modular erweitert werden kann, z. B. durch Untertiteldateien und alternative Tonspuren oder grafische Elemente.

66
Q

Was macht ein Service Provider?

A

Ein Service Provider ist ein Anbieter, der eine Plattform bereitstellt und angelieferte Inhalte für die Auslieferung an User und Abonnenten über Netzwerke für diverse Endgeräte und Technologien aufbereitet (Ramirez 2008, S. 24). Daten, die bei einem Service Provider ankommen, werden in der Regel weiteren technischen Anpassungen unterzogen, um plattformkompatible und anwendungsangepasste Formate zu erstellen.

In diesem Workflow werden angelieferte Mediendateien zunächst (automatisiert) geprüft (Qualitätskriterien, Auflösungen, Bildfrequenzen) und für das Streaming optimiert, bevor sie in Form von Feeds, als lineare Broadcastingangebote oder per VoD an die Abonnenten und Nutzer ausgespielt werden.

67
Q

Webserver, die Multimediaplattformen hosten, nutzen häufig welche Betriebssysteme?

A

Sie nutzen häufig als Basis-Betriebssystem Linux- und Apache-Webserver.

68
Q

Was sind Caching-Systeme?

A

Caching-Systeme wie Memcached reduzieren die Datenbankauslastung auf Multimediaplattformen, indem sie bereits abgefragte Daten in Cache-Dateien auf Servern speichern, sodass diese schneller repliziert werden können, weil sie aus dem Cache und nicht aus der Datenbank abgerufen werden. YouTube hat hierfür beispielsweise im Jahr 2012 eine eigene Software (Vitesse) entwickelt, die MySQL für die speziellen Anforderungen seiner hochleistungsfähigen Produktionsumfelder optimiert

69
Q

Welcher Standard ist zur Auslieferung von Audio und Video im Bereich der digitalen TV-Übertragung relevant?

A

Speziell der MPEG-Standard ist für die Auslieferung von Audio und Video und den Bereich der digitalen TV-Übertragung relevant. Die darin beschriebenen Technologien erfüllen die Anforderungen an Bitraten und Kompressionsmethoden für digitale TVs und HDTV

70
Q

Welche Codecs gehören zu den Standards für die Aufbereitung von Dateien für Multimediaportale

A

Speziell die unter MPEG-4 beschriebenen Videocodecs H.264 und H.265 gehören zu den Standards für die Aufbereitung von Dateien für Multimediaportale. Im Bereich „Audio“ spezifiziert die Norm MPEG-4-Audio Profile für verschiedenste Umgebungen und Anwendungsszenarien.

71
Q

Welcher Videostandard kommt für HDTV zum Einsatz und wird unter anderem für Broadcasting via Kabel, Satellit und DSL, für interaktive DVDs und Blu-ray-Discs, Kommunikationsservices via ISDN und mobile Technologien, für Video-on-Demand und Multimedia-Messaging genutzt?

A

H.264 ist als Videostandard in Teil zehn von MPEG-4 definiert. Im Vergleich zu seinem Vorgänger H.263+ erzielt H.264 Datenersparnisse bei besserer Qualität, d. h. er ist bandbreitenökonomischer.

72
Q

Was nutzt H.264 zur Codierung?

A

die Lauflängencodierung CAVLC (Context Adaptive Variable Length Coding), eine „kontextabhängige, verlustfreie Entropiecodierung“ (Richardson 2003). Vor allem seine speziellen Methoden der Bewegungskompensation (Motion Compensation, es werden bei Bewegungen nur Veränderungen zwischen Frames gespeichert, nicht die gesamte Bildinformation) und Filtertechniken (Deblocking-Filter zur Entfernung von Kompressionsartefakten) steigern die visuelle Qualität von mit H.264 codierten Videodateien erheblich.

73
Q

Welcher Codec steigert Kompressionsraten von Videos bei gleichbleibender Qualität nochmals deutlich und bildet die aktuelle Grundlage für das sogenannte 4K-Video?

A

H.265/HEVC. Mit dem Codec sind Videoauflösungen ab QVGA (320 x 240 Pixel) bis maximal UHD-2 bis 8 K (Auflösung/Bildbreiten bis 8.000 Pixel) möglich, was die aktuellen Anforderungen an UHDTV (Ultra High Definition Television) erfüllt. H.265 erzielt eine etwa fünfzigprozentige Reduzierung der Bilddatenrate. Er unterscheidet sich von seinem Vorgänger H.264/AVC vor allem durch ein neuartiges Konzept der Datenkompression und den Einsatz verlustfreier Codierungsmethoden wie CABAC (verlustfreie Entropiecodierung).

74
Q

Waveform Audio File Format (WAV)

A

WAVE oder WAV ist ein meist unkomprimiertes Windows-Audioformat, das von IBM und Microsoft für Windows-Betriebssysteme entwickelt wurde und auf Pulse Code Modulation (PCM) basiert (Truesdell 2007, S. 516). WAV-Dateien können verlustfrei und verlustbehaftet gespeichert werden und sind fast überall abspielbar. Das Format kommt z. B. auf der Plattform iTunes und auf Spotify zum Einsatz. Es bietet eine hohe Tonqualität mit einer Sampletiefe von acht bis 32 Bit und Abtastraten von 44,1 kHz (Standard für Stereo) und mehr. WAV-Files sind für die Onlinenutzung kompatibel, in unkomprimierter Form können sie mitunter sehr groß werden und werden deshalb ggf. in datensparsamere, akustisch aber niedrigere Dateiversionen oder andere Formate wie MP3 oder MP4 konvertiert. WAV ist ein Standardformat für den Upload von Audiodateien auf Spotify oder YouTube.

75
Q

FLAC (Free Lossless Audio Codec)

A

FLAC ist einer der meistgenutzten Codecs für verlustfreie Audiokompression im Open-Source-Bereich. Er nutzt ausschließlich patentfreie Technologien und gehört zu den schnellsten verlustfreien Verfahren. Die Größe von Musikdateien wird um 30 bis 75 % reduziert. Das Format ähnelt MP3 und nutzt einen speziell an Audio angepassten Algorithmus auf Basis der ZIP-Kompression. FLAC-Audiofiles sind mit einer Reihe von Mobile und Hardware Devices abspielbar und streambar (auf Deezer oder qobuz sogar in Stereoqualität mit 16 Bit/s, 44,1 kHz). Das Format unterstützt Mehrkanal-Audio und Surround-Sound bis zu acht Kanälen sowie hohe Auflösungen (bis 32 Bit und Abtastfrequenzen (bis ca. 655 kHz). Es ist ein Standardformat für Audio-Uploads auf Spotify und kann als Datenformat für YouTube Audio-Uploads genutzt werden.

76
Q

Auf welchen Codecs basiert MP3?

A

basiert auf den Codecs MPEG-1 und MPEG-2 Audio Layer III. MP3 greift auf psychoakustische Wahrnehmungsmodelle zurück und erzielt gegenüber WAV-Dateien eine bis zu 11-fache Datenersparnis bei CD-Qualität

77
Q

MP3 erlaubt die Codierung für variable Bitraten (VBR). Was bedeutet das?

A

d. h., die Datenrate zur Übertragung muss bei der Codierung nicht fest vorgegeben sein.

78
Q

MP3 ist ein Audioformat. Was ist der Unterschied zu MP4?

A

MP4 ist nicht nur ein Audioformat, sondern vor allem ein flexibles Video-Container-F, dessen Flexibilität es zum Vorreiter im Web macht. Die gebräuchlichste Dateiendung ist „.mp4“. Der MP4-Container kann Audio- und Videocontent enthalten. Dateien, die nur Audios enthalten, können mit der Endung „.m4a“ (Apple-Format) gekennzeichnet werden. MP4-Dateien liefern ggf. Videos mit HD-Bildqualität mit geringem Datentransferbedarf. Sie werden speziell für die Nutzung auf YouTube empfohlen, für reine Musik-Streamingdienste wie Spotify eignen sie sich nicht.

79
Q

OGA/OGG Vorbis

A

Das Audioformat „Ogg Vorbis“ ist eine lizenzfreie Alternative zu MP3 und wird häufiger im Bereich Webradio eingesetzt, z. B. im Online-Streaming des Deutschlandradios. Es unterstützt 255 Kanäle mit variabler Bitrate und wird im Multimedia-Containerformat Ogg (Dateiendung „.ogg“ oder „.oga“) zusammengefasst. Mit ähnlichen Merkmalen wie MP4 eignet sich Ogg Vorbis für mittlere bis hohe Qualitätsanforderungen (bis 48.0 kHz, und feste oder variable Bitraten bis 128 kbps pro Kanal) und Surround Sound/3-D-Audio (bis 255 Kanäle). Vorbis-Audiodateien können auch in anderen Containerformaten wie Matroska oder WebM (ein Ausgabeformat von YouTube) eingebunden werden.

80
Q

Was ist ein Codec?

A

Ein Codec (Codierer/Decoder) ist eine Software oder ein Algorithmus, der für die Komprimierung und Dekomprimierung von Daten verantwortlich ist. Ein Audiocodec komprimiert Audiodaten, indem er redundante oder nicht wahrnehmbare Informationen entfernt und die verbleibenden Daten effizienter darstellt.

Es gibt zwei Arten von Audiocodecs: verlustbehaftete und verlustfreie Codecs.

81
Q

WebM

A

WebM („.webm“) entwickelt sich als offener Webstandard für Video zu einem wichtigen Format für Videos im Web. Es basiert auf dem freien Containerformat Matroska und wurde speziell für die Nutzung mit HTML5 entwickelt. WebM unterstützt als Containerformat für Audio- und Videodaten die von Google eingeführten freien Video-Codecs VP8 und VP9 (WebM Project 2019), die auch auf YouTube zur Codierung bestimmter Videoinhalte genutzt werden. WebM eignet sich als Alternative zu MP4 für Web, weil es neuartige Anforderungen an Medienkonsum besser berücksichtigt. Es ist kompatibel mit unterschiedlichster Hardware (mobile Geräte), stellt ein sehr einfaches Containerformat dar, kann Real-Time-Videos in hoher Qualität ausgeben und nutzt Codecs mit Minimalanforderungen. Als Dateiformat wird WebM in HTML5 u. a. von den Browsern Mozilla und Opera unterstützt. Manche Browser benötigen ein Browser-Plugin.

82
Q

Matroska

A

Das Containerformat Matroska (Dateiendung „.mkv“ für Video, „.mka“ für Audio, „.mks“ für Untertitel oder „.mk3d“ für Matroska 3D/Stereoscopic Video) wird auf manchen Plattformen als Alternative zu MP4 eingesetzt. Es nutzt für die Kompression verschiedene Audio- und Video-Codecs (H.264 oder ACC oder MP3 etc.), unterstützt alle MPEG-Standards, Real Video (proprietärer Codec) und den freien Codec Theora und kann beliebig viele Mediendateien enthalten, also Audio- und Videoinhalte und externe Untertitel-Dateien. Matroska eignet sich außerdem fürs Heimkino, ist aber nicht mit allen Endgeräten kompatibel, da es keine allgemeinen Standards für Wiedergabegeräte definiert (Spezifikationen: Website matroska.org) und einen speziellen Player benötigt.

83
Q

Was sind Widgets?

A

Widgets erlauben es, Inhalte bzw. Informationen extern in Webprojekte einzubetten, z. B. in die Website eines Labels oder eines Künstlers. Dies lässt sich über Einbettung von Code in Standard-HTML-Seiten, in responsive Layouts, auf Blogs in Social Seiten (Facebook, Twitter etc.), mit WordPress oder Apps wie Cloudflare bewerkstelligen. Um Spotify-Content in WordPress zu integrieren, muss z. B. nur ein bei einem Album oder Track hinterlegter Link in das CMS einkopiert werden, damit der WordPress-eigene Player die Inhalte wiedergeben kann

84
Q

Definiere Multimedia

A

Darunter lassen sich allgemein alle Darstellungstechnologien zusammenfassen, die in der Lage sind, unterschiedliche Medienformate parallel nutzbar zu machen und damit verschiedene Sinne eines Betrachters gleichzeitig anzusprechen.

85
Q

Was wird als Multimediaplattformen bezeichnet?

A

Angebote, die ihren Usern die Publikation und den Konsum multimedialer Inhalte erlauben, wobei auf den meisten Plattform jeweils ein bestimmtes Medienformate überwiegt. Multimediale Inhalte sind Videos, Audios, Bildabfolgen, Stories (journalistischer Art) oder Animationen, die in Mediatheken, auf Musik- oder Videoportalen oder in redaktionellen Informationsmedien verfügbar gemacht werden.

86
Q

Was bedeutet multimodal?

A

Multimediaanwendungen sind multimodal, d.h. sie binden Medienmodule ein, die mehrere menschliche Sinne gleichzeitig ansprechen.

87
Q

Wann spricht man von Hypermedia?

A

Wenn multimediale Inhalte und Module in einer Hypermedia-Applikation miteinander verbunden und interaktiv gestaltet werden, oft unter Verwendung von HTML, spricht man von “Hypermedia”

88
Q

Wozu wird XML bei Multimediainhalten eingesetzt?

A

XML-Technologien können eingesetzt werden, um große Datenmengen und multimediale Anwendungen modular zu verwalten oder um datenintensive Inhalte auf Plattformen nutzerindividuell aufzubereiten, geräteunabhängig darzustellen oder in kleineren Abschnitten („on-the-fly“) abrufbar zu machen.

89
Q

Was ist Scrollytelling?

A

Scrollytelling ist ein Begriff, der die Kombination von Scrollen (engl. “scrolling”) und Storytelling beschreibt. Es bezieht sich auf eine Art der Präsentation von Inhalten, bei der Benutzer durch das Scrollen auf einer Webseite eine Geschichte erleben oder Informationen entdecken können. Dabei werden visuelle und narrative Elemente geschickt miteinander verbunden, um eine interaktive und ansprechende Benutzererfahrung zu schaffen.

90
Q

Multimediale Netzwerke und ihre Teilnehmer können in vier Bereiche gegliedert werden. Welche sind das?

A
  • Content Provider (erstellt Inhalte und liefert diese an Service Provider)
  • Service Provider (Plattform, bereitet Inhalte für die Auslieferung über Netzwerke auf)
  • Netzwerk Provider (IP-Netzwerke)
  • Abonnent (nutzt Devices zum Konsum der Inhalte und interagiert über das Netzwerk mit dem Service)
91
Q

Was ist ein Service-Provider?

A

Ein Service Provider ist ein Anbieter, der eine Plattform bereitstellt und angelieferte Inhalte für die Auslieferung an User und Abonnenten über Netzwerke für diverse Endgeräte und Technologien aufbereitet (Ramirez 2008, S. 24). Daten, die bei einem Service Provider ankommen, werden in der Regel weiteren technischen Anpassungen unterzogen, um plattformkompatible und anwendungsangepasste Formate zu erstellen.

92
Q

Im Zuge dieses plattformeigenen Codiervorgangs werden gegebenenfalls im Vorfeld auf einer Plattform auch urheberrechtliche Vorschriften berücksichtigt. Wie werden Medieninhalte geschützt?

A

Lizenzierte Inhalte beispielsweise können nach dem Verschlüsselungsprozess über einen DRM-Server in einer Datenbank registriert werden, um die Einhaltung von Lizenzbedingungen zu sichern (Ramirez 2008, S. 88). Um Medieninhalte vor illegaler Verbreitung zu schützen, können diese – was vor allem im Bereich IPTV üblich ist – derart modifiziert werden, dass Sicherheitsvorkehrungen und ein Kopierschutz zulasten des Nutzers implementiert werden. Auch können Werbemaßnahmen und -unterbrechungen eingebaut werden

93
Q

Web Server, die Multimedia Plattform hosten, nutzen häufig welche Basis-Betriebssysteme?

A

Linux-Apache-Webserver (Dies ist die grundlegende Infrastruktur, auf der die Plattform läuft. Linux ist das Betriebssystem, während Apache der Webserver ist, der für die Auslieferung von Webinhalten an Benutzerbrowser zuständig ist)

94
Q

Was sind Caching-Systeme wie Memcached? Wie arbeiten diese?

A

Stellen Sie sich vor, Sie betreiben eine große Datenbank, in der viele Informationen gespeichert sind, die von verschiedenen Benutzern abgerufen werden. Jedes Mal, wenn ein Benutzer eine Anfrage stellt und Daten aus der Datenbank abruft, muss die Datenbank arbeiten, um diese Informationen zu finden und zurückzugeben. Dies kann zu einer hohen Auslastung der Datenbank führen, insbesondere wenn viele Anfragen gleichzeitig erfolgen.

Um die Auslastung der Datenbank zu reduzieren und die Leistung zu verbessern, können Caching-Systeme wie Memcached eingesetzt werden. Stellen Sie sich Memcached als eine Art Zwischenspeicher vor, der bereits abgerufene Daten vorübergehend speichert. Wenn ein Benutzer dieselben Daten erneut anfordert, werden sie aus dem Cache abgerufen, anstatt erneut auf die Datenbank zuzugreifen. Da das Abrufen von Daten aus dem Cache schneller ist als aus der Datenbank, führt dies zu einer verbesserten Reaktionszeit und einer insgesamt geringeren Belastung der Datenbank.

Ein Beispiel für die Anwendung von Caching-Systemen ist YouTube. Aufgrund der großen Anzahl von Benutzern und der massiven Datenmengen, die täglich auf der Plattform verarbeitet werden, hat YouTube eigene Software namens “Vitesse” entwickelt. Diese Software basiert auf Memcached und wurde speziell für die Anforderungen von YouTube optimiert. Sie ermöglicht es YouTube, Daten effizient zu zwischenspeichern und die Leistung seiner hochleistungsfähigen Produktionsumgebungen zu verbessern. So können Videos schneller geladen werden und die Benutzererfahrung insgesamt verbessert werden.

95
Q

Was sind NoSQL-Lösungen und wofür werden sie genutzt?

A

Die große Datenmenge von Thumbnails kann die Leistung der Datenbanken sehr beeinträchtigen. Deshalb werden diese auf Thumbnail-Server ausgelagert und in eigenen Datenbanken verwaltet. Dazu werden häufig sogenannte NoSQL-Lösungen eingesetzt. NoSQL-Datenbanken sind speziell für die Verwaltung großer Mengen unstrukturierter Daten wie Bilder oder Videos optimiert und bieten oft bessere Leistung und Skalierbarkeit als traditionelle relationale Datenbanken. Google hat beispielsweise für solche Zwecke das Datenbanksystem Bigtable als proprietäres und komprimiertes Datenspeicherungssystem entwickelt. Dieses ist auf Hochleistung ausgelegt und baut auf dem hauseigenen Google-Filesystem und diversen anderen Google-Technologien auf. Es kommt auch in den Cloudservices von Google zum Einsatz.

96
Q

Was sind spezielle Webprotokolle wie Multicast-Protokolle oder Broadcast-Protokolle und wozu werden sie eingesetzt?

A

Spezielle Webprotokolle wie Multicast-Protokolle oder Broadcast-Protokolle werden verwendet, wenn Daten an mehrere Empfänger gleichzeitig übertragen oder von verschiedenen Stationen gleichzeitig empfangen werden müssen. Im Gegensatz zu herkömmlichen Protokollen, die Daten nur an einen bestimmten Empfänger senden (Point-to-Point), ermöglichen Multicast- und Broadcast-Protokolle die Übertragung von Daten an mehrere Empfänger gleichzeitig.

  • Multicast-Protokolle: Diese ermöglichen es einem Sender, Daten an eine ausgewählte Gruppe von Empfängern zu senden. Die Daten werden nur an die Mitglieder dieser Gruppe übertragen, was Bandbreite spart und die Effizienz erhöht.
  • Broadcast-Protokolle: Diese senden Daten an alle Geräte in einem Netzwerk, unabhängig davon, ob sie die Daten tatsächlich benötigen oder nicht. Dies kann nützlich sein, wenn Informationen an alle Teilnehmer im Netzwerk verteilt werden müssen, jedoch kann dies auch zu einer erhöhten Netzwerklast führen.

In beiden Fällen werden diese speziellen Protokolle eingesetzt, um die Effizienz und Skalierbarkeit der Datenübertragung zu verbessern, insbesondere in Umgebungen, in denen große Datenmengen an mehrere Empfänger gleichzeitig gesendet werden müssen.

97
Q

Stellen Sie sich vor, Sie streamen ein Video über das Internet. Im Gegensatz zu einem statischen Bild oder einer Datei, bei der die gesamten Daten sofort verfügbar sind, ist ein Video dynamisch und wird schrittweise geladen, während Sie es ansehen. Wenn Sie also ein Video ansehen, wird es nicht in einem einzigen Stück heruntergeladen, sondern in kleinen Teilen, die kontinuierlich gestreamt werden. Was wird gemacht um diese unbekannten großen Datenmengen zu komprimieren?

A

In solchen Fällen, insbesondere wenn die Gesamtgröße oder der genaue Inhalt eines Datenpakets nicht im Voraus bekannt ist, werden adaptive Kompressionsverfahren verwendet. Diese Verfahren passen sich dynamisch an den Datenstrom an und komprimieren die Daten, während sie gleichzeitig dekomprimiert werden. Auf diese Weise kann das Video mit optimaler Qualität gestreamt werden, ohne dass Sie lange warten müssen, bis es vollständig geladen ist.

Moderne Algorithmen kombinieren oft verschiedene Kompressionsverfahren, um das bestmögliche Ergebnis zu erzielen. Das bedeutet, dass während des Streamings verschiedene Techniken verwendet werden, um sicherzustellen, dass das Video mit guter Qualität und möglichst geringen Verzögerungen angezeigt wird.

98
Q

was ist der MPEG-Standard und wofür wird er benutzt?

A

Der MPEG-Standard steht für “Moving Picture Experts Group” und ist eine Gruppe von Standards, die von der ISO (International Organization for Standardization) und der IEC (International Electrotechnical Commission) entwickelt wurden. Dieser Standard definiert Methoden zur Codierung von Audio- und Videodaten zur effizienten Speicherung und Übertragung. Der MPEG-Standard hat mehrere Versionen, darunter:

MPEG-1: Ursprünglich entwickelt für Video-CDs und umfasst Formate wie MP3 für Audio und MPEG-1 Video für Videoinhalte mit niedriger bis mittlerer Qualität.
MPEG-2: Wurde für digitales Fernsehen und DVD-Video entwickelt und bietet eine höhere Qualität und Auflösung als MPEG-1.
MPEG-4: Bietet erweiterte Kompressionsfunktionen, um Inhalte für verschiedene Anwendungen wie Internet-Streaming, Videokonferenzen und Multimedia-Handys anzupassen.
MPEG-7: Konzentriert sich auf die Beschreibung und den Austausch von Multimediadaten und Metadaten, um die Suche und den Austausch von Multimediaressourcen zu verbessern.
MPEG-21: Bietet Rahmenbedingungen für die Integration von Multimedia-Anwendungen und -Diensten über verschiedene Netzwerke und Plattformen hinweg.

Der MPEG-Standard hat einen enormen Einfluss auf die digitale Medienindustrie, da er die Grundlage für viele gängige Audio- und Videoformate sowie für Streaming-Dienste und digitales Fernsehen bildet. Speziell der MPEG-Standard ist für die Auslieferung von Audio und Video und den Bereich der digitalen TV-Übertragung relevant. Die darin beschriebenen Technologien erfüllen die Anforderungen an Bitraten und Kompressionsmethoden für digitale TVs und HDTV.

99
Q

Was bedeutet Komprimierung und Codierung und wozu werden sie verwendet?

A

sowohl der Komprimierungs- als auch der Codierungsprozess dienen dazu, Speicherplatz zu sparen und die Effizienz bei der Speicherung und Übertragung von Daten zu verbessern.

Die Komprimierung reduziert die Dateigröße, indem redundante oder nicht wesentliche Informationen entfernt werden, während gleichzeitig wichtige Informationen beibehalten werden. Dadurch benötigen die Dateien weniger Speicherplatz, was die Speicherung und Übertragung effizienter macht.

Die Codierung optimiert die Art und Weise, wie die Daten strukturiert und organisiert sind, um sicherzustellen, dass sie schnell und effizient verarbeitet werden können. Dies beinhaltet die Verwendung bestimmter Dateiformate, Codierungsverfahren und Metadaten, um die Daten leicht identifizierbar und wiedergabefähig zu machen.

Zusammen ermöglichen Komprimierung und Codierung eine effiziente Nutzung von Speicherplatz und Ressourcen, während gleichzeitig die Qualität und Integrität der Daten beibehalten werden.

100
Q

Welcher MPEG-Standard beschreibt wie interaktive Multimediakonzepte technisch umzusetzen sind?

A

Der MPEG-4-Standard in Teil sechs

101
Q

Was sind H.264 und H.265?

A

H.264 und H.265, auch bekannt als MPEG-4 AVC (Advanced Video Coding) und HEVC (High Efficiency Video Coding), sind Standards für die Videokomprimierung und -codierung. Sie sind Teil der MPEG-4- und ITU-T-H-Serie von Standards und dienen dazu, Videodateien effizient zu komprimieren, um Speicherplatz zu sparen und die Übertragung über Netzwerke zu optimieren.

H.264 (MPEG-4 AVC): H.264 ist ein älterer Videokompressionsstandard, der weit verbreitet ist und in vielen Anwendungen wie Blu-ray-Discs, Internet-Streaming, Videokonferenzen und digitalem Fernsehen verwendet wird. Es bietet eine gute Komprimierungsleistung und eine breite Unterstützung über verschiedene Plattformen hinweg.

H.265 (HEVC): H.265 ist ein neuerer Videokompressionsstandard, der eine noch effizientere Komprimierung bietet als H.264. Dadurch können Videodateien bei gleichbleibender Qualität noch stärker komprimiert werden, was zu einer besseren Bildqualität bei niedrigeren Bitraten führt. H.265 wird für Anwendungen mit höherer Auflösung wie Ultra High Definition (UHD) und 4K-Video verwendet, da es eine bessere Leistung bei der Komprimierung großer Dateien bietet.

Insgesamt bieten H.264 und H.265 fortschrittliche Videokompressions- und Codierungstechniken, um hochwertige Videodateien mit möglichst geringer Dateigröße zu erstellen, was sie zu wichtigen Standards in der digitalen Videotechnologie macht.

102
Q

Was ist CAVLC?

A

Zur Codierung und Komprimierung von Videodaten nutzt H.264 die Lauflängencodierung CAVLC (Context Adaptive Variable Length Coding), eine „kontextabhängige, verlustfreie Entropiecodierung“ (Richardson 2003). Vor allem seine speziellen Methoden der Bewegungskompensation (Motion Compensation, es werden bei Bewegungen nur Veränderungen zwischen Frames gespeichert, nicht die gesamte Bildinformation) und Filtertechniken (Deblocking-Filter zur Entfernung von Kompressionsartefakten) steigern die visuelle Qualität von mit H.264 codierten Videodateien erheblich.

103
Q

was ist CABAC?

A

CABAC ist eine spezielle Kodierungstechnik, die im H.265-Standard verwendet wird, um die Entropie von Videodaten zu kodieren.
H.265 setzt verlustfreie Codierungsmethoden wie CABAC (verlustfreie Entropiecodierung) ein.

104
Q

Da die Menge sehr aufwendiger und großer Daten immer weiter zunimmt, sind auch Beschreibungsstandards relevant, die dafür sorgen, dass Inhalte (auch automatisiert) immer wiedergefunden werden können. Welcher Standard legt fest wie Archivierung, Abrufbarkeit, Auslieferung und Speicherung multimedialer Inhalte im Kontext immer größer werdender Datenmengen und zunehmend automatisierter Abläufe zu gestalten sind?

A

Der MPEG-7-Standard. Er definiert semantische Modelle, die vorgeben, wie die Beschreibung multimedialer Inhalte („Descriptors und Description-Schemes“) durch Metadaten und die Beschreibung von Strukturen und Objektbeziehungen aussehen sollten, damit so viele unterschiedliche Anwendungen und künstliche Systeme wie möglich einen effizienten Zugriff auf diese Daten erhalten und sie auswerten und nutzen können.

105
Q

In welchem Standard und welchem Teil sind Beschreibungsstandards für Multimedia-Modelle spezifiziert?

A

Beschreibungsstandards für Multimedia-Modelle sind im Teil fünf von MPEG-7 als Klassen spezifiziert. Sie legen unter anderem die Auszeichnungsmethoden für Dateiinhalte, CMS, Dateistrukturen, Navigation und Nutzerinteraktion fest

106
Q

Wozu bietet Netflix das Backlot Source Requests & Delivery Management API?

A

Streaming-Plattformen wie Netflix stellen APIs (Application Programming Interfaces) bereit, um die Interaktion zwischen ihren Plattformen und den Content-Erstellern zu erleichtern. Diese APIs sind spezielle Software-Schnittstellen, die es ermöglichen, dass verschiedene Systeme miteinander kommunizieren und Daten austauschen können.

Die APIs, die von kostenpflichtigen Streaming-Plattformen bereitgestellt werden, sind oft restriktiver als öffentliche APIs. Das bedeutet, dass sie bestimmte Funktionen und Zugriffsrechte einschränken, um die Kontrolle über die Inhalte zu behalten und sicherzustellen, dass diese den Qualitäts- und Lizenzanforderungen der Plattform entsprechen.

Die Hauptfunktionen dieser APIs bestehen darin, den Content-Erstellern die Möglichkeit zu geben, ihre Medieninhalte in den Katalog der Plattform hochzuladen und diese dann in das exklusive Netzwerk der Plattform zu integrieren. Dies bedeutet, dass die Inhalte nur auf der jeweiligen Plattform verfügbar sind und nicht auf anderen Websites oder Diensten gestreamt werden können.

Ein Beispiel für eine solche API ist das “Netflix Backlot Source Requests & Delivery Management API”, das von Netflix bereitgestellt wird. Mit dieser API können Content-Ersteller ihre Inhalte an Netflix liefern und den Lieferprozess überwachen und steuern. Sie können beispielsweise Metadaten hochladen, die Qualität der Inhalte überprüfen und den Zeitpunkt der Veröffentlichung festlegen.

107
Q

Auf kostenpflichtigen Plattformen stehen vor allem auch Sicherheitsfragen wie die sichere Datenübertragung für persönliche und sensible (Bezahl)Daten und das Management urheber- und lizenzrechtlich eingeschränkter Inhalte im Fokus. Es muss unterbunden werden, dass lizenzpflichtige Materialien von Nutzern kopiert und illegal verbreitet werden. Welches API kommt dafür zum Einsatz?

A

In diesem Kontext kommt z. B. das Web Cryptography API zum Einsatz. Es ermöglicht Verfahren zur Verschlüsselung von Kreditkartennummern, webbasierten Versand über End-zu-End-Verschlüsselung oder Dateiverschlüsselung in der Cloud. Zur Verschlüsselung von Medieninhalten nutzt das API das Tool Encrypted Media Extensions (EME). Die Technologie gehört zum Standard von Anbietern wie Netflix und Microsoft und wird Zuge des Digital Rights Managements (DRM/Digitales Rechtemanagement) eingesetzt.

108
Q

Nenne alle Dateiformate, die aktuell auf Videoplattformen verarbeitet, verbreitet und zum Daten-Upload genutzt werden können.

A
  • Waveform Audio File Format (WAV)
  • FLAC (Free Lossless Audio Codec)
  • MP3 und MP4
  • OGA/OGG Vorbis
  • WebM
  • Matroska
109
Q

Welche Dateiformate nutzt YouTube? Und welche Eigenschaften haben sie?

A
  • Audiodateien im FLAC od. unkomprimierte WAV-Dateien
  • MP3
    -> Verarbeitungsprozess nach Upload, d.h. Qualitätseinbußen
  • Videodateien im Containerformat MP4 -> zur Codierung v. Audioinhalten soll in MP4-Datei der Audio-Codec AAC-LC eingesetzt werden
  • bevorzugter Videocodec f. YouTube ist H.264
110
Q

Was ist die YouTube-Sharing-API?

A

Öffentliche YouTube-Videos können über das YouTube-Sharing-API in externen Web- und Social-Media-Anwendungen geteilt oder in Webseiten über einen einfachen Link integriert werden, es sei denn, die Teilen-Funktion ist für ein Video deaktiviert.

111
Q

Was ist das Youtube Data API?

A

Das YouTube Data API (v3) erlaubt zudem, Funktionalitäten der Plattform in eigene Webanwendungen oder Apps zu integrieren. Es kann mit den Programmiersprachen Java, JavaScript, PHP, Python, Apps Script, Go,.Net und Ruby benutzt werden. Über die Integration verschiedener API-Codes können externe Applikationen damit auf Informationen zugreifen oder bestimmte Aktionen durchführen. Zum Beispiel:

Playlisten erstellen,
Channel-Feeds (Bulletins/Kanal-Feeds) integrieren,
Abonnements verwalten,
externe Anfragen autorisieren,
Uploads durchführen und verwalten sowie
Keywordsuchen ausführen.

112
Q

Welche Dateiformate nutzt Spotify?

A
  • WAV PCM-codiert
  • Flac
  • Audiowerbung als WAV oder MP3-Datei
  • 30-sekündige Video-Spots werden als MOV oder MP4 angefordert
113
Q

Was macht die spotify web API?

A

Die Spotify Web API ist eine Schnittstelle, die es Entwicklern ermöglicht, auf die Daten und Funktionen von Spotify zuzugreifen und diese in ihre eigenen Anwendungen zu integrieren. Diese API verwendet das REST (Representational State Transfer)-Architekturmuster, um Kommunikation zwischen Client und Server zu ermöglichen.

Die Daten, die über die Spotify Web API abgerufen werden können, werden im JSON (JavaScript Object Notation)-Format zurückgegeben. JSON ist ein leichtgewichtiges Datenformat, das häufig in webbasierten Anwendungen verwendet wird und leicht von menschlichen Entwicklern und Maschinen verstanden werden kann.

Mit der Spotify Web API können verschiedene Arten von Daten abgerufen werden. Dazu gehören Metadaten über Titel, Künstler und Alben, die im Spotify-Katalog verfügbar sind. Darüber hinaus können nach einer Autorisierung nutzerspezifische Informationen abgerufen werden, wie beispielsweise Playlisten, die ein Benutzer erstellt hat, oder die Inhalte seiner Musikbibliothek.

Insgesamt ermöglicht die Spotify Web API Entwicklern, auf eine Vielzahl von Musikdaten und -funktionen zuzugreifen und diese in ihren eigenen Anwendungen zu nutzen, um benutzerdefinierte Funktionen und Erlebnisse rund um die Spotify-Plattform zu erstellen.

114
Q

Wozu dient die Beta-Version der Web Playback SDK von Spotify?

A

Das Web Playback SDK von Spotify ist eine JavaScript-Bibliothek, die es Entwicklern ermöglicht, benutzerdefinierte Player zu erstellen, um Musik von Spotify direkt im Webbrowser abzuspielen. Insgesamt bietet das Web Playback SDK von Spotify Entwicklern eine leistungsstarke Möglichkeit, Musik von Spotify nahtlos in ihre Webanwendungen zu integrieren und benutzerdefinierte Audioerlebnisse zu schaffen.

115
Q

Was ist der Unterschied zwischen einem Widget und einer API?

A

Widgets und APIs sind unterschiedliche Konzepte, die jedoch miteinander verbunden sind und häufig in ähnlichen Kontexten verwendet werden. Es gibt jedoch einige wesentliche Unterschiede zwischen ihnen:

  1. Widget:
    - Ein Widget ist eine benutzerfreundliche grafische Benutzeroberfläche oder ein visuelles Element, das in eine Webseite oder Anwendung eingebettet werden kann, um bestimmte Funktionen bereitzustellen oder Inhalte anzuzeigen.
    - Widgets sind in der Regel vorgefertigte Komponenten, die dazu dienen, bestimmte Informationen oder Interaktionen auf der Oberfläche einer Website oder Anwendung darzustellen.
    - Beispiele für Widgets sind Musik-Player, Wetteranzeigen, Kalender oder Social-Media-Feeds, die in eine Webseite eingebettet werden können, um zusätzliche Funktionalitäten anzubieten.
  2. API (Application Programming Interface):
    - Eine API ist eine Schnittstelle, die es Anwendungen ermöglicht, miteinander zu kommunizieren oder auf bestimmte Funktionen oder Daten zuzugreifen, die von einer anderen Anwendung oder einem System bereitgestellt werden.
    - APIs definieren die Methoden und Protokolle, nach denen verschiedene Softwarekomponenten miteinander interagieren können, um Daten auszutauschen oder Operationen durchzuführen.
    - APIs können verwendet werden, um den Zugriff auf Funktionen oder Datenbanken von externen Plattformen wie Spotify, Twitter oder Google Maps zu ermöglichen.
116
Q

Wozu dienen Widgets z.B. von Spotify?

A

Widgets erlauben es, Inhalte bzw. Informationen extern in Webprojekte einzubetten, z. B. in die Website eines Labels oder eines Künstlers. Dies lässt sich über Einbettung von Code in Standard-HTML-Seiten, in responsive Layouts, auf Blogs in Social Seiten (Facebook, Twitter etc.), mit WordPress oder Apps wie Cloudflare bewerkstelligen. Um Spotify-Content in WordPress zu integrieren, muss z. B. nur ein bei einem Album oder Track hinterlegter Link in das CMS einkopiert werden, damit der WordPress-eigene Player die Inhalte wiedergeben kann. Künstler können die API nutzen, um ihre Diskografien zu erstellen oder durch die Integration des Follow-Buttons ihre Fanbase auch außerhalb der Plattform zu vergrößern. Nutzer müssen zum Abspielen in ihren Spotify-Account eingeloggt sein.

117
Q

Worauf basiert Netflix? Wie codiert Netflix seine Inhalte?

A

Netflix basiert auf der Programmiersprache JAVA. Zur Codierung der Netflix-Inhalte kommt laut Netflix Photon als „JAVA-Implementierung des IMF-Standards“ zum Einsatz (Photon ist eine spezifische Technologie oder Plattform, die von Netflix entwickelt oder verwendet wird. Es handelt sich um eine Implementierung des “IMF-Standards” in der Programmiersprache Java. IMF steht für “Interoperable Master Format” und ist ein Standard für das Austauschen und Archivieren von audiovisuellen Inhalten in der Unterhaltungsindustrie).

118
Q

Welche Aufgabe hat das Netflix Play API? Und welches Tool wird für das Sorce Management (Quellenmanagement) von Netflix genutzt und was macht es?

A

Das Netflix Play API ist in diesem Rahmen verantwortlich für die komplexe Aufgabe der Auslieferung von Medieninhalten an diverse Wiedergabegeräte.

Für das Source Management (Quellenmanagement) von Netflix wird das Tool „Backlot“ genutzt. Das webbasierte Verwaltungstool unterstützt die Workflows bei der Zulieferung von Medieninhalten und erlaubt hierbei die Auswertung und das Monitoring aller Kommunikationsprozesse.