Zum Hauptinhalt springen

MPEG-21 Multimedia Framework

Der MPEG-21-Standard wird seit Anfang 2000 innerhalb der Moving Picture Experts Group (MPEG) [1] entwickelt und stellt im Wesentlichen Beschreibungsformate, in MPEG-21 als Werkzeuge bezeichnet, zum transparenten, interoperablen Austausch von digitalen Multimediainhalten zur Verfügung.

In MPEG-21 [2] wird davon ausgegangen, dass jeder Nutzer dieses Frameworks Teil eines Netzwerkes bestehend aus einer Vielzahl an Erzeugern, Anbietern und Verbrauchern multimedialer Inhalte sowie von Infrastrukturbereitstellern ist. MPEG – formal als Arbeitsgruppe ISO/IEC JTC 1/SC 29/WG11 bekannt – hat erkannt, dass bereits viele Komponenten einer solchen Multimedia-Wertschöpfungskette vorlagen, und versuchte in einem ersten Schritt zu verstehen, wie diese Komponenten miteinander in Beziehung stehen, sowie Lücken im Framework zu identifizieren. In einem zweiten Schritt wurden neue Standards geschaffen, welche auf existierende Standards, z.B. MPEG-7 [3], teilweise zurückgreifen, um diese Lücken zu schließen. Der dritte und letzte Schritt sah die Integration dieser Standards vor, um die Verwaltung und Nutzung von digitalen Multimediadaten möglichst weitgehend zu automatisieren. Dieser letzte Schritt wurde jedoch nie vollständig innerhalb von MPEG-21 vollzogen, da man während der Entwicklung von MPEG-21 erkannt hatte, dass dies auf Grund der Vielzahl von Anwendungsszenarien, die der Standard unterstützt, nicht zum gewünschten Erfolg breiter Industrieakzeptanz für wohl abgegrenzte Einsatzgebiete führen würde (siehe auch Ausblick).

Grundkonzepte

Im Mittelpunkt von MPEG-21 stehen die Nutzer, welche in diesem Multimedia Framework interagieren und in weitestem Sinne Nutzen aus digitalen Multimediainhalten (engl. Digital Items) ziehen. Der Begriff Nutzer (das „Wer“ im Framework) meint damit gleichermaßen alle Beteiligten an der multimedialen Wertschöpfungskette, vom Erzeuger und Bereitsteller bis hin zum Konsumenten, wobei die Nutzer spezielle Rechte und Pflichten gemäß ihrer Interaktion mit anderen Nutzern wahrnehmen.

Der Begriff Digital Item (das „Was“ im Framework) bezeichnet in MPEG-21 gemeinhin den „Content“. Formal gesehen wird ein Digital Item als strukturiertes digitales Objekt mit einer standardisierten Repräsentation, Identifikation und Metadaten definiert. In der Praxis kann man ein Digital Item als bestehend aus (Medien-)Ressourcen und zugehörigen Metadaten, eingebettet in eine zweckmäßige Struktur, betrachten. Unter Ressourcen sind im Allgemeinen zeitdiskrete oder -kontinuierliche, ggf. verschlüsselte Multimediadaten zu verstehen, wobei reine Textdokumente nicht ausgeschlossen sind. Metadaten sind Daten mit beschreibendem Inhalt hinsichtlich der Ressourcen, aber auch Lizenzen, Signaturen und Schlüssel zur sicheren Übertragung. Die Struktur, die sog. Digital Item Declaration, ermöglicht es, die Ressourcen und Metadaten auf standardisierte Art und Weise in Beziehung zueinander zu stellen.

Im Allgemeinen gilt zu beachten, dass Digital Items mehr als Dateien auf einer Festplatte oder Objekte in einer Datenbank sind. Ein Digital Item kann aus Daten von unterschiedlichen, ggf. verteilten Quellen bestehen sowie für unterschiedliche Benutzergruppen und Anwendungsfelder konfigurierbar gestaltet werden. Das Konzept des Digital Items soll einen automatisierten Austausch von „Content“ über unterschiedliche Vertriebskanäle und weitest gehend ohne Eingriff des Endbenutzers ermöglichen.

Im Weiteren wird ein Überblick über einzelne Teile des MPEG-21-Standards gegeben.

MPEG-21-Teile

Das MPEG-21 Multimedia Framework ist in 18 Teilen organisiert (ISO/IEC 21000:1-18) und kann dabei in sechs Kategorien unterteilt werden.

Die erste Kategorie, Vision, Deklaration und Identifikation (Teile 1-3), beinhaltet einen Überblick über das Tätigkeitsfeld von MPEG-21 und gibt die Strategie vor, um die Vision eines transparenten Zugriffs auf digitale Medien Wirklichkeit werden zu lassen. Ein wichtiger Bestandteil dafür ist die Digital Item Declaration Language (DIDL), welche auf XML-Schema aufbaut und eine standardisierte, generische und flexible Struktur für Digital Items vorgibt. Um Digital Items (oder Teile davon) eindeutig identifizieren zu können, wurde eine Möglichkeit geschaffen, bestehende Identifikationsschemata in Digital Items einzubetten und damit den Grundstein für die digitale Rechteverwaltung zu legen.

Digital Rights Management (DRM) (Teile 4-6) ermöglicht die Signalisierung von Verschlüsselungsinformation von chiffrierten, digital signierten Inhalten zwischen Nutzern, um somit einen sicheren Austausch von Digital Items zu gewährleisten. Zugriffsrechte ermöglichen die digitale Rechtevergabe und damit die Definition von Bedingungen, unter welchen Digital Items u.a. konsumiert werden können. Dabei werden diese von einem umfassenden, gut strukturierten und erweiterbaren Wörterbuch unterstützt, welches eindeutige, klar abgegrenzte und konsistente semantische Begriffe beinhaltet.

Die Adaption von Digital Items (Teil 7) [4] hat zum Ziel, Einschränkungen hinsichtlich Transport, Speicherung und Konsum von Multimediadaten gerecht zu werden sowie Dienstgüte-Management (QoS) zu unterstützen. Ein wesentlicher Bestandteil davon sind format-unabhängige Medienanpassungen an den Nutzungskontext, welche weiter unten beschrieben werden.

Zur Verarbeitung von Digital Items (Teil 10) werden dem Benutzer Methoden zur Auswahl gestellt, welche durch einen ECMAScript-Interpreter zur Ausführung gebracht werden. Für häufig gebrauchte Funktionen werden Basisoperationen zur Verfügung gestellt, die mit Standardbibliotheksfunktionen verglichen werden können; ein Beispiel ist eine Play-Funktion. Ein Erweiterungsmechanismus ermöglicht die Einbindung benutzerdefinierter Funktionsaufrufe, welche auch in anderen Sprachen geschrieben werden können (z.B. Java oder C++).

Die „System“-Kategorie (Teile 9, 16 und 18) von MPEG-21 beinhaltet ein Dateiformat, welches die Basis für einen interoperablen Austausch von Digital Items in Form von Dateien zwischen Benutzern schafft. Ein binäres Format für XML-basierte Daten ermöglicht deren effiziente Kodierung und Übertragung innerhalb des Multimedia-Frameworks, wobei weitest gehend auf Systemtechnologien des MPEG-7-Standards [2] zurückgegriffen wurde. Schließlich wurde noch ein Mechanismus geschaffen, um Digital Items über unterschiedliche Transportkanäle zu befördern (z.B. RTP oder MPEG-2 Transportstrom).

Die letzte Kategorie (Teile 8, 11, 12, 14, 15 und 17) beinhaltet u.a. Referenzsoftware und Testdaten für Produktkonformitätstests. Des Weiteren werden Möglichkeiten zur Signierung von Digital Items mit Hilfe von Wasserzeichenmarkierungen und Fingerprints beschrieben. Ein Software-Framework, bestehend aus Server, Client und Netzwerksimulator, kann für unterschiedlichste Testzwecke verwendet werden. Ein weiteres Austauschformat definiert Ereignisprotokolle, welche im Multimedia-Framework für unterschiedlichste Zwecke Verwendung finden können, da sie Daten verschiedenster Anwendungen beherbergen können. Schließlich fallen unter diese Kategorie noch Syntaxdefinitionen, um Teile von MPEG-basierten Medienströmen mittels Uniform Resource Identifier (URI) adressieren zu können. Anmerkung: Teil 13 wurde anfänglich für die Spezifikation skalierbarer Videokodierung benutzt, welche später nach MPEG-4 (Teil 10) verschoben wurde [5]; dieser Teil wird daher nicht weiter verwendet.

Format-unabhängige Adaptierung von Multimediadaten

Um dem Dilemma der Vielfalt an multimedialen Inhalten einerseits (ermöglicht z.B. durch Standards wie MPEG-4) und der wachsenden Zahl der unterschiedlichsten Nutzungskontexte andererseits zu begegnen, ist man bestrebt, die Multimediadaten nur einmal und in bester Qualität zur Verfügung zu stellen und bei Bedarf an den jeweiligen Nutzungskontext anzupassen. Denn ein Vorhalten aller multimedialen Varianten für jeden denkbaren Nutzungskontext ist aus Effizienzgründen (z.B. Arbeitsaufwand, Speicherbedarf) nicht praktikabel. Um diesem Ziel gerecht zu werden, wurde eine Komponente zur endgeräte- und codierformat-unabhängigen Adaption von Digital Items hinsichtlich des Nutzungskontexts entwickelt [6]. Diese Komponente besteht im Wesentlichen aus zwei Teilen: (1) einer Entscheidungskomponente zur Steuerung des Adaptionsprozesses und (2) dem eigentlichen Adaptierungsmodul.

Die Steuerung des gesamten Adaptionsprozesses erfolgt anhand des Nutzungskontexts und über Beschreibungsformate, welche Informationen zu den Zusammenhängen zwischen QoS-Bedingungen, möglichen Adaptionsmethoden, welche diese Bedingungen erfüllen, und den Qualitätsstufen vermitteln, die aus verschiedenen Adaptionen des Medien-Bitstroms resultieren. Im Allgemeinen wird dadurch ein Optimierungsproblem impliziert, welches jedoch nicht als solches spezifiziert wurde.

Die eigentliche Adaptierung des Medien-Bitstroms erfolgt unabhängig vom Kodierformat und in zwei voneinander logisch getrennten Schritten. Zuerst wird eine strukturelle, ebenfalls XML-basierte Beschreibung des Medien-Bitstroms (engl. Bitstream Syntax Description) erzeugt und basierend auf den von der Entscheidungskomponente zur Verfügung gestellten Parametern transformiert. Dabei werden nicht mehr benötigte Teile der Bitstrom-Beschreibung entfernt und andere wiederum aktualisiert. Diese transformierte Beschreibung dient als Input für den zweiten Schritt, welche den adaptierten Medien-Bitstrom erzeugt. Der Vorteil dieser beschreibungsgestützten Methode besteht darin, dass ein einziges Adaptierungsmodul für eine Vielzahl von Kodierformaten verwendet werden kann.

Anwendungen und Ausblick

Wie schon einleitend erwähnt, hat MPEG-21 nie den Schritt der Integration der unterschiedlichen Teile von MPEG-21 für verschiedene Anwendungsgebiete vollzogen. Dies war auch so beabsichtigt, denn die Multimedia Application Formats (MAFs), auch bekannt als MPEG-A [7], definieren nun solche mögliche Integrationen verschiedener MPEG-Standards für genau definierte Anwendungsszenarien. Dabei werden auch Standards in Betracht gezogen, welche nicht innerhalb von MPEG-21 (z.B. MPEG-7) oder auch außerhalb von MPEG (z.B. JPEG) definiert wurden. Beispiele eines solchen MAFs ermöglichen die Integration von MP3- oder JPEG-Dateien mit MPEG-7-Metadaten innerhalb einer spezifischen MPEG-21-DID-basierten Struktur, welche auch noch DRM-Daten beinhaltet.

Zu beispielhaften Anwendungen von MPEG-21 kann zu diesem Zeitpunkt die Arbeit des Universal Plug and Play (UPnP) Forum genannt werden, welches DIDL-Lite [8], eine Art DIDL-Dialekt, als Grundlage des A/V Content Directory Services verwendet. Eine weitere Umsetzung ist innerhalb des Microsoft Interactive Media Managers (IMM) [9] zu finden, wobei dieser nur das zu Grunde liegende MPEG-21-DID-Modell übernommen hat und zu dessen Implementierung nicht XML-Schema, sondern die Web Ontology Language (OWL) verwendet. Mehrfach wurden ausgewählte Teile von MPEG-21 in Forschungs- und Entwicklungsprojekten implementiert und erprobt.

Frühen Einsatz fanden MPEG-21-Konzepte in einem Projekt der Los Alamos National Laboratory (LANL) Research Library für die Archivierung, Verarbeitung und Bereitstellung von (Millionen von) komplexen digitalen Objekten, die aus unterschiedlichen Medientypen, Zugriffsrechten und Metadaten zusammengesetzt sind. Dazu wurden die wesentlichen Mechanismen zur Deklaration, Identifikation und Verarbeitung von Digital Items aus MPEG-21 übernommen, für die Bedürfnisse digitaler Bibliotheken angepasst und erweitert sowie mit anderen Beschreibungsmitteln integriert [10].

Als beispielhaft für einige EU-Projekte, die MPEG-21 einsetzten bzw. einsetzen, sei das IST-FP6-Projekt DANAE genannt (Dynamic and distributed Adaptation of scalable multimedia coNtent in a context-Aware Environment), an dem die Autoren maßgeblich mitwirkten [11]. Für die Adaptierung (skalierbarer) multimedialer Inhalte wurde eine umfassende verteilte MPEG-21-Middleware entwickelt, welche einen erheblichen Teil des MPEG-21-Frameworks abdeckt. Eine wichtige Erkenntnis des Projekts kann wie folgt umrissen werden: Um den Nutzern – entsprechend der MPEG-21-Vision – multimediale Inhalte bequem und interoperabel verfügbar zu machen und an den Nutzungskontext anzupassen, sind komplexe Softwarekomponenten auf allen beteiligten Knoten in einem verteilten Multimediasystem verfügbar zu machen: auf Servern, dedizierten Adaptionsknoten, Endgeräten, ggf. sogar Netzknoten (vgl. Architektur auf [11]). Unter anderem an dieser hohen Anforderung und Komplexität liegt es, dass bisher ein breiter Einsatz von MPEG-21 in der Praxis ausgeblieben ist.

Ein Aspekt, welcher für zukünftige Arbeiten interessant erscheint, ist der Vergleich einiger der wesentlichen Konzepte von MPEG-21 und Web 2.0. In beiden Fällen steht der Nutzer im Vordergrund, welcher sowohl Verbraucher als auch Erzeuger von (multimedialen) Inhalten sein kann.

Literatur

[1] MPEG Homepage, www.chiariglione.org/mpeg/, zuletzt überprüft: Sep. 2008.

[2] I. Burnett, F. Pereira, R. Van de Walle, R. Koenen (eds.), The MPEG-21 Book, John Wiley & Sons Ltd., 2006.

[3] H. Kosch, J. Heuer, „MPEG-7“, Informatik Spektrum – Aktuelles Schlagwort, S. 105-107, Mai 2003. [

4] A. Vetro, C. Timmerer, „Digital Item Adaptation: Overview of Standardization and Research Activities“, IEEE Transactions on Multimedia, vol. 7, no. 3, pp. 418-426, Jun. 2005.

[5] ITU-T und ISO/IEC, ITU-T Rec. H.264 | ISO/IEC 14496-10 version 8 – Advanced video coding for generic audiovisual services, Nov. 2007.

[6] C. Timmerer, H. Hellwagner, „Interoperable multimediale Kommunikation im Internet mittels MPEG-21 Digital Item Adaptation“, Lecture Notes in Informatics, Vol. 51, S. 301-305, Sep. 2004.

[7] K. Diepold, F. Pereira, W. Chang, “MPEG-A: Multimedia Application Formats”, IEEE Multimedia, vol. 12, no. 4, pp. 34-41, Okt.-Dez. 2005.

[8] UPnP™, ContentDirectory:2 Service Template Version 1.01, May 2006. www.upnp.org/specs/av/UPnP-av-ContentDirectory-v2-Service-20060531.pdf, zuletzt überprüft: Sep. 2008.

[9] Microsoft Interactive Media Manager. www.microsoft.com/resources/mediaandentertainment/solutions_imm.mspx, zuletzt überprüft: Sep. 2008. [

10] J. Bekaert, L. Balakireva, P. Hochstenbach, H. Van de Sompel, “Using MPEG-21 DIP and NISO OpenURL for the Dynamic Dissemination of Complex Digital Objects in the Los Alamos National Laboratory Digital Library”. D-Lib Magazine, vol. 10, vo. 2, Feb. 2004. www.dlib.org/dlib/february04/bekaert/02bekaert.html, zuletzt überprüft: Sep. 2008.

[11] DANAE Project Website. danae.rd.francetelecom.com, zuletzt überprüft: Sep. 2008.

Autoren und Copyright

Christian Timmerer und Hermann Hellwagner

Institut für Informationstechnologie (ITEC)
Universität Klagenfurt, Österreich 
vorname.nachname(at)itec.uni-klu.ac.at

© Springer-Verlag 2008