Digitale Rechte: Der lange Weg zum technischen Standard

Alle bisherigen Versuche, sich auf eine einheitliche DRM-Technologie zu einigen, sind gescheitert. Zu sehr divergieren noch die Ansprüche an das Rechtemodell.

Spätestens seit die Tauschbörse Napster vor drei, vier Jahren Furore machte, ist es jedem klar: die Allzweckmaschine PC mischt zusammen mit Breitband-Internet die Medienindustrie gehörig auf und führt zu einer neuen Standortbestimmung in Sachen ‘Geistiges Eigentum’, ‘Digitales Urheberrecht’ und ‘Nutzungssteuerung’.
Es geht dabei um vielfältige Gruppeninteressen, nicht zuletzt aber um nicht weniger als die ‘Netikette’ der Wissensgesellschaft des 21. Jahrhunderts. Dies führt zu brisanten Diskussionen auf der gesellschaftspolitisch-ethisch-juristischen Ebene, wirft aber auch komplizierte ITK-Fragen auf. Diese resultieren nicht nur daraus, dass gesellschaftspolitisch-rechtliche Probleme und technische Fragen eng zusammenspielen, sondern haben auch rein technische Gründe.

Das Allzweckgerät PC ist nämlich nicht ein Wiedergabegerät wie Plattenspieler oder Filmprojektor, nur vielseitiger und intelligenter, sondern verschiebt die Gewichte eindeutig in Richtung Nutzer. Zwar gibt die digitale Technik auch den Verwertern von geistigem Eigentum ganz neue Möglichkeiten der Nutzungssteuerung an die Hand, gleichzeitig ist aber mit dem Universal-Multimedia-Gerät PC die Schaltkonsole für digitale Güter in der Hand des Verbrauchers. Dieser kann praktisch jegliche Art von Nutzungssteuerung in seinem Sinne umfunktionieren.

DRM-Standardisierungen ein einziger Flop

Auf einer Tagung des ‘Münchner Kreises’, einer Vereinigung von Vertretern aus Wissenschaft und Industrie, war es besonders Professor Dr. Rüdiger Grimm vom Fraunhofer-Institut für Digitale Medientechnologie im thüringischen Ilmenau, der diese Schlüsselposition des Nutzers im PC- und Internet-Zeitalter betonte: “Der Nutzer muss nicht einmal programmieren können, es genügt, wenn er sich die entsprechenden Patches aus dem Internet herunterlädt”, sagte Grimm.

Für den Fraunhofer-Forscher ist schon aus diesem Grund klar, dass klassische Systeme des digitalen Urheberrechts (heute gern auch mit ‘DRM’ für ‘Digital Rights Management’ abgekürzt), wie sie von Firmen wie Microsoft, IBM oder Apple angeboten werden, schnell an Praktikabilitätsgrenzen stoßen. Mit diesen traditionellen DRM-Systemen müssten die Nutzungsbeschränkung oder (vom Verbraucher aus gesehen) die Nutzungsrechte am Endgerät durchgesetzt werden. Dieses Endgerät habe aber der Verbraucher in der Hand, und dessen Interessen gingen nicht unbedingt mit denen der vermeintlichen oder tatsächlichen Rechte-Inhaber konform.

Dies sei aber nicht die einzige Schwachstelle traditioneller DRM-Systeme, ist sich Grimm sicher. Genau so gravierend sei die nicht vorhandene Standardisierung der verschiedenen digitalen Urheberrechtssysteme. Ganz gleich, wohin man schaue, alle Standardisierungsanstrengungen seien bisher gescheitert: die Serie der Flops reiche von Kopierschutzmechanismen wie ‘Secure Digital Music Initiative’ SDMI oder ‘Information and Content Exchange’ ICE über die verschiedenen einschlägigen Beschreibungs-Sprachen wie ‘Open Digital Rights Language’ ODRL, ‘eXtensible Media Common Language’ XMCL und ‘eXtensible Rights Markup Language’ XrML bis zu der Mobiltelefon-Multimedia-DRM-Initiative ‘Open Mobile Alliance’ OMA.

Sicherheitslücke Re-Digitalisierung

Annette Schweihs von der Deutschen Telekom in Bonn sah auf der Münchner Tagung zwar die klassischen Systeme für den Schutz digitaler Urheberrechte schon auf Grund ihrer eigenen beruflichen Funktion positiver als Grimm (“die T-Com-Plattform setzt sich das Ziel, unter Berücksichtigung der möglichen DRM-Systeme und deren verschiedener Content-Formate die Endkunden optimal zu bedienen”), doch auch sie konstatierte: “Bisher wurden keine Standards hinsichtlich eines DRM-Frameworks verabschiedet. Die marktrelevanten DRM-Systeme sind gegenwärtig nicht miteinander kompatibel und müssen jeweils unter Berücksichtigung herstellerspezifischer Besonderheiten integriert werden.” Gleichzeitig habe aber, so Schweihs weiter,  das verwendete digitale Urheberrechtssystem “erheblichen Einfluss auf den Delivery-Ablauf, die abbildbaren Nutzungsregeln und die Bedienungsfreundlichkeit für den Verbraucher”.   

Alty van Luijt von Philips in Eindhoven stellte auf der Tagung fest, dass die heutigen DRM-Lösungen sowohl für die Inhalte-Verwerter als auch für die Verbraucher gleichermaßen unbefriedigend seien. Zum einen gebe es erhebliche Sicherheitslücken (so würden heutige DRM-Systeme normalerweise das Brennen von CDs erlauben), zum anderen könne der Verbraucher legale Inhalte zwar auf einem Gerät, etwa dem PC, nutzen, in der Regel aber nicht auf irgendwelchen anderen Geräten in seinem Besitz wie beispielsweise einem Handheld.

Philips propagiert deshalb das Konzept einer so genannten “legalen Nutzungszone” (Authorized Domain), die über eine persönliche Smartcard abgesichert ist. Für dieses Konzept muss indes eine weitgehend neue Infrastruktur aufgebaut werden. Für eine Übergangszeit setzen die Niederländer deshalb auf digitale Wasserzeichen, mit denen illegale Nutzungen zwar nicht verhindert, zumindest im Nachhinein aber gerichtsverwertbar manifest gemacht werden können.

Da digitale Wasserzeichen die Inhalte als solche verändern (was aber bei der Wiedergabe selbst nicht stört), dürften sie im Moment den einzigen Schutzmechanismus darstellen, der auch bei einer Re-Digitalisierung der ungeschützten analogen Ausgabeformate erhalten bleibt. Die Re-Digitalisierung des analogen Ausgabeformats ist nämlich bei allen anderen DRM-Systemen neben den übrigen Schwachstellen die weitaus peinlichste Lücke. Darauf wies in München Professor Dr. Ulrich Sieber, Direktor des Max-Planck-Instituts für ausländisches und internationales Strafrecht in Freiburg, hin.

Nichtsdestotrotz ist das digitale Wasserzeichen aber ein reines Ex-Post-System, also nur dann sinnvoll, wenn schon zivil- oder strafrechtliche Maßnahmen eingeleitet sind. Dies kann aber nicht die Standard-Schutzmethode sein, denn “rechtliche Schutzmaßnahmen greifen nur in einzelnen Fällen, sind aber gegen massenhafte Verletzungen (vor allem im privaten Bereich) nur begrenzt durchsetzbar”, so Professor Sieber.

Verantwortungs- statt Verbots-Modelle

Deshalb setzt Fraunhofer-Forscher Rüdiger Grimm, der gleichzeitig auch Professor für Medien- und Kommunikationswissenschaften an der TH Ilmenau ist, nicht auf Verbots-Modelle, sondern auf Systeme der Nutzer-Erziehung oder auch auf Anreizsysteme. Grimm stellte auf der Tagung die Fraunhofer-Modelle ‘Light-Weighted DRM’ und ‘Potato’ vor. Bei LWDRM können Nutzer Inhaltsdateien kopieren und weitergeben, sofern sie diese zuvor mit einem Pseudonym (etwa einer Kundennummer) signiert und verschlüsselt haben. Der Dechiffrierungsschlüssel liegt dem Inhalt bei und ist jedem zugänglich. Allerdings wird gleichzeitig mit der Entschlüsselung die Signatur überprüft. Wenn man also Content abspielt, verifiziert man im selben Moment seine Herkunft. Das wird, so hoffen die Fraunhofer-Forscher um Rüdiger Grimm,  die Nutzer dazu erziehen, Verantwortung für ihren Content zu übernehmen.

Das Potato-Verfahren stellt dagegen ein Anreizsystem dar. Die entsprechenden Dateien unterliegen keinen einschränkenden Nutzungsregeln. Jeder kann bezahlen oder auch nicht bezahlen. Wer allerdings bezahlt, wird Teilnehmer an einem Provisionsmodell. Bei weiterem Verkauf dieser Ware wird der erste Käufer am Verkaufserlös beteiligt. 
 
Mögen die beiden Fraunhofer-Systeme auch noch Schwächen haben, so dürften sie doch die Bedürfnisse der Protagonisten der aufgeklärten Wissensgesellschaft des 21.Jahrhunderts besser abbilden als strikte Verbotsmechanismen.