Trusted Computing: Konzept sucht Argument

Trusted Computing wird kommen. Aber in welcher Ausprägung und mit welchen Auswirkungen – darüber lässt sich trefflich streiten.

Trusted Computing wird kommen. Aber in welcher Ausprägung und mit welchen Auswirkungen – darüber lässt sich trefflich streiten. Das haben die Teilnehmer einer Diskussionsrunde in München eindrücklich unter Beweis gestellt. Während die Vertreter von IBM und AMD die Vorzüge und Möglichkeiten eines in Hardware gegossenen Sicherheitskonzepts herausstellten, versuchten Medienforscher, Informatiker und Sicherheitsexperten die weiter reichenden Auswirkungen von Trusted Computing zu fassen.

Die Spezifikationen der Trusted Computing Group (TCG), Nachfolgeorganisation der TCPA (Trusted Computing Platform Alliance), sehen derzeit vor, PCs durch die Messung ihrer Hard- und Software-Werte zu identifizieren. Ein Hash aus diesen Werten kann beispielsweise von IBMs ‘Tusted Computing Module’ (TCM) als Sollwert erkannt werden. Liefert das System nach dem Start oder im Betrieb einen abweichenden Wert, schließt das TCM daraus, dass ein Virus oder Trojaner aktiv geworden ist und stoppt den Rechner – so das Konzept.

Dass sich mit dieser Überprüfung des Systems durch einen eigens dafür entwickelten Chip noch viel mehr anstellen lässt, zeigt die Diskussion über Digital Rights Management (DRM), die mit Trusted Computing umgehend aufkommt – obwohl DRM “kein zentrales Element der Architektur” sei, wie der Medienforscher Volker Grassmuck betont.

Mit DRM verbinden die Lieferanten von digitalen Inhalten die Hoffnung, ihre Produkte zu günstigen Preisen an eine sehr viel größere Kundschaft auszuliefern, weil dann ein unkontrollierbares Kopieren und Weiterverbreiten unterbunden wäre. Ungeklärt ist bisher die Frage, wie DRM-Systeme mit PCs umgehen, die sich aus anderen Gründen in ihrer Hard- oder Softwarekonfiguration verändert haben. “Das wird sich im Laufe einer solchen Evolution schon einrenken”, meint Michael Hortmann zuversichtlich.

Der Professor an der Universität Bremen und Experte für Datensicherheit und Kryptografie weist darauf hin, dass praktikable Lösungen gefunden werden müssen, mit denen die Anwender zurechtkommen, wenn denn die Unternehmen nicht “ökonomischen Schiffbruch erleiden” wollen. Wenn es um die Nutzung legal erworbener digitaler Inhalte geht, verstellen ja möglicherweise die Emotionen den Blick auf die wichtigeren Aspekte.

Felix Rümmele, Leiter PC-Marketing von IBM Deutschland, sieht das Hauptanwendungsgebiet von Hardware-basierten Sicherheitslösungen nach TCG-Spezifikationen vor allem im Unternehmensmarkt. Kritische Daten vor unbefugtem Zugriff zu sichern, sei für IBM von wachsender Bedeutung – auch wenn das zunächst bei relativ banaler Sicherung von Inhalten auf Laptop-Festplatten beginnt. Hier könnte IBMs TCM das Auslesen von Daten verhindern, weil die Authentifizierung des Anwenders nicht auf dem selben Datenspeicher stattfindet, sondern eben auf dem externen Chip, erläutert Rümmele.

Befürchtungen, die Erweiterung mit Trusted Computing-Modulen führe zu einem Kontrollverlust des Anwenders über seinen Rechner tritt Rümmele mit dem Hinweis entgegen, das TCM sei ein passiver Chip, der nicht selbständig aktiv werden könne, sondern vom Anwender aufgerufen werden müsse. Das sei auch von der TCG-Spezifikation so vorgesehen.

An diesen Spezifikationen könne auch jedes interessierte Unternehmen mitarbeiten, wirft AMD-Sprecher Jan Gütter ein und versucht damit ebenfalls misstrauische Anwender zu überzeugen. Die TCG sei auch für die Vorstellungen anderer interessierter Hersteller offen. Bisher sind neben wenigen anderen Hewlett-Packard, Intel, IBM, Microsoft und AMD Mitglied in der TCG. “Der PC wird weiterhin modular aufgebaut sein, wir wollen nur die Möglichkeit schaffen, Daten sicher auszutauschen”, so Gütter.

Neue Chancen und Märkte sieht Michael Hortmann schon jetzt heraufziehen: Trusted Computing werde sicheres E-Government ermöglichen aber auch den E-Commerce beflügeln. In der Verbreitung und Akzeptanz sieht er kaum ein Problem, weil die Anwender, beispielsweise von Microsoft-Applikationen, schon bald “sanft gezwungen” werden könnten, Trusted-Computing-Hardware zu verwenden, wenn dies eben zur Voraussetzung gemacht werde, so Hortmann.

“Hundertprozentige Sicherheit wird es auch mit Trusted Computing nicht geben.” Diesen Satz hält Raimund Genes weiterhin hoch. Nach Ansicht des President of European Operations beim Sicherheitsanbieter Trend Micro sind die über der Hardware liegenden Schichten noch immer zu anfällig. Betriebssysteme und Anwendungen müssten sicherer gemacht werden, dann habe die Sicherheit auf Hardware-Ebene auch ihre Berechtigung.

Als Beispiel führt er die Verbreitung von Viren und Würmern an, die sich über selbst mitgebrachte SMTP-Clients weiterverbreiten. Die Sicherheitsvorkehrungen auf der Ebene des Outlook-Mail-Clients wurden damit gerade in den vergangenen Monaten immer wieder erfolgreich außer Gefecht gesetzt.

Die Palette der Anwendungen und Interessen bei Trusted Computing ist also enorm breit und noch wenig sortiert. Das Konzept wird sich aber nur dann durchsetzen, wenn es sich auch verkaufen kann. An einem ‘Killer-Modell’ wird derzeit schon überall intensiv gefeilt.

silicon.de meint: Die Diskussion zeigt vor allem eines: IT muss sich heute einer gesellschaftlichen und nicht nur einer wirtschaftlichen Herausforderung stellen. Wer darauf setzt, dass die Consumer ohnehin Trusted-Computing-PCs kaufen werden, weil den meisten das Verständnis für die Zusammenhänge fehlt, der übersieht die Zusammenhänge selbst: Denn der Anwender, der zuhause fürchtet, die Kontrolle über seinen Rechner zu verlieren, der wird der IT an seinem Arbeitsplatz nicht mehr Vertrauen entgegenbringen. Dabei wäre die IT gut beraten, auch in Zukunft bei den professionellen Anwendern für Vertrauen zu werben.