Vorsicht, Hype!

Sie sind endlich auf der Spitze der Hype-Kurve angekommen, doch das ändert nicht viel. Fünf Technologien, die auch 2005 mehr beworben als installiert werden.

Neue Technologien müssen erst zu Tode beworben werden, bevor sie endlich den Weg zum Anwender finden – das war in der IT schon immer so. Fachmedien wie silicon.de sind dem erbarmungslosen Sperrfeuer der PR-Flaks das ganze Jahr über ausgeliefert, nur um kurz vor Weihnachten erneut festzustellen, wie lang der Weg vom Whitepaper zum Serverraum sein kann: Wieder ein Jahr vergangen, wieder nur Pilotprojekte und viel, viel Theorie. Die silicon.de-Redaktion hat fünf aussichtsreiche Kandidaten gekürt als Technologien, von denen bis Weihnachten 2005 nur die Werbe- und PR-Agenturen profitieren werden.
RFID

Ohne RFID (Radio Frequency Identification) geht in Zukunft nichts mehr. “Ich glaube, dass diese Technik schneller angenommen wird, als die meisten Beteiligten glauben”, sagte SAP-Vorstand Claus Heinrich im Oktober 2003. RFID werde sehr schnell einen “phänomenalen Markt” abgeben.

Sehr schnell – aber nicht 2005. Gegenwärtig scheinen immer noch Paranoia und Übermut die Diskussion zu bestimmen. Die Hälfte aller RFID-Projekte sind derzeit zum Scheitern verurteilt, sagt das Markforschungsunternehmen Gartner. So musste Metro wegen Protesten von Datenschützern die RFID-Chips aus den Kundenkarten des Superstore in Rheinsberg entfernen.

Probleme machen auch die Patente: Zwar hat das Standardisierungsgremium EPCglobal im Dezember den Standard für die neue Generation der UHF-Tags (Ultra High Frequency) verabschiedet. Unklar bleibt jedoch, ob RFID-Hersteller künftig Lizenzgebühren an das US-Unternehmen Intermec zahlen müssen und ob der Streit mit der ISO (International Organization for Standardization) über das Numerierungsschema für die Tags beigelegt wird. Zudem steht für die neue Tag-Generation kaum Middleware zur Verfügung.

Der Einzelhandel sorgt sich derweil um die Kosten einer RFID-Lösung. Zudem gaben 30 Prozent der europäischen Händler an, zu wenig über die Funkchips zu wissen. Dieses Defizit teilen sie mit den meisten Verbrauchern, für die RFID ein Buch mit sieben Siegeln ist.

An ambitionierten langfristigen RFID-Projekten mangelt es derweil nicht. So werden die Chips Viagra-Fans vor Fälschungen schützen. Und zur Fußball-WM 2006 soll RFID den Verkauf der Tickets ankurbeln. Doch auch wenn sich die Chips bereits jetzt für manche Unternehmen bezahlt machen und RFID sogar ohne Chips möglich ist: Auf den Durchbruch werden wir noch eine Weile warten müssen.

On Demand Computing

Das Rechenzentrum soll schon seit vielen Jahren weniger komplex werden und dafür wollen die Hersteller Hewlett-Packard, IBM, Sun Microsystems und andere sorgen. In diesem Jahr sind die Ideen etwas greifbarer geworden. Die Ansätze heißen dann ”Adaptive Enerprise’, Utility Computing’, ‘On Demand’ oder ‘N1’, und verheißen das Datenzentrum auf Netzwerkbasis. Dazu gibt es mittlerweile echte, greifbare Angebote, wie das Rechenzentrum besser betrieben und mit viel weniger Aufwand und Kosten über eine Art virtuelle Schicht verwaltet, dadurch besser ausgelastet und nach Bedarf abgerechnet werden kann – sofern man seine IT überhaupt noch im Haus behalten möchte.

Aber vor die Akzeptanz haben die IT-Götter die zähneknirschende Zusammenarbeit mit anderen Herstellern gesetzt, und die ist noch in den Kinderschuhen – von Standards wollen wir erst gar nicht sprechen. Also versucht jeder der vier Großen, erst einmal mit Pilot- und Referenzinstallationen die eigene Technik ins rechte Licht zu rücken. IBM will als Vater des On Demand Computing den Markt bestimmen und hat in diesem Jahr die ersten Kunden in Kanada und Großbritannien gewonnen, die den Ansatz intern anwenden. Es sind Versicherungen, die nach neu abgeschlossenen Policen abrechnen. Dieses Pilotprojekt macht On Demand Computing greifbar.

Dennoch bescheinigt Analystin Katahrina Grimme von Ovum Research der gesamten so genannten Utility-Szene so eine gewisse Unreife. Sie verstünden nicht, ihre Produkte aufeinander abzustimmen und zu kommunizieren. Die Anwender würden im Dunkeln gelassen, so ihr Urteil. Vielleicht machen es andere Anbieter besser, die sich der Rechenleistung aus der Steckdose angenähert haben. Bisher sind es die großen IT-Hersteller und neuerdings sogar SAP, die sich hier versuchen.

Die neuen Tiger in der Arena tragen allerdings andere Namen: In ein paar Jahren könnten bisher unbeteiligte On-Demander das Heft bei IT-Diensten für das Datenzentrum oder anfangs nur den Serverraum in die Hand nehmen. Amazon, Ebay, Google und Yahoo haben nach Meinung der IDC-Marktforscher das Zeug, im kleineren Rahmen auch Unternehmen wie IBM, EDS oder auch CSC im Markt deutlich Paroli zu bieten. Dies können sie, so die Analysten, weil sie die flexiblen Geschäftsmodelle durch ebenso bewegliche Arbeit ergänzen. Ist das der Abschied von den großen, gewohnten Anbietern aus dem Rechenzentrum? Wahrscheinlich nicht, aber es lohnt sich für die Anwender, am Ball zu bleiben.

Das Mittel gegen Spam

“Unkraut vergeht nicht”, besagt eine alte Gärtnerweisheit, deren Wahrheit sich weit über die hauseigene Grünanlage erstreckt – bis hinein in die virtuelle Welt. Denn die immer stärker vernetzte und digitalisierte Gesellschaft ist ein saftiger Nährboden für Spam und all seine Abarten. Daran wird sich auch 2005 nichts ändern. Das hat auch Bill Gates – der sich mit Begeisterung an die Spitze der Anti-Spam-Bewegung stellt – längst begriffen. Weil seine Prophezeiung von Anfang dieses Jahres, Spam werde in zwei Jahren erledigt sein, immer unwahrscheinlicher wird, verschiebt er im Halbjahres-Abstand die Deadline unauffällig nach hinten.

Solche Prophezeiungen lösen jedoch bei Anti-Spam-Spezialisten “nicht viel mehr als eine Lachsalve” aus, so der CEO von Tiresius Technology, Heiko Boecher. Er spricht von einer Art Spirale, die sich zwischen verbesserten Schutzmaßnahmen und immer trickreicheren Spammern in die Höhe schraubt.

Es gibt kein Wundermittel, sagen auch die Internet Service Provider, die meist allein und manchmal gemeinsam den Spammern den Kampf ansagen. So versuchen AOL, Yahoo, Earthlink und Microsoft ihr Glück seit einigen Monaten mit einer Klagewelle – können sich derweil jedoch nicht auf eine gemeinsame Anti-Spam-Technologie einigen. Sender ID, SPF (Sender Policy Framework), DomainKeys und Co sind nicht viel mehr als branchenpolitische Spielbälle. Zudem ist zu befürchten, dass manche dieser Technologien die Spam-Flut nicht viel mehr als ein halbes Jahr eindämmen können.

Öffentlichkeitswirksame Ansätze wie die Kampagne ‘Make Love not Spam’ von Lycos Europe bringen den Initiatoren auch nicht viel mehr als jede Menge Ärger, sowohl mit der Branche als auch mit den Spammern. Vielleicht hat am Ende ja doch Ralph Waldo Emerson Recht: “Unkraut nennt man die Pflanzen, deren Vorzüge noch nicht erkannt worden sind.”

Schnelle Desktopsuche

Einst stellte sich die Menschheit Fragen der Art: “Wer sind wir, woher kommen wir, wohin gehen wir?” Die Menschen heute beschäftigen eher Fragen wie: “Warum braucht Google nur Sekundenbruchteile, um Hunderttausende von Webseiten zu durchforsten, Outlook dagegen für einige Hundert Mails im meinen Posteingang mehrere Minuten?” Ohne das Rätsel nennenswert aufzulösen arbeiten Unternehmen wie Google, AOL, Yahoo, Blinkx und auch einige Open-Source-Projekte an einer Lösung des Problems, allerdings nicht ohne dabei neue zu schaffen.

Die Desktopsuche ist nicht nur ein Marketing-Instrument, mit dem Suchmaschinen und Start-ups Marktanteile gewinnen wollen, sondern bietet Anwendern einen echten Mehrwert. Es gibt bereits zahlreiche Beta-Versionen verschiedener Such-Tools, und alle arbeiten nach einem ähnlichen Prinzip. Das Programm indexiert Inhalte aus Dokumenten, Mails oder anderen Dateien. Für die Schlagwortsuche wird dann der Index durchkämmt und nicht die gesamte Festplatte des Rechners – was schnell zu Ergebnissen führt.

Die Verfahren sind allerdings oft nicht zu Ende gedacht. Die Google-Desktopsuche zum Beispiel indexiert nicht nur Dokumente, sondern auch sicherheitsrelevante Einstellungen, Passwörter oder Dateien von Usern, die unter einem anderen Account am selben Rechner arbeiten.

Letzteres will Microsoft mit der eigenen, vor einigen Wochen als Beta-Version vorgestellten Lösung zwar behoben haben, dass aber macht die Software noch lange nicht für den Unternehmenseinsatz tauglich. Die so genannte ‘MSN Toolbar Suite’ ist nichts anderes als eine dreigeteilte Suchmaschine, jeweils für das Internet, die Festplatte und Outlook, und ‘riecht’ noch sehr stark nach Consumer-Markt.

Eine echte Lösung muss wohl viel stärker mit dem Betriebssystem verknüpft sein, denn erst wenn die Indexierung auf diesem Niveau stattfindet und die Einstellungen des Betriebssystems bei der Suche berücksichtigt werden, ist die Suche zum einen gründlich und zum anderen sicher. Diese Art Suche wird im Fall von Windows erst mit dem neuen Filesystem, WinFS, in das Betriebssystem integriert. WinFS kommt aber erst mit der Server-Version von Longhorn, die für 2007 geplant ist – und “geplant” ist in Redmond ein dehnbarer Begriff. Apple-Benutzer können sich dagegen auf ein solches Tool für Mitte 2005 freuen, wenn die neue Version von Mac OS X (Tiger) auf den Markt kommt. Aber wer hat schon das Glück, einen Mac auf dem Schreibtisch zu haben …

ILM (Information Lifecycle Management)

Muss denn erst etwas passieren, bevor sich was ändert? Ja, denn so ist der Mensch eben. Und weil sich sein Verhalten durch das ganze Leben zieht, bleibt auch die IT nicht verschont. Dort kamen 2004 Gesetze auf Datenfarmen zugerollt, die Bits und Bytes vor allem zu einem zwingen: zum Überleben. Der passende Begriff dazu heißt Compliance, und die hat als Exekutive das Information Lifecycle Management, kurz ILM, im Schlepptau.

Was für ein ILM-Jahr! Kein Hersteller wollte sich dem Donnerschlag im Storage-Bereich entziehen. ILM war schon ein Buzzword, da wusste noch kaum jemand, was es eigentlich ist. Daran hat sich auch nicht wirklich viel geändert. Selbst wenn Hersteller jedes, aber auch jedes Produkt mit dem Attribut ‘ILM-prädestiniert’ versahen, stand der Anwender da wie der berühmte Ochs vorm Berg. Was sich wie, wann und in welche Richtung ändern sollte, war nicht klar und deshalb strafte man die Storage-Strategie mit Nichtachtung.

Dabei ist die Idee vom ‘automatischen Datenverschieben zum richtigen Zeitpunkt’ und vom ‘unlöschbar und wieder auffindbar machen’ nicht schlecht. Nur, das alles zu stemmen ist nicht einfach. Die Compliance-Gesetze, die ILM mit der Initialzündung versorgen sollten, waren irgendwie zu schnell fertig und die Technik hinkt hinterher. Jetzt nämlich stellt sich heraus, dass die Anbieter zu fix gewesen sind mit ihrem Angebot, zu schnell geglaubt haben zu wissen, welches Problem sie wie adressieren sollten. Jetzt dämmert ihnen langsam, dass ein vermeintlich gelöstes Teilproblem möglicherweise zwanzig weitere verursacht, die die Lösung als Ganzes hinfällig machen.

Zumindest weiß man inzwischen soviel: ILM ist kein Produkt, sondern ein Konzept. Konzepte aber brauchen Zeit, und dieses nimmt sich besonders viel davon. Auch 2005 wird ILM nicht die Erfüllung werden für den Storage-Manager. Die von Herstellern angebotene Unterstützung zum Thema bleibt vermutlich eher dürftig, erste Ansätze in allen Ehren.

Wenn das erste Unternehmen von Compliance-Regeln zu Boden gerissen worden ist – weil Informationen versehentlich gelöscht werden – dann ist etwas passiert, und das müsste Anwender und Hersteller gleichermaßen aufrütteln. Vor einem zweiten Worldcom ist nämlich keiner gefeit. Dann hat ILM eine Chance, nicht als Bäh-Wort sondern als mögliche Lösung wahr genommen zu werden, wenn nicht aller, so doch einiger wichtiger Storage-Probleme. Einen schönen Datengau zu wünschen, wäre aber nicht das Richtige für Weihnachten.