64-Bit, na und?

Beinahe alle namhaften Server-Hersteller haben Modelle auf Basis von AMD64 oder Intel EM64T im Angebot. Wenn es nicht gerade Linux-Server sind, werden noch die meisten aber mit 32-Bit-Betriebssystemen ausgeliefert. IBM, Hewlett Packard und Co. berufen sich dabei gerne auf Investitionssicherheit für die Unternehmen: Die 64-Bit-fähigen CPUs von Intel und AMD, die auch noch 32-Bit-Software ohne Probleme verarbeiten können, seien eine zukunftssichere Architektur, mit der man nicht viel falsch machen kann. Beim Gros der Anwender jedoch provoziert die Dämmerung des neuen 64-Bit-Computerzeitalters höchstens ein beiläufiges Achselzucken.

Argumente wie Performance-Gewinne, mehr Stabilität und nicht zuletzt das Aufbrechen der Speichergrenze von 4 GigaByte scheinen die Frage nahe zu legen, weshalb nicht schon längst alle Welt zu den Chips mit doppeltem Adressraum übergewechselt ist. Aber die Realität sieht anders aus. “Der durchschnittliche Anwender braucht 64-Bit nicht auf seinem Computer”, erklärt Jim McGregor, Principal Analyst bei Instat/MDR, einem Marktforschungsinstitut mit starkem Fokus auf die Halbleiterindustrie. In absehbarer Zeit sieht er beispielsweise kein ‘Office x64 Edition’. “Das würde auch überhaupt keinen Sinn machen”, erklärt er. Knapp 60 Prozent der silicon.de Leser, die beim silicon.vote mitgemacht haben, glauben ebenfalls, dass sich dadurch nicht allzu viel verändert.

Standard-Server betreten die Unix-Welt

Für McGregor gebe es auch Bereiche, in denen diese Technologie ihre Vorteile ausspielen könne. “Für Server ist es die natürlichste Sache der Welt”, stellt McGregor fest. So ergebe sich auf entsprechenden Xeon- oder Opteron-Prozessoren auch mit 32-Bit-Software eine Performance-Steigerung “im zweistelligen Prozentbereich”, berichtet der Analyst. “Ob man das auch wirklich spürt, ist diskutierbar.” In der Unix-Welt hat der Umzug auf 64-Bit vor knapp zehn Jahren stattgefunden, eben weil es so eine selbstverständliche Sache ist. So unterstützt etwa HP-UX, das Unix-Derivat von Hewlett-Packard, 64-Bit-Adressierung seit der Version 11.0, die 1997 freigegeben wurde.

Unix-Installationen finden sich meist auf RISC-Prozessoren (Reduced Intstruction Set Computing). Die x64-Architektur – so die Namensneuschöpfung von Intel und AMD für die Industriestandard-Chips der x86-Architektur mit 64-Bit Erweiterungen – bringt nun ein Feature, das bislang nur auf Highend-Servern zu finden war, in eine erschwinglichere Preisklasse.

Aber nicht nur aus Kostengründen werden immer häufiger Unix-Rechner gegen Systeme auf Basis des Opteron oder Xeon ausgetauscht. Auch der Leistungs-Vorsprung von RISC-basierten Systemen gegenüber den Industriestandard-Servern verringert sich von Jahr zu Jahr. Daher finden viele Anwendungen jetzt auch auf günstigen Systemen Platz, die vor einigen Jahren noch nach einem dicken Hobel verlangten. Nicht zuletzt die Vielzahl der Anwendungen für die x86-Architektur unter Linux und Windows machen Opteron und Co. zu attraktiven Plattformen. Und auch Microsoft nutzt das Wachstumspotential der neuen Technologie.

Keine bewusste Migration

Einerseits sind die Applikationen die treibende Kraft für die neue Technologie, andererseits auch deren größter Hemmschuh. “Wenn man sich anschaut, was typischerweise auf einer Solaris-Installation läuft, wird man feststellen, dass rund 90 Prozent der Anwendungen noch 32-Bit-Software sind”, erklärt Robert Zwickenpflug, Product Marketing Manager Volume Products bei Sun Microsystems, gegenüber silicon.de. Sun bietet auf der Sparc-Solaris-Plattform seit knapp zehn Jahren Support für 64-Bit.

Noch sind aber Hardware-Systeme mit x64-CPUs ebenso wie die Applikationen in 64-Bit-Versionen eher die Ausnahme. Einige Analysten sagen eine langsame Evolution voraus, die sich noch über Jahre hinziehen werde. “Ich glaube nicht, dass die Mehrzahl der Unternehmen eine bewusste Migration vollziehen wird”, schätzt Andy Butler, Vice President und Senior Research Director bei dem Marktforschungsunternehmen Gartner.

Page: 1 2

Silicon-Redaktion

Recent Posts

HPE knackt mit Supercomputer Aurora erneut die Exascale-Schwelle

„Aurora“ läuft beim Argonne National Laboratory des US-Energieministeriums und hat auf 87 Prozent des Systems…

20 Stunden ago

Exascale-Supercomputer JUPITER setzt Maßstäbe für Energieeffizienz

Europäischer Supercomputer JEDI kommt auf den ersten Platz in der Green500-Liste der energieeffizientesten Supercomputer.

20 Stunden ago

Papierhersteller der digitalen Ära

Data Awakening: Huawei präsentierte beim Innovative Data Infrastructure Forum 2024 in Berlin neue, auf KI…

3 Tagen ago

Cyberangriffe bedrohen die Demokratie

Um ihre Verteidigung zu stärken, müssen Staaten und Unternehmen sicherstellen, dass KRITIS-Betreiber nicht nur die…

5 Tagen ago

Kritische Infrastruktur: BSI-Zahlen zur Robustheit

Reichen die Sicherheitsvorkehrungen der KRITIS-Betreiber bereits aus? Das BSI liefert dazu Kennzahlen auf einer neuen…

6 Tagen ago

Automotive: Phishing-Angriffe auf jedes zweite Unternehmen

Laut Kaspersky ist Schadsoftware die zweithäufigste Bedrohung. Angriffe auf vernetzte Fahrzeuge folgen erst mit Abstand.

6 Tagen ago