Categories: DataStorage

Google will größere Festplatten für Cloud-Rechenzentren

In einem Paper ruft Google die Hersteller dazu auf, neue Hard-Drives zu entwickeln. Diese sollen vor allem in Rechenzentren eingesetzt werden und größer sein als die derzeit üblichen 3,5-Zoll-Bauweise.

Der Vorschlag stammt von dem Berkeley-Professer und Google Vice President für Infrastruktur, Eric Brewer. Seiner Ansicht nach würden größere Festplatten die Zahl der Fehlerpunkte deutlich reduzieren. Zudem würden sich so neue Möglichkeiten beim Design eröffnen, die dem Formfaktor 3,5-Zoll geopfert wurden.

“Die aktuelle 3,5-Zoll-Geometrie ist historisch entstanden und wurde hauptsächlich von der Floppy-Disk des PCs geerbt. Ein alternativer Formfaktor könnte einen deutlich besseren TCO realisieren (Total Cost of Ownership)”, so Brewer. Durch das starke Wachstum der Cloud würde die zu speichernden Daten deutlich schneller anwachsen, als das durch Innovationen bei den Festplatten wieder wettgemacht werde. Die so genannten “Nearline Enterprise Disks” seien für den Gebrauch in Servern und nicht in Cloud-Installationen optimiert.

Googles Vorschlag für die Datenzentrums-HDD der Zukunft sollte sich an dem Verlauf der roten Linie orientieren. (Bild: Google)

Er sei sich durchaus bewusst, dass es einen langen Weg bedeuten könnte, grlößere HDDs zu bauen, doch dieser Schritt sollte auf jeden Fall in Erwägung gezogen werden. “Wir könnten auch unseren eigenen Formfaktor (mit großen Volumina) spezifizieren, die Probleme beschränken sich nicht auf Google, aber eine neue Lösung gemeinsam zu erarbeiten wird auf jeden Fall Vorteile für die gesamte Branche liefern, vor allem wenn es irgendwann standardisiert ist.” Nach wie vor könnten SSD-Speicher nicht wirtschaftlich eingesetzt werden, auch in den nächsten 10 Jahren nicht, glaubt Brewer.

Weil größere Platten zwar günstigeren Speicherplatz ermöglichen würden, würden sie Einschränkungen bei den Lese-Schreib-Geschwindigkeiten bedeuten. Bei den Umdrehungen Pro Minute verhalte es sich ähnlich: Hohe Drehzahl bedeute höhere Lesegeschwindigkeiten, aber wiederum teureren Speicherplatz. Brewers Vorschlag: Die HDD-Laufwerke sollten mit mehreren unterschiedlich großen Platten, die mit unterschiedlichen Geschwindigkeiten laufen, aufgerüstet werden.

Einen Vorschlag hat Brewer auch für die Bit Error Rate auf kommerziellen HDDs. Diese Rate sei relativ hoch gesetzt und eigentlich zu hoch für den Einsatz im Rechenzentrum, weil die meisten Anwender nicht auf Ebene der Festplatte Daten redundant und fehlersicher vorhalten. Diese Bit-Rate allerdings könnte deutlich höher sein und dadurch würde auch die Kapazität einer Festplatte höher sein.

Die Industrie würde damit wieder den umgekehrten Weg einschlagen. So maß IBMs Festplatte 1311 im Jahr 1962 immerhin 14-Zoll. Dann wurden die Festplatten immer kleiner, weil immer mehr Kapaziäten auf kleinerem Raum untergebracht werden konnten. Die HDD-Größe 5,25 Zoll starb ende der 90er aus.

Redaktion

Recent Posts

Neue E-Health-Lösung für Parkinson-Patienten

Fraunhofer-Forschende arbeiten an einer Webplattform, die die Lebensqualität von Menschen mit Parkinson verbessern soll.

15 Stunden ago

Axel Springer und Microsoft vertiefen Partnerschaft

Mit gemeinsamen Angeboten in den Bereichen Vermarktung, KI, Content und Cloud will man "unabhängigen Journalismus…

17 Stunden ago

Keine Angst vor Phishing

Bereits seit einigen Jahren führt die RGF Staffing Germany Schulungen durch, um die eigenen Mitarbeiter…

23 Stunden ago

Blick ins Innenleben industrieller KI

Das Europäische Forschungsprojekt XMANAI hat den Blick in die KI geöffnet und macht ihre Entscheidungsprozesse…

24 Stunden ago

Wie Hacker Large Language Models für ihre Zwecke nutzen

Hacker nutzen LLM weniger als visionäre Alleskönner-Technologien, sondern als effiziente Werkzeuge zum Verbessern von Standardangriffen,…

24 Stunden ago

Software AG entwickelt KI-gestütztes Process-Mining-Tool

Der "ARIS AI Companion" soll alle Mitarbeitenden darin befähigen, Prozesse zu analysieren und Ineffizienzen aufzudecken.

1 Tag ago