Categories: NetzwerkeUnternehmen

IDC prognostiziert Daten-Tsunami

Allein in den vergangenen drei Jahren sei das Datenvolumen von fünf auf 161 Milliarden Gigabyte (Exabyte) angewachsen. Der verfügbare Speicher war 2006 mit 185 Exabyte aber theoretisch noch ausreichend. Das könnte sich in Zukunft ändern.

2010 stehen nach Aussage von IDC aber nur noch Kapazitäten von rund 600 Milliarden Gigabyte zur Verfügung. Es werden danach etwa 400 Milliarden Gigabyte fehlen. Verantwortlich für die stets wachsende Datenflut sind verschiedene Faktoren. Der Mailverkehr wächst, Webseiten sind datenintensiver, Prozesse in Unternehmen werden immer mehr digitalisiert und müssen dann auch elektronisch verwaltet werden, und auch die aufkommende IP-Telefonie nimmt immer mehr Speicherplatz in Anspruch.

Dem Problem Herr zu werden, scheint zuweilen aussichtslos. Eine Zeitlang macht sich der Administrator einer Firma beispielsweise keine Sorgen um mehr Kapazitäten, sinken doch die Preise für Speichernmedien fast so schnell wie die Datenmenge wächst. Irgendwann aber stößt ein Rechenzentrum an seine physikalischen Grenzen. Und dann müssen Alternativen her, die die Flut eindämmen können. Die rigoroseste ist das konsequente Löschen von Informationen, wenn sie nicht mehr benötigt werden.

Das kann schnell zum Problem werden, wenn die Revision auf der Matte steht und Daten von vor zehn Jahren einsehen will. Inzwischen kehren einige wieder zur Mikrofilm-Technik zurück oder setzen auf ganz neue Technologien wie Deduplizierung, die redundante Daten herausfiltert und nur neue Informationen abglegt. Der Rest wird bei Bedarf zusammengesetzt.

Für die Speicherbranche bedeuten die Prognosen dagegen eher traumhafte Aussichten. Selbst wenn die Preise weiter fallen, ist ihnen ein gutes Geschäft sicher. IDC schätzt, dass das Marktvolumen von heute 58 Millionen Dollar auf 200 Millionen Dollar 2011 ansteigen wird. Allerdings steht nicht mehr der Verkauf neuer Hardware-Boxen mit vielen Platten im Vordergrund, sondern Softwarelösungen oder Appliances, die die Datenmenge überwachen, verwalten und vor Risiken wie dem Verlust schützen.

Silicon-Redaktion

Recent Posts

Kubernetes in Cloud-Umgebungen

Ein elementarer Bestandteil einer effektiven Cloud-Strategie ist nach erfolgter Implementierung die künftige Verwaltung des Dienstes.

2 Stunden ago

Aras erweitert seine PLM-Plattform

Die Neuerungen sollen den Digital Thread, die Low-Code-Entwicklung, die Visualisierung komplexer Baugruppen und das Lieferantenmanagement…

4 Stunden ago

Manufacturing-X: Zurückhaltung überwiegt

Eine Bitkom-Umfrage attestiert der Datenraum-Initiative des Bundes hohe Bekanntheit in der Industrie. Doch noch ist…

4 Stunden ago

Ransomware „Marke Eigenbau“

Ransomware-as-a-Service ist ein lukratives Geschäft und in den Händen professionell organisierter Gruppen. Jetzt können Kriminelle…

1 Tag ago

Bad Bots: Risikofaktor mit hohen Folgekosten

Bad Bots richten nicht nur wirtschaftlichen Schaden an. Laut dem Bad Bot Report von Imperva…

2 Tagen ago

IT-Verantwortliche setzen auf KI-Hosting in Europa

Studie von OVHcloud verdeutlicht Stellenwert von Datenresidenz und Datensouveränität bei KI-Anwendungen.

3 Tagen ago