Categories: CloudCloud-Management

In vier Schritten zu einer performanteren Cloud

Die Leistungseffizienz eines Cloud-Systems spielt für Administratoren und Entwickler im Unternehmen zwar eine wichtige Rolle, doch kann sich diese Gruppe auch mit weniger performanten Lösungen arangieren. Aus operativer Sicht ist für die IT-Abteilung entscheidend, dass die Systeme funktionieren und Ausfallzeiten minimiert werden.

Demgegenüber steht und fällt die Arbeit von Endanwendern im Grunde mit der tatsächlichen Leistungsfähigkeit der Lösung im Alltag. Für die Mitarbeiter eines Unternehmens drücken nicht-responsive Systeme die Produktivität. Im schlechtesten Fall können Tätigkeiten so weit verzögert werden, als wären die Nutzer mit einem Systemausfall konfrontiert.

Die Leistungseffizienz von Cloud-Lösungen lässt sich laut FPT Software mit dem Drehen an vier Stellschrauben steigern. IT-Entscheider, die diese vier Punkte berücksichtigen, schaffen eine gute erste Grundlage zur Optimierung der Leistungseffizienz ihrer Cloud-Systeme. Mit der regelmäßigen Evaluation dieser und weiterer Aspekte gemeinsam mit Experten des Providers oder des beauftragten IT-Dienstleisters können sie zudem sicherstellen, dass ihr Unternehmen und seine Mitarbeiter auch langfristig Zugang zu einer effizienten, produktiven Cloud-Umgebung haben.

1. Skalierung der Rechenressourcen automatisieren

„Scaling-out/in“ bezeichnet die horizontale Skalierung von Server-Ressourcen, etwa die Anpassung von Instanzen. Es bietet Unternehmen die Möglichkeit, ihre IT-Infrastruktur rasch anzupassen, ohne die Arbeit der Mitarbeiter zu stören. Dieser Vorgang ist wesentlich effizienter und vor allem schneller als „Scaling-up/down“, also die Anpassung von Server-Kapazitäten, auch bekannt als vertikale Skalierung. Die Erstellung von Regeln für eine automatisierstierte Skalierung von Ressourcen kann schnell komplex werden. Daher empfiehlt es sich, mit einer einfachen, zeitplanbasierten Konfiguration zu beginnen, die sich nach den tageszeitlichen Anforderungen richtet. Das Cloud-System kann beispielsweise zu operativen Peak-Zeiten „Scaling-in“ für bestimmte Fachbereiche durchführen und in Ruhephasen „Scaling-out“. Auf diese Weise lassen sich Cloud-Ressourcen flexibel an die Nutzung der Abteilungen und Anwender anpassen und verschieben.

2. Latenzen verkürzen mit Implementierung lokaler Instanzen

Auch wenn Cloud-Lösungen den Eindruck erwecken, dass alles jederzeit verfügbar ist, lässt sich die Physik nicht austricksen. Geografische Faktoren spielen auch für die Cloud eine große Rolle. Für Anwender in Deutschland macht es einen spürbaren Unterschied im Umgang mit einer Cloud-basierten Anwendung, ob diese in einem regionalen Rechenzentrum gehostet wird oder von einem anderen Kontinent. Nutzer, die von derselben Region auf dasselbe Produkt zugreifen, werden eine deutlich bessere Anwendungserfahrung haben. Für Unternehmen macht es daher Sinn, auf lokale Cloud-Instanzen zu setzen, um das Latenzverhalten der Anwendungen und damit letztlich die Produktivität der Mitarbeiter zu verbessern. Darüber hinaus ist die Integration eines Load Balancers sinnvoll, der den Datenverkehr im Unternehmen entsprechend auf die verteilten Cloud-Ressourcen geographisch sinnvoll verteilt.

3. Zwischenspeicherung häufig genutzter Daten in Anwendernähe

Eine große Zahl an Daten in einem Unternehmen besteht aus unveränderlichen, sogenannten statischen Dateien. Dazu zählen Bilder, Videos, Stylesheets oder Formulare, die oft eine hohe Datenmenge erreichen und intern sowie extern – auf Webseiten und in Webanwendungen – zur Verfügung gestellt werden. Statische Dateien eignen sich perfekt für die Bereitstellung über ein Content Delivery Network (CDN). Dieses vervielfältigt die Inhalte über viele geographische Regionen hinweg und stellte Nutzern auf aller Welt immer die nächstgelegene Kopie zur Verfügung. Auf diese Weise könne lokal ausgeführte Anwendungen direkt auf diese Assets zugreifen und reagieren so deutlich schneller in der Nutzung. Der langwierige Umweg in Form der Abfrage einer zentralen Datenbank entfällt.

4. Mit gutem Monitoring Flaschenhälse aufspüren

Leistungsengpässe können im Zuge einer ordnungsgemäßen und regelmäßigen Beobachtung wesentlich schneller entdeckt werden. Erst durch kontinuierliches Monitoring und mit der Herstellung vollständiger Transparenz über verfügbare Ressourcen und Arbeitslasten können IT-Entscheider reagieren und die Optimierung des Cloud-Systems vorantreiben. Dies bildet die Basis, um operational das bestmögliche aus den vorhandenen Ressourcen herauszuholen.

Roger Homrich

Recent Posts

Hybrides Arbeiten – Die größten Fehler bei der Rückkehr ins Büro

Unternehmen riskieren, Mitarbeiter wegen schlechter Anwendererfahrungen zu verlieren, warnt Gastautor Roman Pelzel von ISG.

8 Minuten ago

Bumblebee: Cybererpresser setzen auf neue Malware zur Verbreitung von Ransomware

Symantec bringt den Loader Bumblebee in Verbindung mit den Ransomware-Gruppen Conti, Mountlocker und Quantum. Die…

2 Stunden ago

Markt für Microsoft-Partner flaut ab

ISG-Studie: Wettbewerb verschärft sich unter anderem, da Microsoft große und strategisch wichtige Kunden zunehmend direkt…

18 Stunden ago

ZuoRAT: Neue mehrstufige Malware greift SOHO-Router in Europa an

Die Malware ist bereits seit 2020 im Umlauf. Die Hintermänner setzten ZuoRAT nur für zielgerichtete…

22 Stunden ago

Firefox 102: Mozilla schließt 21 Sicherheitslücken

Für mehr Sicherheit sorgt auch ein strikteres Sandboxing des Audio-Decoding. Die Entwickler verbessern zudem den…

24 Stunden ago

Arm stellt zweite Generation der Armv9-CPUs vor

Die überarbeiteten Kerne Cortex-X3 und Cortex-A715 steigern die Peak Performance um bis zu 25 Prozent.…

1 Tag ago