Dazu würden preiswerte Komponenten im einem echten geclusterten Scale-Out-Modell eingesetzt. Dazu soll IBMs Speicher-Wolke auch hohe Speicherkapazitäten im Petabyte-Bereich zur Verfügung stellen. Dabei kommt unter anderem IBMs General Parallel File System zum Einsatz, das sämtliche Daten unter einem einzelnen global adressierbaren Namensraum zur Verfügung stellt.
Zugang zu den Daten erhalten IBMs Kunden über Standardprotokolle, so dass sich Daten direkt auf die Cloud-Server kopieren lassen. Zudem kann die Lösung vorhandene Sicherheits- und Authentifizierungsinfrastrukturen eines Anwenders nutzen.
Zunächst wird das Angebot nur einzelnen Unternehmen als Private-Cloud zur Verfügung stehen. Geplant ist jedoch eine Erweiterung zur so genannten Public-Cloud, bei der dann nach flexiblen Verbrauchsmodellen abgerechnet werden kann und ein Selbstbedienungs-Interface angeboten wird. So soll es möglich sein, die Technologie völlig vom Endnutzer abzukapseln.
Bad Bots richten nicht nur wirtschaftlichen Schaden an. Laut dem Bad Bot Report von Imperva…
Studie von OVHcloud verdeutlicht Stellenwert von Datenresidenz und Datensouveränität bei KI-Anwendungen.
Mit KI können Unternehmen der Paketbranche Prozesse optimieren, Kosten einsparen und sich zukunftssicher aufstellen.
Land Niedersachsen schließt datenschutzrechtliche Vereinbarung mit Microsoft zur Nutzung von Teams ab.
Ein Großteil der Inventurdifferenzen im deutschen Einzelhandel wird durch Ladendiebstähle verursacht.
DDoS-Angriffe haben seit dem Beginn des Krieges zwischen Russland und der Ukraine an Häufigkeit und…