Transparente Komprimierung für SSDs

XPoint-Konkurrent von Samsung: die Z-SSD. Allerdinsg scheint es hier ein Problem mit der Hitzeentwicklung zu geben, fällt doch die Kühlung recht umnfangreich aus (Bild: Samsung)

Das Start-Up ScaleFlux stellte auf der ITPressTour in Kalifornien eine innovative Technologie namens transparente Komprimierung vor, um die Leistungsfähigkeit von Solid State Disks (SSDs) zu steigern.

Transparente oder Inline-Komprimierung wirkt wie ein Beschleuniger für bestimmte Arbeitslasten, was kontraintuitiv erscheinen kann. Aber es macht Sinn, wenn man versteht, was unter der Haube des Flash-Speichers passiert. Bei der transparenten Komprimierung werden Daten beim Schreiben in den Flash-Speicher komprimiert und beim Lesen dekomprimiert, ohne dass der Host eingreifen muss. Der Host weiß möglicherweise nicht einmal, dass dies innerhalb der SSD geschieht. Die transparente Komprimierung ist eine Beschleunigungsfunktion, die eine höhere anhaltende zufällige Schreibleistung, eine bessere Read-Tail-Latenz bei gemischten Arbeitslasten und eine geringere Schreibverstärkung zur Verbesserung der Ausdauer bringen kann. Sie beseitigt viele Kompromisse, die bei CPU-basierter Kompression auftreten, insbesondere in Umgebungen mit hoher IOPS.

Die Grundvoraussetzung ist, dass durch die Reduzierung der Schreibaktivität auf Flash die folgenden Vorteile erzielt wird:
– Erhöhung der anhaltenden zufälligen Schreib-IOPS
– Verbesserung der Leselatenz bei gemischten Lese-/Schreib-Workloads durch Verringerung der Interferenzen zwischen Schreib- und Lesevorgängen
– Verbesserte Ausdauer durch Reduzierung der geschriebenen Datenmenge

Wie funktioniert die transparente Komprimierung?

Es braucht nicht allzu viel Datenkomprimierung, um signifikante Leistungs- und Ausdauergewinne zu erzielen. Ab einer Komprimierungsrate von 2:1 nimmt der Nutzen ab, da die Hostdaten physisch weniger als die Hälfte des verfügbaren Mediums belegen, so dass die Garbage Collection mit wenigen bis gar keinen Datenbewegungen funktionieren kann. Ein weiteres Ergebnis der Komprimierung ist die effektive Erhöhung des zusätzlichen Over-Provisioning (OP) für die SSD. Auf dem Markt gibt es 7 % OP für “leseintensive” und 28 % OP für “schreibintensive” Kapazitäten (z. B. 3,2 TB vs. 3,84 TB), die sich nur durch 20 % freien Speicherplatz unterscheiden, so dass ein Kompressionsverhältnis von 1,2:1 ein “leseintensives” Laufwerk in ein “schreibintensives” verwandeln kann. Zufälligerweise können wir typischerweise LZ4 (oder Snappy) komprimierte Daten um etwa 20% weiter komprimieren (durch die Huffman-Kodierungsstufe).

Wie sieht es mit der Kapazität von ScaleFlux SSDs aus?

Wenn die Daten komprimierbar sind, kann ScaleFlux dem Host zusätzliche Kapazität zurückgeben   durch das NVMe Thin Provisioning Feature Set. Die Namespace-Größe kann dann größer als die physische Kapazität, die es unterstützt, eingestellt werden. Die physische Auslastung wird im Namespace-Nutzungsfeld angezeigt und vom Host überwacht. Bei der Leistungssteigerung handelt es sich nicht um einen Entweder-Oder-Kompromiss. Nehmen wir an, die Daten sind im Durchschnitt im Verhältnis 2:1 komprimierbar; das erweitert die Kapazität von 3,84 TB auf 6,2 TB und um 28 % das OP-Leistungsniveau.

Wie schneidet ein Laufwerk im Vergleich ab, wenn ihre Arbeitslast die Komprimierung nicht ausnutzt?

Daten umgehen die Komprimierung, wenn sie nicht komprimierbar sind, wodurch die SSD-Leistung mit führenden Gen4 NVMe SSDs auf dem Markt konkurrieren kann. Mit anderen Worten: Die Datenkomprimierbarkeit ist das A und O.