Ein Cyber-Krimineller hat generell drei Wege zur Auswahl, um an die digitalen Daten eines Unternehmens zu gelangen: Netzwerk, Hardware oder Software. Obwohl die Hälfte aller Hackerangriffe über die Software stattfinden, das heißt über die Unternehmensanwendungen, testen nur zehn Prozent der Unternehmen die Sicherheit der von ihnen eingesetzten Apps. Dabei existieren heutzutage eine Vielzahl von Testverfahren, um die Anwendungssicherheit zu überprüfen. Ganz oben auf der Liste stehen statische und dynamische Analysemethoden.

Das Binary-Static-Analysis-Verfahren (White Box Testing) kann ohne Zugang zum Quellcode Anwendungen auf Sicherheitsschwachstellen analysieren. Als Basis für eine sichere Anwendungsentwicklung bildet sie oft den ersten Schritt in der Test-Infrastruktur. Die statische Binäranalyse liefert ein umfassendes Testergebnis über die Sicherheit von Anwendungen. Die daraus gewonnenen Informationen helfen den Entwicklern nicht nur bei der Behebung von Problemen, sondern schulen sie auch gleichzeitig in der sicheren Software-Entwicklung.

Im Gegensatz zur statischen Analyse identifiziert das Dynamic-Application-Security-Testing (Black Box Testing) Schwachstellen in der Architektur der Web-Anwendungen – und das, bevor Cyber-Kriminelle diese entdecken und ausnutzen können. Bei der dynamischen Analyse versetzt sich der Tester in die Rolle eines Angreifers, der auf der Suche nach möglichen Angriffszielen ist. Dazu führt er automatisiert Attacken auf kritische Webanwendungen wie Formulare oder Online-Shops durch. Die Schwachstellen, die er damit aufdeckt, liegen außerhalb des Anwendungscode-Kontextes. Dennoch haben sie einen starken Einfluss auf die Betriebslaufzeit einer Anwendung. Das kann dazu führen, dass private Web-Anwendungsressourcen, wie beispielsweise Konfigurationsdateien, leaken oder auf den Betrieb über einen unsicheren Kanal herunterstufen.

Aufgrund der unterschiedlichen Ansatzpunkte eignet sich nicht jedes Analyseverfahren für jede Art von Schwachstelle. Beide Technologien weisen deshalb unterschiedliche Schwachstellenhäufigkeiten (Prävalenzen) sowie Vor- und Nachteile für Unternehmen auf. Dynamische Analyseverfahren suchen die Angriffsfläche einer Anwendung ab und analysieren sie. Sie sind dabei in der Lage, Schwachstellen in der Deployment und Server-Konfiguration aufzuspüren. Um eine hohe Code-Abdeckung zu gewährleisten, benötigen die Tests allerdings genügend Zeit. Diese kürzen Unternehmen beispielsweise oft aus Kostengründen, sodass die entdeckten Schwachstellen die wirkliche Situation nicht komplett abbilden.

Statische Analysen bieten Informationen zur Qualität eines Anwendungscodes. Eine niedrige Codequalität sowie Schwachstellen in den Codes, wie beispielsweise Carriage-Return-Line-Feed-Injektionen (CRLF) oder Time-and-State-Fehler, sind dabei meist einfach zu beheben. Daher weisen statische Analysen eine höhere Fixrate (64 Prozent) auf als dynamische Analysen (50 Prozent), denn Entwickler reparieren mehr statische als dynamische Leaks. Beide Analyseverfahren stoßen jedoch bei nicht-automatisierten, firmeneigenen Workflows an ihre Grenzen. Schließlich benötigen solche Testmethoden Zugriff auf Datenbanken und Dateisysteme, um verwertbare Ergebnisse liefern zu können.

Trotz der zu 28 Prozent höheren Fixrate sollten sich Unternehmen beim Thema Anwendungssicherheit nicht alleine auf statische Analysen verlassen. Die Frage sollte also nicht lauten, welche der beiden Analyseverfahren besser Fehler findet. Sie sollte vielmehr in die Richtung gehen, inwiefern sich statische und dynamische Analysen ergänzen können. Die Wahl des richtigen Analyse-Tools hängt letztendlich vom Anwendungsgebiet und der Entwicklungsphase ab. Um Schwachstellen in einer schon bestehenden Anwendung zu finden, können Unternehmen eine dynamische Analyse durchführen. Für Anwendungen, die sich noch in der Entwicklung befinden, empfiehlt sich eine statische Analyse. Bei all diesen Testverfahren dürfen Unternehmen allerdings eines nicht vergessen: Mit den Tools können sie zwar Schwachstellen identifizieren, das Reparieren ist jedoch ein weiterer Schritt, um sichere Anwendungen zu garantieren. Weitere Details bietet der Statusbericht zur Softwareentwicklung: Anwendungsentwicklungsumfeld von Veracode.

Veracode stellt die am häufigsten verwendete cloud-basierte Plattform zur Verfügung, um Web- und Mobilanwendungen sowie Applikationen von Drittanbietern zu schützen. Damit will Veracode Unternehmen weltweit helfen, Innovationen schneller auf den Markt zu bringen, ohne dabei auf Sicherheit verzichten zu müssen.

Redaktion

Recent Posts

Cloud-Beschleuniger Covid

Vielfach hat die Coronapandemie bestehende IT-Strukturen aufgebrochen oder gar über den Haufen geworfen – gefühlt.…

3 Jahre ago

Trends 2021 – Vier Entwicklungen bei (Graph)Datenbanken und Datenanalyse

Das Covid-Jahr 2020 konnte die digitale Transformation nicht ausbremsen. Sogar ganz im Gegenteil: Viele Unternehmen…

3 Jahre ago

Ein globales digitales Identitätssystem muss Vertrauen und Transparenz schaffen

Nach Angaben der Weltbank fehlt mehr als einer Milliarde Menschen ein offizieller Identitätsnachweis. Ohne den…

3 Jahre ago

Nachhaltigkeit wird zu einem der Schlüsselkriterien in der Tech-Industrie

Das Thema Nachhaltigkeit ist seit vielen Jahren fester Bestandteil des Selbstverständnisses vieler Unternehmen. Wenig verwunderlich,…

3 Jahre ago

Chief Data Officer: Garanten für eine stärkere Datennutzung in Unternehmen

Unternehmen sammeln eine Vielzahl von Daten. Doch IDC Analysten fanden in ihrer aktuellen Studie „IDC‘s…

3 Jahre ago

Ethik, Regulierungen, Cloud: Der Nebel lichtet sich

COVID-19 hat 2020 sowohl Gesellschaft als auch Wirtschaft bestimmt. Unbestritten ist auch die katalytische Wirkung,…

3 Jahre ago