“Ob Prognosen oder komplexe Entscheidungen zu treffen sind, Gemeinsamkeiten oder Ausreißer in Datenbeständen gesucht werden, stets kostet Komplexität Rechenzeit oder Hardware-Einsatz – häufig sogar beides”, sagt Professor Dr. Wolfgang Benn, Inhaber der Professur Datenverwaltungssysteme an der Technischen Universität Chemnitz.
Die Ursachen: “Entweder müssen extrem viele Datensätze durchsucht werden oder die Kombinatorik der Prädikate in der Abfrage ist enorm hoch, das heißt – eine sehr komplexe Korrelation vieler Attributwerte ist notwendig.” Wenn etwa ein Bauteil eines Fahrzeuges reklamiert wird, muss festgestellt werden, welcher Zulieferer an der Fertigung beteiligt war. Dazu muss die Decodierung der Produkt-Identifikation in die verwendeten Einzel- oder Bestandteile erfolgen – und das dauert.
Der klassische Weg zur Bewältigung dieser Komplexität sei die “KIWI-Methode” (Kill It With Iron). “Dabei kommt zusätzliche Hardware zum Einsatz, was indirekt die Energiekosten erhöht und in der Regel die Anschaffung zusätzlicher Software erfordert”, sagt Benn.
Sächsische Wissenschaftler haben nach Angaben der TU Chemnitz nun eine Alternative entwickelt, die ohne Cluster oder zusätzliche Hardware auskommt, auf die bestehende Datenbank aufsetzt und die Suche meist um den Faktor 100 oder mehr beschleunigt.
Page: 1 2
Ransomware-as-a-Service ist ein lukratives Geschäft und in den Händen professionell organisierter Gruppen. Jetzt können Kriminelle…
Bad Bots richten nicht nur wirtschaftlichen Schaden an. Laut dem Bad Bot Report von Imperva…
Studie von OVHcloud verdeutlicht Stellenwert von Datenresidenz und Datensouveränität bei KI-Anwendungen.
Mit KI können Unternehmen der Paketbranche Prozesse optimieren, Kosten einsparen und sich zukunftssicher aufstellen.
Land Niedersachsen schließt datenschutzrechtliche Vereinbarung mit Microsoft zur Nutzung von Teams ab.
Ein Großteil der Inventurdifferenzen im deutschen Einzelhandel wird durch Ladendiebstähle verursacht.