Wenn man den Wetterbericht höre oder lese, mache man sich in der Regel wenig Gedanken darum, wie viel Rechenleistung und wie viele Datenabfragen notwendig seien, bevor der Bericht zu Stande kommt, so Kobayashi-Hillary.
Mittlerweile seien die Techniken für die Analyse großer Datenmengen weit fortgeschritten. IBM nutze diese Prognose-Technologien, um in Zusammenarbeit mit dem Beacon Institute die Wasserqualität des Hudson zu untersuchen. Dabei habe sich herausgestellt: 98 Prozent der Änderungen der Wasserqualität geschahen in nur 2 Prozent der Zeit.
Dies sei ein Beispiel für das Pareto-Prinzip, so Kobayashi-Hillary. Um zu wissen, wann die entscheidenden zwei Prozent auftreten, müsse man die Daten jedoch zu 100 Prozent auswerten. [Das Pareto-Prinzip ist auch als die 80-20-Regel bekannt. Es besagt zum Beispiel, dass ein Unternehmen 80 Prozent des Umsatzes mit 20 Prozent der Kunden erzielt.]
Anstelle von Schätzungen und Intuition müssten auch Unternehmen auf die Auswertung großer Datensammlungen setzen, schreibt der Fachautor. Data Warehousing und Business Intelligence seien dabei nur der erste Schritt. Führungskräfte fragten immer mehr nach Daten, die ihnen Fakten-basierte Entscheidungen ermöglichen. “Und es ist die Aufgabe der IT-Abteilung oder IT-Dienstleisters herauszufinden, wo diese Informationen existieren.”
Fraunhofer-Forschende arbeiten an einer Webplattform, die die Lebensqualität von Menschen mit Parkinson verbessern soll.
Mit gemeinsamen Angeboten in den Bereichen Vermarktung, KI, Content und Cloud will man "unabhängigen Journalismus…
Bereits seit einigen Jahren führt die RGF Staffing Germany Schulungen durch, um die eigenen Mitarbeiter…
Das Europäische Forschungsprojekt XMANAI hat den Blick in die KI geöffnet und macht ihre Entscheidungsprozesse…
Hacker nutzen LLM weniger als visionäre Alleskönner-Technologien, sondern als effiziente Werkzeuge zum Verbessern von Standardangriffen,…
Der "ARIS AI Companion" soll alle Mitarbeitenden darin befähigen, Prozesse zu analysieren und Ineffizienzen aufzudecken.