René Büst

ist Director of Technology Research & Technology Evangelism bei dem KI-Spezialisten Arago.

ForschungInnovation

AI-defined Infrastructure: Intelligente Infrastrukturen für eine neue Generation von Geschäftsmodellen und Applikationen

IT- und Business-Entscheider in jeder Art von Unternehmen stellt sich aktuell die Frage, wie sie das Potenzial von AI nutzen könnten. Im Gastbeitrag für silicon.de gibt René Büst, Director of Technology Research bei Arago, Anhaltspunkte für die Orientierung.

Der Hype um Artificial Intelligence (AI) hat 2016 seinen vorläufigen Höhepunkt erreicht. Das Marktforschungs- und Beratungshaus Tractica geht davon aus, dass der weltweite jährliche Umsatz mit AI von 643,7 Millionen Dollar in 2016 bis 2025 auf 38,8 Milliarden Dollar anwachsen wird. Der Umsatz mit “AI Enterprise-Applikationen” soll von 358 Millionen Dollar in 2016 auf 31,2 Milliarden Dollar im Jahr 2025 steigen. Die durchschnittliche jährliche Zuwachsrate liege bei stolzen 64,3 Prozent.

IT- und Business-Entscheider müssen sich heute also mit dem Potenzial von AI auseinandersetzen. Für Unternehmen jeglicher Art und Form stellt sich somit die Frage, mit welchen Technologien beziehungsweise Infrastrukturen, sie ihren Enterprise-Stack AI-ready machen.

Was ist Artificial Intelligence (AI)?

Künstliche Intelligenz (Bild: Shutterstock/agsandrew)

“Das Ziel der Artificial Intelligence besteht darin, Maschinen zu entwickeln, welche sich so verhalten, als wären sie intelligent”, definierte Prof. John McCarthy den Begriff. Sprechen wir in diesem Zusammenhang von intelligent, dann reden wir von einem sich dynamisch verhaltenen System.

Ein System, das wie ein leerer IQ-Container betrachtet werden muss. Ein System, das unstrukturierte Informationen benötigt, um seine Sinne zu trainieren. Ein System, welches ein semantisches Verständnis der Welt benötigt, um in der Lage zu sein zu handeln. Ein System, das auf eine detaillierte Karte seines Kontext angewiesen ist, um unabhängig zu agieren und Erfahrungen aus einem Kontext in den anderen zu übertragen. Ein System, das mit allen notwendigen Mitteln ausgestattet ist, um Wissen zu entwickeln, auszubauen und aufrechtzuerhalten.

Hierbei liegt es in unserer Verantwortung, unser Wissen mit diesen Maschinen zu teilen als würden wir es mit unseren Kindern, Partnern oder Kollegen teilen. Dies ist der einzige Weg, um diese Maschinen, bestehend aus Hard- und Software, in einen Status zu überführen, den wir als “intelligent” beschreiben. Nur damit helfen wir ihnen, auf einer täglichen Basis intelligenter zu werden und legen damit die Grundlage, ein selbstlernendes System zu schaffen. Hierzu werden in der AI-Forschung drei unterschiedliche Typen von AIs unterschieden:

    • Strong AI: Bei einer Strong AI handelt es sich um eine selbstbewusste Maschine, die über Gedanken, Gefühle, einem Bewusstsein und den dazugehörigen neuronalen Verwachsungen verfügt. Wer sich Kann schon auf eine Realität á la “Her” oder “Ex-Machina” freut, wird sich noch etwas gedulden müssen. Eine Strong AI existiert derzeit nicht und es wird noch eine unbestimmte Zeit dauern, bis diese Form existieren wird.
    • Narrow AI: Die meisten Anwendungsfälle im AI-Bereich fokussieren sich aktuell darauf, Lösungen für ein sehr spezielles Problem zu bieten. Diese sogenannten Narrow AIs sind sehr gut darin spezifische Aufgaben zu lösen, wie zum Beispel das Empfehlen von Songs auf Pandora oder Analysen, um die Tomatenzucht in einem Gewächshaus zu optimieren.
    • General AI: Eine General AI ist in der Lage, Aufgaben aus unterschiedlichen Bereichen und Ursprüngen zu bearbeiten. Hierzu besitzt sie die Fähigkeiten, die Trainingsintervalle von einem Bereich zu einem anderen zu verkürzen, indem sie die gesammelten Erfahrungen aus dem einen Bereich in einem anderen Artfremden Bereich anwenden kann. Der hierfür notwendige Wissenstransfer ist nur dann möglich, wenn eine semantische Verbindung zwischen diesen Bereichen existiert. Hinzu kommt: Je stärker und verdichteter diese Verbindung ist, desto schneller und einfacher lässt sich der Wissensübergang erreichen. Im Vergleich zu einer Narrow AI besitzt eine General AI somit alles notwendige Wissen und Fähigkeiten, um neben der Tomatenzucht in einem Gewächshaus gleichzeitig Gurken, Auberginen, Paprika, Radieschen, Rettich und Kohlrabi zu züchten. Eine General AI ist also ein System, was mehr als nur eine spezifische Aufgabe erledigen kann.

Eines liegt klar auf der Hand. Ohne Technologien wie Cloud Computing hätte AI nicht seinen Boom in der heutigen Zeit erreicht. Sowohl Cloud-Services als auch Fortschritte im Bereich der Machine Intelligence haben es für Unternehmen einfacher gemacht, AI-basierende Funktionsweisen einzusetzen, um enger mit ihren Kunden zu interagieren. Immer mehr Unternehmen wie Airbnb, Uber oder Expedia setzen bereits auf Cloud-basierte Systeme, um AI-relevante Aufgaben zu verarbeiten, welche auf einen intensiven CPU/ GPU-Einsatz sowie Services für umfangreiche Datenverarbeitungs- und Analyseaufgaben zurückgreifen.

Unternehmen sollten im Kontext ihrer AI-Strategie daher die AI-Services unterschiedlicher Cloud-Anbieter evaluieren. Ein weiterer Teil ihrer Strategie sollte eine AI-defined Infrastructure einnehmen. Die Basis für diese Art von Infrastruktur liegt eine General AI zu Grunde, welche drei typische menschliche Eigenschaften vereint, mit denen Unternehmen in die Lage versetzt werden, ihre IT- und Geschäftsprozesse zu steuern.

      • Lernen (Learning): Anhand von Lerneinheiten erhält die General AI die Best Practices und Gedankengänge von Experten. Hierzu wird das Wissen in granularen Stücken vermittelt, welche einen separaten Teil eines Prozesses beinhalten. Im Kontext eines Gewächshauses lernen die Experten der AI z.B. sämtliche Prozessschritte detailliert an, was sie tun, um bspw. eine Gurke, eine Aubergine und eine Paprika zu züchten. Hierbei teilen sie der AI kontextbezogenes Wissen mit, welches u.a. das „Was muss gemacht werden“ und „Warum muss dies gemacht werden“ beinhaltet.
      • Verstehen (Understanding): Mit dem Erstellen eines semantischen Graphs (bestehend aus Daten) versteht die General AI die Welt, in welcher sich das Unternehmen mit seiner IT und dem Geschäftszweck befindet. Der semantische Graph eines Gewächshauses würde demnach verschiedene Kontexte (z.B. Informationen, Eigenschaften und Spezifika über das Gewächshaus, die Gurkenzucht, die Auberginenzucht und die Paprikazucht) zusammenfassen und ständig mit hinzugeführten Wissen (vgl. Lernen) anreichern. Die IT des Unternehmens spielt dabei eine wichtige Rolle, da hier sämtliche Daten zusammenlaufen.
      • Lösen (Solving): Mit dem Konzept des Machine Reasoning lassen sich Probleme in unklaren und insbesondere sich ständig verändernden Umgebungen lösen. Die General AI ist damit in der Lage, dynamisch auf den sich fortwährend wechselnden Kontext zu reagieren und den besten Handlungsablauf zu wählen. Anhand des antrainierten Wissens (Lernen) und dem Aufbau des semantischen Graphs (Verstehen) ist die General AI in einem Gewächshaus damit in der Lage, nicht nur ausschließlich eine einzige Gemüsesorte (das wäre eine Narrow AI) zu züchten. Dies erfolgt anhand der wachsenden Menge an antrainierten Wissensbausteinen, die zu einem Wissenspool führen, aus welchem anhand des Machine Reasoning die bestmöglichen Wissenskombinationen kombiniert werden, um Lösungen zu finden. Je mehr Wissensbausteine über die Zeit hinzugefügt werden, führt diese Art des kollaborativen Lernens zu einer besseren Bearbeitungszeit. Weiterhin steigt die Anzahl möglicher Permutationen exponentiell mit der Menge an hinzugefügten Wissens an. Je größer also der semantische Graph wird, desto mehr und dynamischer können weitere Gemüsesorten gezüchtet werden.

Welche Anforderungen hat AI an Infrastrukturumgebungen?

AI ist derzeit die Technologie, welche das Potenzial besitzt, nicht nur existierende Infrastrukturen – wie Cloud-Umgebungen – zu verbessern, sondern ebenfalls eine neue Generation von Infrastruktur-Technologien voranzutreiben. Denn als ein wichtiger Technologie-Trend hat AI neben der Entwicklung einer ganz neuen Generation von Programmier-Frameworks auch die Anforderungen an eine neue Generation von Hardware-Technologien beeinflusst, um AI-Applikationen skalierbar zu betreiben.

Mehr zum Thema

Virtual und Mixed Reality in der Arbeitswelt

Den Möglichkeiten ist eine Studie von Deloitte, Fraunhofer FIT und Bitkom nachgegangen. Deren Autoren sehen enormes Potenzial, warnen aber auch vor überzogenen Erwartungen. Der eco Verband hält zugleich das Feld Augmented Reality für unterschätzt.

Mobile- und IoT-Anwendungen haben hinsichtlich der Runtime-Umgebung bisher nur geringe Anforderungen an eine Infrastruktur gestellt. Hierfür war es hingegen kritisch, entsprechende Services bereitzustellen, mit denen ein Backend aufgebaut werden kann. Im Gegensatz dazu erwarten AI-Applikationen nicht nur anspruchsvolle Backend-Services, sondern auch optimierte Runtime-Umgebungen, welche auf die GPU-intensiven Anforderungen von AI-Lösungen abgestimmt sind. AI-Applikationen fordern die Infrastruktur hinsichtlich der parallelen Verarbeitung von Aufgaben in sehr kurzen Zeitzyklen heraus.

Insbesondere für die Beschleunigung von Deep Learning Anwendungen kommen dann bevorzugt GPU-Prozessoren zum Einsatz. GPU-optimierte Anwendungen verteilen die rechenintensiven Bereiche der Anwendung auf die GPU (Grafikprozessor) und lassen die einfachen Berechnungen wie gewöhnlich von der CPU verarbeiten. Damit wird die Ausführung der gesamten Anwendung beschleunigt.

Der Vorteil einer GPU gegenüber einer CPU zeigt sich in den jeweiligen Architekturen. Eine CPU ist ausschließlich auf die serielle Verarbeitung ausgelegt und verfügt nur über wenige Kerne. Eine GPU hingegen besteht aus einer parallelen Architektur mit einer großen Menge kleinerer Kerne, welche die Verarbeitung der Aufgaben gleichzeitig übernehmen. Nach Angaben von NVIDIA ist der Anwendungsdurchsatz einer GPU um den Faktor 10 bis 100 größer als bei einer CPU.

Googles Tensor Processing Unit ist für Maschinenlernen optimiert (Bild: Google).
KI benötigt auch die passende Infrastruktur: Google verwendet in seinen Rechenzentren die Tensor Processing Unit (TPU). Sie begnügt sich mit weniger Transistoren pro Rechenoperation als andere Prozessoren und erreicht so eine höhere Leistung pro Watt für Maschinenlernen, was Nutzern letztlich mehr intelligente Ergebnisse in kürzerer Zeit liefert. (Bild: Google).

Eine Infrastruktur sollte also in der Lage sein, bei Bedarf ein Deep Learning Framework wie TensorFlow oder Torch über hunderte oder gar tausende Nodes bereitzustellen, die direkt mit der optimalen GPU-Konfiguration zur Verfügung stehen. Hiermit beginnend lässt sich eine Liste von Anforderungen (nicht vollständig) für Infrastrukturen zusammenstellen, um AI-Anwendungen zu unterstützen:

      • Unterstützung gängiger AI-Frameworks: Infrastrukturen müssen in der Lage sein, AI-Applikationen die auf gängigen AI-Frameworks wie TensorFlow, Caffe, Theano oder Torch betrieben werden, auf dieselbe Art und Weise zu unterstützen, wie Web-Applikationen oder Backend-Prozesse. Somit sollte eine Infrastruktur sich nicht ausschließlich auf ein AI-Framework beschränken, sondern das Portfolio im Interesse von Entwicklern möglichst großzügig gestalten.
      • Auf GPU-optimierte Umgebung: Um sicherzustellen, dass eine Infrastruktur willkürlich jeden AI-Prozess ausführen kann, muss sie GPU-Umgebungen für das Bereitstellen schneller Rechenleistung zur Verfügung stellen. Mit seinen N-Series GPU Instanzen für Azure ist Microsoft einer der Vorreiter in diesem Bereich.
      • Management-Umgebung und –Tools: Eine der größten Herausforderungen aktueller Infrastrukturumgebungen ist der Missstand von verfügbaren Management Tools für den Betrieb von AI-Frameworks. Hier ist insbesondere das direkte Zusammenspiel der AI-Frameworks mit der Infrastruktur unumgänglich, um für eine bestmögliche Abstimmung und somit Leistung zu sorgen.
      • AI-integrierte Infrastruktur-Services: Infrastruktur-Anbieter müssen bzw. werden dazu übergehen, AI-Funktionen nicht nur zu unterstützen, sondern AI als einen zentralen Bestandteil ihres Infrastruktur- und Service-Stacks zu integrieren. Diese Form der AI-defined Infrastructure wird nicht nur die Intelligenz von Cloud-Services und Cloud-Applikationen erhöhen, sondern ebenfalls den Betrieb und Aufbau der Infrastrukturen durch den Kunden vereinfachen.
      • Machine Reasoning: Infrastruktur-Anbieter, die ihren Kunden Technologien für das “Machine Reasoning” bereitstellen, helfen diesen dabei, Probleme in unklaren und insbesondere sich ständig verändernden Umgebungen zu lösen. Auf Basis des Machine Reasoning ist eine AI-Umgebung in der Lage, dynamisch auf den sich fortwährend wechselnden Kontext zu reagieren und den besten Handlungsablauf zu wählen. Dies erfolgt, indem die bestmöglichen Wissenskombinationen zusammengeführt werden, um Lösungen zu finden. Anhand des Machine Learning werden die Ergebnisse anschließend anhand von Experimenten optimiert.

Infrastrukturumgebungen und Technologien für AI

Im Laufe der letzten Jahre wurden enorme Investitionen in AI-Funktionalitäten auf Cloud-Plattformen getätigt. Insbesondere die führenden Public Cloud-Anbieter, darunter Amazon, Microsoft und Google liegen hier weit vorne. Aber auch viele PaaS-Anbieter haben ihre Angebote um AI-Services erweitert. Die aktuelle AI-Technologie-Landkarte besteht derzeit aus drei Hauptgruppen:

      • Cloud Machine Learning (ML) Plattformen: Technologien wie Azure Machine Learning, AWS Machine Learning oder Google Machine Learning ermöglichen die Nutzung eines Machine Learning Models unter dem Einsatz proprietärer Technologien. Auch wenn Google Cloud ML auf TensorFlow setzt, erlauben die meisten Cloud-basierten ML-Services nicht das Ausführen von AI-Applikationen, die z.B. in Theano, Torch, TensorFlow oder Caffe geschrieben wurden.
      • AI-Cloud-Services: Technologien wie Microsoft Cognitive Services, Google Cloud Vision oder Natural Language APIs erlauben es komplexe AI bzw. Cognitive Computing Fähigkeiten anhand eines einfachen API-Aufrufs zu verwenden. Dieser Ansatz erlaubt es Unternehmen, Applikationen mit AI-Fähigkeiten zu entwickeln, ohne selbst in die dafür notwendige AI-Infrastrukturen zu investieren.
      • Technologien für Private- und Public-Cloud-Umgebungen: Technologien wie HIRO sind darauf ausgelegt sowohl auf Public Cloud-Umgebungen wie Amazon Web Services oder Private Cloud-Umgebungen wie z.B. OpenStack oder VMware betrieben zu werden. Sie ermöglichen es Unternehmen auf Basis einer General AI kontextübergreifende AI-basierte Geschäftsmodelle zu entwickeln und zu betreiben.

Zu weiteren AI-relevanten Kategorien und ihren Anbietern zählen:

      • Machine Learning: Rapidminer, Context Relevant, H20, Datarpm, LiftIngniter, Spark Beyond, Yhat, Wise.io, Sense, GraphLab, Alpine, Nutonian
      • Conversational AI/ Bots: Mindfield, SemanticMachines, Maluuba, Mobvoi, KITT AI, Clara, Automat, Wit.ai, Cortical.io, Idibon, Luminoso
      • Vision: Clarifai, Chronocam, Orbital Insight, Pilot.ai, Captricity, Crokstyle
      • Auto: NuTonomy, Drive.ai, AI Motive, Nauto, Nexar, Zoox
      • Robotics: Ubtech, Anki, Rokid, Dispatch
      • Cybersecurity: Cyclance, Sift Science, Spark Cognition, Deep Instict, Shift Technology, Dark Trace
      • BI & Analytics: DataRobot, Trifaca, Tamr, Esigopt, Paxata, Dataminr, CrowdFlower, Logz.io
      • Ad, Sales und CRM: TalkIQ, Deepgram, Persado, Appier, Chors, InsideSales.com, Drawbridge, DigitalGenius, Resci
      • Healthcare: Freenome, Cloud Medx, Zebra, Enlitic, Two AR, iCarbonX, Atomwise, Deep Genomics, Babylon, Lunit
      • Text Analysis: Textio, Fido.ai, Narrative
      • IoT: Nanit, Konux, Verdigris, Sight Machine
      • Commerce: Bloomreach, Mode.ai
      • Fintech & Insurance: Cape Analytics, Kensho, Numerai, Alphasense, Kasisto

Unterm Strich lässt sich sagen, dass mit der Weiterentwicklung von AI-Technologien sich gleichzeitig auch Infrastruktur-Umgebungen von einem unterstützenden Modus hin zu einem Model transformieren müssen, in welchem AI-Applikationen so gleichwertig unterstützt werden wie es heute für Web-Applikationen und –Services der Fall ist.

Die Zukunft liegt in einem AI-enabled Enterprise

Eine AI-defined Infrastructure ist ein essentieller Teil des heutigen Enterprise-Stacks und bildet die Basis für das AI-enabled Enterprise. Denn eines liegt ebenfalls klar auf der Hand. Neben dem oft zitierten “War for Talent” oder der Unfähigkeit großer Unternehmen, sich effektiv zu verändern, sehen sich renommierte Unternehmen vielen weiteren Herausforderungen gegenüber.

Amazon Lieferdrohne (Bild: Amazon)
Amazon hat vor gut einem Jahr eine Vereinbarung mit der britischen Regierung unterzeichnet und kann den Lieferservice Amazon Prime Air dort testen. Er ist ein Beispiel für radikale Veränderungen in Branchen durch Eindringlinge von außen (Bild: Amazon)

Was gerne übersehen wird ist die unterschätze Gefahr des Mitbewerbs. Nicht etwa die der bekannten Wettbewerber, sondern Hightech-Unternehmen wie Amazon, Google, Facebook und Co., die unaufhaltsam in renommierte Märkte eimarschieren. Mit unvorstellbaren finanziellen Mitteln dringen diese Hightech-Unternehmen in bekannte Wettbewerbslandschaften renommierter Unternehmen ein und kapern den gesamten Kundenlebenszyklus.

Amazon ist nur ein Beispiel, das bereits damit begonnen hat, die Zwischenhändler in der eigenen Lieferkette aus dem Weg zu räumen. Wir können sicher sein, dass Unternehmen wie DHL, UPS oder FedEx in Zukunft ihre Geschäfte anders machen werden als heute. Hinweis: Amazon Prime Air. Weiterhin hat Amazon alles in die Wege geleitet, um ein vollständiger Ende-zu-Ende Anbieter von Gütern zu werden. Digital wie auch nicht Digital.

Wahrscheinlich wird es auch nicht mehr lange dauern, bis Facebook möglicherweise eine Bankenlizenz beantragen wird. Der potenzielle Kundenzugang, ausreichend Informationen über seine Nutzer und das notwendige Kapital liegen bereits vor. Folglich müssen renommierte Unternehmen schlagkräftige Antworten finden, wenn sie morgen weiterhin existieren wollen.

AI ist eine dieser Antworten und ein kraftvolles Hilfsmittel im Werkzeugkasten von Unternehmen, um sich der Wettbewerbssituation zu stellen.