
Cloud-Computing
und dessen Einsatz
Cloud-Computing hat sich über die vergangenen Jahre zu einer kosteneffizienten Alternative gegenüber eigens betriebenen Rechenzentren entwickelt. Denn unbestritten sind die damit einhergehenden Vorteile, wie zum Beispiel sinkende Hardware-Investitionen, automatische System-Updates und geringere IT-Pflege. Jedoch können die anfallenden Datenmengen von Produktionsmaschinen nicht zeitnah und in der nötigen Dichte/Auflösung direkt in die Cloud transferiert werden. Dafür kommen sogenannte Edge Devices zum Einsatz, welche die Datenerfassung und -verarbeitung – mit geringer zeitlicher Latenz– direkt am Ort des Entstehens durchführen. Durch diese Kombination werden die Möglichkeiten des Cloud-Computings optimal ausgenutzt. Das Potenzial dieser Technologie bestätigte das Beratungs- und Marktforschungsunternehmen Gartner 2017 mit dem Satz: „The Edge will eat the Cloud“*.
*https://blogs.gartner.com/thomas_bittman/2017/03/06/the-edge-will-eat-the-cloud
Das Edge-Device
und dessen Anforderungen
Ein Edge Device stellt eine lokale Intelligenz dar, welche Daten von On-premise-Systemen erfassen und auch verarbeiten kann. Durch die Verbindung des Edge Devices mit der Cloud ist eine ständig aufrechte Internetverbindung Voraussetzung für den Betrieb dieser Systeme.
Dadurch ergeben sich folgende Kernanforderungen:
- Sichere Verbindung zur Cloud-Infrastruktur
- Absicherung gegen lokale Angreifer
- Hohe Anforderungen an IT-Sicherheit in Produkt und Prozess
- Update-Fähigkeit des Systems
Standardisierung
als Basis für Predictive Ansätze
Der Einsatz von Künstlicher Intelligenz (KI) zum Erreichen von geforderten Predictive Use Cases wird vielfach verlangt. Die größte Herausforderung beim Einsatz einer KI-Pipeline ist der Übergang von einem Proof of Concept (PoC) hin zu einem operativen Betrieb. Dabei ist entscheidend, dass die gesamte Datenverarbeitungskette standardisiert erfolgt, das heißt von der Datenerfassung auf dem Edge Device über das Datenformat bis hin zu Datenablage im Data Warehouse.
Auch im Bereich Machine Learning müssen KI-Modelle stets mit identisch strukturierten Daten gespeist werden, um die notwendige Qualität sicherzustellen. Da diese Modelle aus Gründen der geringeren Latenzzeit und reduzierten Cloud-Daten-Transfers auf einem Edge Devices zur Ausführung gebracht werden, müssen neu trainierte Modelle nahtlos auf das Edge Device übertragen bzw. aktualisiert werden können. Nur durch diese geschlossene Verarbeitungskette können diese Modelle in den produktiven Betrieb gebracht werden.