Thomas Telaak

Keine Frage, das Internet of Things (IoT) eröffnet Unternehmen völlig neue Perspektiven bei der Optimierung von Geschäfts- und Produktionsprozessen. Aber was gilt es bei der Planung zu beachten? Welche technischen Voraussetzungen müssen erfüllt sein, welche Investitionen sind zu tätigen? Ein anonymisiertes Beispiel aus unserem Projektalltag gibt Antworten:

Ausgangssituation und Ziele

Der Kunde bietet Messgeräte, die tausendfach an weit entfernten und schwer zugänglichen Standorten platziert sind. Bislang ließen sich die produzierten Sensordaten nur direkt am Gerät mit Hilfe von SD-Karten auslesen und später über Excel genauer betrachten. Eine Vernetzung zwischen den Daten verschiedener Geräte fand nicht statt. Alles in allem handelte es sich also um ein zeitintensives und wenig effektives Prozedere, bei dem die vorhandenen Analysepotenziale nur ansatzweise ausgeschöpft wurden.

Zielsetzung war es daher, die Daten an eine zentrale Stelle zu leiten und dort in Echtzeit auszuwerten. Darüber hinaus sollte das Rohmaterial für die Analyse durch unternehmenseigene Data Scientists bereitgestellt werden, um entsprechende Beziehungen herzustellen und neue Erkenntnisse sowie Optimierungspotenziale zu erschließen. Nicht zuletzt galt es, die Kosten für das Projekt möglichst gering zu halten. Hohe Investitionen in eine umfangreiche Server-Infrastruktur waren ausgeschlossen. Infolgedessen wurde eine flexibel skalierbare Cloud-Lösung angestrebt.

Vorgehensweise im Projekt

Im Rahmen der Projektumsetzung wurde konsequent auf agile Vorgehensweisen gesetzt. Auf Basis von Workshop-Ergebnissen entwarf das aus Unternehmensverantwortlichen und ORAYLIS-Beratern bestehende Projekt-Team innerhalb weniger Tage einen Architekturansatz sowie einen ersten Prototypen mit den wichtigsten Funktionalitäten. Letzterer diente als Diskussionsgrundlage für Verbesserungen und künftige Erweiterungen. Weitere Anforderungen wurden dann schrittweise, in zuvor definierten Iterationen ergänzt.

Die Vorteile dieser Vorgehensweise liegen auf der Hand: Der Kunde wird frühzeitig und laufend in den Entwicklungsprozess einbezogen. Anpassungen – etwa mit Blick auf die aktuelle Wettbewerbssituation – konnten jederzeit flexibel vorgenommen werden. So gelangt man schneller und wirtschaftlicher zu einem besseren Endergebnis.

Verwendete Technologien

Besonders bemerkenswert sind die geringen Hardware-Investitionen: Pro Standort kommt lediglich ein einfacher Raspberry Pi für etwa 40 Euro zum Einsatz, an dem bei Bedarf auch mehrere Messgeräte angeschlossen werden können. Die Hardware-Komponenten dienen als Gateway und werden mit Windows 10 IoT betrieben. Alle anderen Rechen- und Speicherressourcen liegen in der Cloud. Sie lassen sich ganz nach Bedarf vergrößern und verringern. Der Kunde bezahlt also nur das, was er aktuell benötigt.

Softwareseitig basiert die Lösung auf der Azure IoT Suite. Microsofts leicht zu handhabende Komplettpaket ermöglicht einen schnellen und wirtschaftlichen Einstieg in die IoT-Thematik. Es beinhaltet diverse Werkzeuge zur Verarbeitung von Sensordaten in der Cloud. In unserem Fall kommen folgende Dienste zum Einsatz:

· Azure Eventhub

· Azure Stream Analytics

· Azure ML (Machine Learning)

· Azure HDInsight

Die Dienste sind leicht miteinander zu verbinden. Entsprechend gering war der Entwicklungsaufwand. Passend dazu wird Microsofts Self-Service-Suite Power BI für die eigenständige Auswertung und Visualisierung der Daten durch den Fachanwender verwendet.

clip_image002

Ein Raspberry Pi ist die einzig erforderliche Hardware für das IoT-Projekt.

Zusammenspiel der Komponenten

Die Messgeräte sind mit dem Raspberry-Pi-Gateway verbunden. Auf dem Gateway verarbeitet eine Windows-10-App die Sensordaten und schickt diese an den Azure Eventhub, der sozusagen als Verwaltungsinstanz fungiert. Von dort aus werden die Daten zur Echtzeitabfrage an Azure Stream Analytics weitergeleitet. Mit Hilfe von Power BI erfolgt schließlich die Visualisierung.

Gleichzeitig können in Azure ML Modelle zum Machine Learning erstellt und trainiert werden. Zu diesem Zweck greift der Dienst auf abgespeicherte bzw. historische Daten zu, die in der Nacht mit Azure HDInsight verabeitet werden. Die auf diese Weise zunehmend optimierten Modelle können dann wiederum mit aktuellen Echtzeitdaten abgefragt werden, sodass sich Unregelmäßigkeiten frühzeitig erkennen lassen.

Nutzen für den Kunden

Die von den Sensoren gelieferten Messwerte lassen sich nunmehr in Echtzeit überwachen und ortsunabhängig abrufen. Infolgedessen können Abweichungen gezielt vorhergesagt und Instandhaltungsmaßnahmen vorausschauend eingeleitet werden. Hinzu kommt eine Datenanalyse- und Präsentationsplattform, die nicht nur den eigenen Data Scientists, sondern auch den Kunden des Unternehmens zur Verfügung steht.

Gleichzeitig profitiert das Unternehmen von einem ausgezeichneten Preis-Leistungs-Verhältnis. Es muss nicht in eine umfangreiche Infrastruktur investieren, die gegebenenfalls gar nicht ausgeschöpft wird. Vielmehr können Ressourcen gezielt und risikofrei in Anspruch genommen werden, sodass auch der erforderliche Spielraum für Experimente gegeben ist.