Edge-, Fog- und Cloud-Computing

Die Themen Edge-Computing, Fog-Computing und Cloud-Computing werden immer öfter in Beiträgen zum Themen Industrial Internet of Things (IIoT) genannt und finden sich auch in unserer Edge Computing Plattform wieder. Im Folgenden haben wir eine kurze Übersicht der drei Konzepte zusammengestellt.

Edge-Computing

Eine verteilte IT-Infrastruktur ist das Basismodell für Edge-Computing, bei dem die Daten aus dezentralen Edge-Devices unmittelbar am Ort ihres Entstehens analysiert und bearbeitet werden können. Analog zum Fog-Computing zielt auch das Edge-Computing gegenüber dem herkömmlichen Cloud-Computing auf die Reduzierung von Datenmengen und ihrer Übertragungszeit. Auch hier ist eine dauerhafte Internetverbindung nicht zwingend erforderlich, da die Geräte Daten zwischenspeichern können.

Vor allem in der Fabrik der Zukunft, der Smart Factory, werden Edge-Devices eingesetzt. Integriert in Mobilfunknetze, zukünftig über 5G, in lokalen Netzwerken, Peer-to-Peer Netzen (P2P) und WLAN ermöglichen sie eine Datenverarbeitung in Echtzeit und übertragen Datenströme ressourcenschonend je nach IT-Architektur an Fog-Nodes oder in die Cloud.

Eine hohe Datendichte am Ort ihrer Entstehung ermöglicht es den Edge-Devices, auch durch den Einsatz künstlicher Intelligenz, Anomalien in Datenströmen zu erkennen und mit adäquaten Benachrichtigungen zu reagieren. So können Alarme über das Netzwerk effizient an relevante Empfänger verteilt und Verzögerungen minimiert werden. Je nach Anwendungsfall können automatisierte Prozesse in nachgelagerten Systemen angestoßen werden.

Eine weitere Voraussetzung für die uneingeschränkte Nutzung des IIoT ist die Einbindung von nur eindeutig identifizierbaren Teilnehmern innerhalb eines Netzwerkes. Durch verschiedene Sicherungsmechanismen wird gewährleistet, dass nur zugelassene Geräte innerhalb des Netzwerks kommunizieren.

Lohnt sich der Einsatz von Edge- oder Fog-Computing?

Jetzt informieren

Fog-Computing

In der Regel müssen alle Daten den gesamten Weg von ihrer Entstehung bis hin zur Cloud oder einem physischen Rechenzentrum zurücklegen. Durch die Aufteilung der verfügbaren Bandbreite und den Computing-Ressourcen unter mehreren Nutzern entstehen mitunter hohe Antwort- und Verarbeitungszeiten sowie sicherheitstechnische Bedenken.

Bei dem von der Firma Cisco geprägten Konzept des Fog-Computing werden Teile dieser Daten an den Rand des Netzwerkes delegiert. Dort entscheiden intelligente Geräte darüber, welche Daten dezentral verarbeitet und welche wiederum an die Cloud weitergeleitet werden. Durch die Tatsache, dass sich Datenproduzenten und Konsumenten in unmittelbarer Nähe zueinander befinden, können Latenzzeiten, also die Dauer der Verzögerung zwischen dem Auslösen eines Ereignisses und dessen Antwort, deutlich reduzieren werden. Anwendungen greifen direkt auf die im Netzrand gespeicherten Daten zu und können so eine Echtzeit-Performance erreichen, auch über Systemgrenzen hinaus.

Zukünftig ist der Einsatz von Fog-Computing vor allem im Bereich des Industrial Internet of Things (IIoT) und dem Internet of Everything (IoE) aufgrund der hohen Anzahl an Geräten und Daten vorgesehen. In beiden Netzwerken werden Geräte benötigt, um Anwendungen innerhalb der Plattformen zu steuern und zu verwalten. Auch das Internet of Things (IoT) wächst rasant und Experten gehen davon aus, dass sich bis zum Jahr 2020 die Zahl der vernetzten Geräte auf bis zu 50 Millionen erhöht.
Mit der hohen Anzahl an Geräten steigt auch die Datenmenge, die in das ohnehin stark beanspruchte Netz gespeist wird. Fachleute sehen die IT-Branche mit einer regelrechten „Datenexplosion“ konfrontiert, auf die Provider der derzeitig führenden Cloud-Systeme nicht vorbereitet sind. Daher wird ein großer Teil der bisherigen Cloud-Rechenleistung in das Fog-Netzwerk migriert. Automatisiertes Datenmanagement stellt in der nahen Zukunft einen wesentlichen Faktor dar, wenn es um die Entwicklung von Autonomen Fahren, Künstlicher Intelligenz oder Maschinellem Lernen geht. In allen Systemen ist die unmittelbare Verarbeitung ein wesentlicher Faktor, aus der eine schnelle Entscheidungsfindung resultiert.

Es ist aber nicht nur die Reduzierung des Netzwerk-Traffics, der für den Einsatz von Fog-Computing spricht. Die intelligenten Fog-Devices können auch bei unterbrochener Internetverbindung weiterarbeiten. Außerdem entstehen bei Unternehmen in Zeiten der digitalen Transformation zahlreiche hoch sensible Daten. Deren Integrität muss in jeden Fall gewahrt bleiben und die Speicherung nicht korrumpierbar am Ort ihrer Entstehung gewährleistet werden. Mögliche Einsatzgebiete zeigen sich bereits heute bei der intelligenten Steuerung von Verkehrskameras oder zur Durchführung von Echtzeit-Analysen.

Cloud-Computing

Beim Cloud-Computing spricht man über die Bereitstellung von IT-Ressourcen über ein Netzwerk, beispielsweise dem Internet. Zu den bekannten Cloud-Anbietern zählen Amazon Web Services (AWS), Microsoft Azure, Google Cloud Platform (GCP) und Open Telekom Cloud (OTC).

Bei der Variante Public Cloud werden die Ressourcen gemäß dem Modell „Pay per use“ abgerechnet, Kosten werden also nur durch die Menge an Rechenkapazität, Bandbreite oder Datenmenge verursacht, die tatsächlich in Anspruch genommen wurde.

Die Private Cloud hingegen wird in der Regel innerhalb des eigenen Unternehmens bereitgestellt und administriert. Der Vorteil gegenüber der Public Cloud liegt darin, dass Ressourcen nicht zwingend auf mehrere Nutzer aufgeteilt werden und dadurch Kosteneinsparungen bei höherer Performance möglich sind.

Eine Kombination beider Modelle bietet die Hybrid Cloud, bei der sowohl IT-Ressourcen im Unternehmen bereitgestellt werden, als auch auf Kapazitäten der Public Cloud zugegriffen werden kann. Dieses Variante bietet eine hohe Flexibilität bei schwankenden Anforderungen an die Verfügbarkeit der Ressourcen.

Sollen die Vorteile eines jeden Cloud-Providers optimal genutzt werden, wird eine Multi Cloud eingerichtet. Sie erlaubt die gleichzeitige Nutzung von Cloud-Diensten unterschiedlicher Anbieter und kann zudem Komponenten aus Private Cloud und Public Cloud enthalten. Die Administration erfolgt über sogenannte Cloud-Management Plattformen (CMP). So bietet die Multi Cloud maximale Flexibilität erhöht jedoch die Komplexität in puncto Management je nach Anzahl an Anbietern und unterstützten Modellen.

Für Unternehmen bieten die genannten Lösungen einen Kostenvorteil gegenüber konventionellen Systemen, da sich die Gebühr aus dem tatsächlich entstandenen Aufwand bzw. der Leistung des Cloud Service Providers (CSP) berechnet.

Fragen zur passenden Cloud-Computing Lösung?

Wir beraten Sie gerne