Fog-Computing – dezentraler Ansatz für IoT-Clouds
IoT, das Internet of Things, verändert IT-Landschaften weltweit. Mehr noch als die Vernetzung von Alltagsgegenständen stellt die sogenannte Smart Factory herkömmliche Cloud-Architekturen vor neue Herausforderungen. Im Rahmen der Industrie 4.0 wird IoT für Industrieanlagen zur Schlüsseltechnologie. Die „intelligente Fabrik“ ist Teil der Hightech-Strategie der deutschen Bundesregierung. Die Vision: Fertigungsanlagen und Logistiksysteme, die ohne menschliches Zutun kommunizieren und Arbeitsabläufe selbstständig organisieren.
Eine entsprechende Infrastruktur steht allerdings bisher nur in urbanen Ballungsräumen zur Verfügung. Firmen an ländlichen Standorten fehlt der Zugang zu leistungsstarken Netzen. Wie es um den Ausbau drahtloser Netze in Deutschland steht, zeigt der Breitbandatlas des Bundesministeriums für Verkehr und digitale Infrastruktur (BMVI). Das Problem: Denkt man das Konzept Smart Factory konsequent zu Ende, könnte eine vollständig vernetzte Industrieanlage tagtäglich mehrere hundert Gigabyte an Daten generieren. Datenmengen, die sich mit etablierten Technologien derzeit weder drahtlos in die Cloud laden noch zentral verarbeiten lassen.
Im Rahmen des Fog-Computings werden Lösungsansätze für solche Probleme bei der Umsetzung von IoT entwickelt.
Was ist Fog-Computing? Eine Definition
Als „Fog-Computing“ bezeichnet man eine Cloud-Technologie, bei der durch Endgeräte generierte Daten nicht direkt in die Cloud geladen, sondern zunächst in dezentralen Minirechenzentren vorverarbeitet werden. Das Konzept umfasst eine Netzwerkstruktur, die sich von den äußeren Rändern des Netzwerks, wo Daten von IoT-Geräten erzeugt werden, bis hin zum zentralen Datenendpunkt in der Public Cloud oder in einem privaten Rechenzentrum (Private Cloud) erstreckt.
Der Rand des Netzwerks wird im IT-Jargon als Edge (englisch für Rand, Kante) bezeichnet. Ein Gerät, das am Netzwerkrand angesiedelt ist (wie beispielsweise ein Sensor an einer Fertigungsanlage), bezeichnet man als Edge-Device.
Der Marketing-Begriff „Fog-Computing“ geht auf den US-amerikanischen Technologiekonzern Cisco zurück – einem der führenden Hersteller für Netzwerk-Lösungen. Der Begriff ist eine gelungene Metapher: Denn, ob wir bei einer Ansammlung feiner Wassertröpfchen von Nebel (engl. Fog) oder Wolken (engl. Clouds) sprechen, entscheidet schließlich allein die Höhe, in der das Phänomen auftritt. Bezogen auf IT-Architekturen bringt Fog-Computing Datenverarbeitungsprozesse zurück auf Bodennähe. Umgesetzt wird dies mit sogenannten Fog-Nodes, Rechenknoten, die als vermittelnde Instanz zwischen der Cloud und zahlreichen IoT-Endgeräten fungieren.
Ziel des sogenannten „Foggings“ ist es, Kommunikationswege zu verkürzen und den Datendurchsatz über Fremdnetze zu reduzieren. Fog-Nodes bilden dabei eine Zwischenschicht im Netzwerk, auf der entschieden wird, welche Daten lokal verarbeitet und welche zur weiteren Analyse oder Verarbeitung in die Cloud oder ein zentrales Rechenzentrum weitergeleitet werden.
Folgende Grafik zeigt eine schematische Darstellung der drei Schichten (Layer) einer Fog-Computing-Architektur:
- Edge-Layer: Der Edge-Layer umfasst alle „intelligenten“ Geräte (Edge-Devices) einer IoT-Architektur. Auf dem Edge-Layer generierte Daten werden entweder direkt am Gerät verarbeitet oder an einen Server (Fog-Node) auf dem Fog-Layer übermittelt.
- Fog-Layer: Der Fog-Layer umfasst eine Reihe leistungsstarker Server, die Daten vom Edge-Layer entgegennehmen, vorverarbeiten und bei Bedarf in die Cloud hochladen.
- Cloud-Layer: Der Cloud-Layer ist der zentrale Daten-Endpunkt einer Fog-Computing-Architektur.
Eine Referenzarchitektur für Fog-Systeme wird im Rahmen des OpenFog Consortiums entwickelt.
Das OpenFog Consortium wurde im Jahr 2015 von Cisco Systems, Intel, Microsoft, Dell, ARM Holdings und der Princeton Universität als offener Zusammenschluss aus Industrie und Wissenschaft gegründet. Die Initiative bemüht sich um eine Standardisierung von Fog-Computing-Technologien und besteht heute aus 57 High-Tech-Unternehmen und akademischen Institutionen.
Abgrenzung zum Cloud-Computing
Von Cloud-Computing grenzt sich Fog-Computing vor allem dadurch ab, an welchem Ort Ressourcen bereitgestellt und Daten verarbeitet werden. Cloud-Computing findet in der Regel in zentralisierten Rechenzentren statt. Ressourcen wie Rechenleistung und Speicher werden von Backend-Servern gebündelt zur Verfügung gestellt und von Clients über das Netzwerk in Anspruch genommen. Dabei verläuft die Kommunikation zwischen zwei oder mehr Endgeräten stets über einen Server im Hintergrund.
An ihre Grenzen kommt eine solche Architektur bei Konzepten wie der „intelligenten Fabrik“, bei der Daten kontinuierlich zwischen unzähligen Endgeräten ausgetauscht werden müssen. Fog-Computing setzt hier auf eine Zwischenverarbeitung nah an der Datenquelle, um den Datendurchsatz zum Rechenzentrum zu reduzieren.
Abgrenzung zum Edge-Computing
Nicht nur der Datendurchsatz bei groß angelegten IoT-Architekturen bringt das Cloud-Computing an seine Grenzen. Ein weiteres Problem ist die Latenz. Die zentralisierte Datenverarbeitung ist in jedem Fall durch die langen Übertragungswege mit einer Zeitverzögerung verbunden. Endgeräte und Sensoren müssen stets den Server im Rechenzentrum ansprechen, um miteinander zu kommunizieren, und sowohl die externe Verarbeitung der Anfrage als auch die Antwort abwarten. Zum Problem werden Latenzzeiten dieser Art beispielsweise bei IoT-gestützten Fertigungsprozessen, bei denen eine Informationsverarbeitung in Echtzeit sichergestellt werden muss, damit Maschinen unmittelbar auf Vorfälle reagieren können.
Einen Lösungsansatz für das Latenzproblem bietet Edge-Computing, ein Konzept im Rahmen des Fog-Computings, bei dem die Datenverarbeitung nicht nur dezentralisiert wird, sondern direkt im Endgerät und damit am Rand („Edge“) des Netzwerks erfolgt. Dabei wird jedes „intelligente Gerät“ mit einem eigenen Micro-Controller ausgestattet, der eine grundlegende Datenverarbeitung sowie die Kommunikation mit anderen Geräten und Sensoren im IoT ermöglicht.
Fog-Computing in der Praxis
Das IoT von heute ist mit dem von morgen nicht zu vergleichen. Bereits 2020 soll das Internet der Dinge einer Cisco-Studie zufolge weltweit rund 50 Milliarden Geräte umfassen. Entsprechend hoch wird das Datenaufkommen sein, das gespeichert, analysiert und für eine Weiterverarbeitung aufbereitet werden muss.
Die intelligente Fabrik ist bei weitem nicht der einzige Anwendungsbereich, in dem Fog-Computing entlastend zum Einsatz kommen kann. Auch andere Zukunftsprojekte wie Connected Cars – halbautonome oder selbstfahrende Autos – oder die vernetzte Stadt mit intelligenten Versorgungsnetzen erfordern eine Datenanalyse in Echtzeit. Die lässt sich mit klassischem Cloud-Computing nicht umsetzen. Ein intelligentes Fahrzeug erfasst beispielsweise Daten zur Umgebung, zu Fahrbedingungen und der Verkehrslage, die ohne Latenz ausgewertet werden müssen, damit Reaktionen auf unvorhersehbare Vorfälle auch rechtzeitig erfolgen können. Fog-Computing ermöglicht in einem solchen Szenario die Verarbeitung von Fahrzeugdaten sowohl im Fahrzeug als auch beim Anbieter des Service.
Vorteile und Nachteile in der Übersicht
Fog-Computing bietet Lösungsansätze für diverse Probleme cloudbasierter IT-Infrastrukturen. Im Vordergrund stehen Ansätze, die kurze Kommunikationswege versprechen und den Upload in die Cloud auf ein Minimum beschränken. Die dezentrale Verarbeitung am Rand des Netzwerks birgt jedoch auch Nachteile. Diese ergeben sich vor allem aus dem Aufwand für die Wartung und Administration eines verteilten Systems.
Tabelle: Vor- und Nachteile einer Fog-Computing-Architektur
Vorteile | Nachteile |
---|---|
✔ Weniger Netzwerk-Traffic: Fog-Computing reduziert den Traffic zwischen IoT-Geräten und der Cloud. | ✘Höhere Hardware-Kosten: IoT-Endgeräte und Sensoren in der Fog-Computing-Architektur müssen mit einer zusätzlichen Recheneinheit ausgestattet werden, um eine lokale Datenverarbeitung und die Kommunikation von Gerät zu Gerät bewerkstelligen zu können. |
✔ Kostenersparnis bei der Nutzung von Fremdnetzen: Netzbetreiber lassen sich den schnellen Upload in die Cloud teuer bezahlen – Kosten, die man durch Fog-Computing einsparen kann. | ✘ Geringer Schutz vor Ausfall oder Missbrauch: Unternehmen, die auf Fog-Computing setzen, müssen IoT-Geräte und Sensoren mit Kontrollern ausstatten, die am Rand des Netzwerks z. B. in Fertigungsanlagen nur schwer vor Ausfällen oder Missbrauch geschützt werden können. |
✔ Offline-Verfügbarkeit: IoT-Geräte stehen in einer Fog-Computing-Architektur auch offline zur Verfügung. | ✘ Steigender Wartungsbedarf: Eine dezentrale Datenverarbeitung ist mit einem höheren Wartungsaufwand verbunden. Der Grund dafür: Kontroller und Speicherelemente sind über das ganze Netzwerk verteilt und können anders als bei Cloud-Lösungen nicht zentral gewartet oder administriert werden. |
✔ Geringere Latenz: Fog-Computing verkürzt Kommunikationswege und führt somit zu einer Beschleunigung automatisierter Analyse- und Entscheidungsprozesse. | ✘ Zusätzliche Anforderungen an die Netzwerksicherheit: Fog-Computing ist anfällig für Man-in-the-Middle-Angriffe |
✔ Datensicherheit: Beim Fogging erfolgt die Vorverarbeitung von Gerätedaten im lokalen Netzwerk. Dies ermöglicht eine Implementierung, bei der sensible Daten im Unternehmen verbleiben oder vor dem Upload in die Cloud verschlüsselt oder anonymisiert werden können. |
Ausblick: Fog-Computing und 5G-Mobilfunk
Spätestens 2020 soll der neue Mobilfunkstandard 5G mit Download-Geschwindigkeiten von bis zu 10 Gbit/s europaweit flächendeckend ausgerollt werden. Experten rechnen mit einem exorbitanten Datenwachstum – speziell im professionellen Bereich. Mit 5G erhöhen sich Bandbreite und Geschwindigkeit mobiler Datenübertragung enorm und eröffnen völlig neue Anwendungsmöglichkeiten in der Industrie und im Dienstleistungssektor. 5G verspricht Nutzern eine Latenz im Sub-Millisekunden-Bereich. Mit den aktuellen Cloud-Technologien lassen sich die Vorzüge des neuen Mobilfunkstandard jedoch nicht effektiv ausnutzen. Ein Grund dafür ist die Anzahl der Hops (Sprünge), die ein Datenpaket von der Quelle bis zum Ziel in der Cloud benötigt. Damit ist der direkte Daten-Upload in die Cloud für Anwendungsbereiche ungeeignet, die eine Datenverarbeitung in Echtzeit benötigen.
Als Hop (Sprung) bezeichnet man den Weg eines Datenpaket von einem Netzwerkknoten zum nächsten. Je mehr Netzwerkknoten ein Datenpaket passiert (man spricht vom Hop-Count) desto größer wird die Verzögerungszeit (Latenz) der Datenübertragung
Hier biete sich Fog-Computing als Ansatz an, 5G für die Industrie nutzbar zu machen. Ein verteiltes Fog-System stellt Rechenleistung und Speicherkapazität am Rand des Netzwerks zur Verfügung. Damit lassen sich von Geschäftsanwendungen generierte Daten lokal auswerten, selektieren und für die Cloud aggregieren. Das stellt sicher, dass wichtige Ergebnisse – beispielsweise der Befehl zur Notausschaltung einer Fertigungsanlage – in Echtzeit zurückgegeben werden. In die Cloud hingegeben gelangen nur die Daten, die nicht oder nur schwer lokal ausgewertet werden können oder eine detailliertere Analyse erfordern. Beispielsweise unerwartete Messwerte, die auf eine anstehende Wartung der jeweiligen Maschine hinweisen.