IoT, das Internet of Things, verändert IT-Land­schaf­ten weltweit, und wird schon als Schlüs­sel­tech­no­lo­gie vieler Zu­kunfts­pro­jek­te gesehen. Doch die klas­si­sche IoT-Ar­chi­tek­tur, wobei Daten zentral zu­sam­men­ge­führt und ver­ar­bei­tet werden, lässt sich unter anderem aus Band­brei­ten­li­mi­ta­tio­nen nicht unendlich skalieren. Im Rahmen des Fog-Com­pu­tings werden Lö­sungs­an­sät­ze für solche Probleme bei der Umsetzung von IoT ent­wi­ckelt.

Compute Engine
Die ideale IaaS für Ihre Workloads
  • Kos­ten­güns­ti­ge vCPUs und leis­tungs­star­ke de­di­zier­te Cores
  • Höchste Fle­xi­bi­li­tät ohne Min­dest­ver­trags­lauf­zeit
  • Inklusive 24/7 Experten-Support

Was ist Fog-Computing? Eine De­fi­ni­ti­on

Als „Fog-Computing“ be­zeich­net man eine Cloud-Tech­no­lo­gie, bei der durch Endgeräte ge­ne­rier­te Daten nicht direkt in die Cloud geladen, sondern zunächst in de­zen­tra­len Mi­ni­re­chen­zen­tren (so­ge­nann­te „Fog Nodes“) vor­ver­ar­bei­tet werden. Das Konzept umfasst eine Netz­werk­struk­tur, die sich von den äußeren Rändern des Netzwerks, wo Daten von IoT-Geräten erzeugt werden, bis hin zum zentralen Da­ten­end­punkt in der Public Cloud oder in einem privaten Re­chen­zen­trum (Private Cloud) erstreckt.

Ziel des so­ge­nann­ten „Foggings“ ist es, Kom­mu­ni­ka­ti­ons­we­ge zu verkürzen und den Da­ten­durch­satz über Fremd­net­ze zu re­du­zie­ren. Fog-Nodes bilden dabei eine Zwi­schen­schicht im Netzwerk, auf der ent­schie­den wird, welche Daten lokal ver­ar­bei­tet und welche zur weiteren Analyse oder Ver­ar­bei­tung in die Cloud oder ein zentrales Re­chen­zen­trum wei­ter­ge­lei­tet werden.

Folgende Grafik zeigt eine sche­ma­ti­sche Dar­stel­lung der drei Schichten (Layer) einer Fog-Computing-Ar­chi­tek­tur:

Bild: Schematische Darstellung einer IoT-Architektur mit Egde-, Fog- und Cloud-Ebene
Beim Fog-Computing werden Res­sour­cen zur Da­ten­spei­che­rung und -vor­ver­ar­bei­tung aus der Public Cloud oder einem zentralen Re­chen­zen­trum aus­ge­la­gert und durch Fog-Nodes auf einer Zwi­schen­schicht dezentral im Netzwerk be­reit­ge­stellt.
  • Edge-Layer: Der Edge-Layer umfasst alle „in­tel­li­gen­ten“ Geräte (Edge-Devices) einer IoT-Ar­chi­tek­tur. Auf dem Edge-Layer ge­ne­rier­te Daten werden entweder direkt am Gerät ver­ar­bei­tet oder an einen Server (Fog-Node) auf dem Fog-Layer über­mit­telt.
  • Fog-Layer: Der Fog-Layer umfasst eine Reihe leis­tungs­star­ker Server, die Daten vom Edge-Layer ent­ge­gen­neh­men, vor­ver­ar­bei­ten und bei Bedarf in die Cloud hochladen.
  • Cloud-Layer: Der Cloud-Layer ist der zentrale Daten-Endpunkt einer Fog-Computing-Ar­chi­tek­tur.

Eine Re­fe­renz­ar­chi­tek­tur für Fog-Systeme wurde im Rahmen des OpenFog Con­sor­ti­ums (jetzt Industry IoT Con­sor­ti­um (IIC)) ent­wi­ckelt. Weitere White Papers finden Sie auf der Webseite des IIC.

Ab­gren­zung zum Cloud-Computing

Von Cloud-Computing grenzt sich Fog-Computing vor allem dadurch ab, an welchem Ort Res­sour­cen be­reit­ge­stellt und Daten ver­ar­bei­tet werden. Cloud-Computing findet in der Regel in zen­tra­li­sier­ten Re­chen­zen­tren statt. Res­sour­cen wie Re­chen­leis­tung und Speicher werden von Backend-Servern gebündelt zur Verfügung gestellt und von Clients über das Netzwerk in Anspruch genommen. Dabei verläuft die Kom­mu­ni­ka­ti­on zwischen zwei oder mehr End­ge­rä­ten stets über einen Server im Hin­ter­grund.

An ihre Grenzen kommt eine solche Ar­chi­tek­tur bei Konzepten wie der „in­tel­li­gen­ten Fabrik“, bei der Daten kon­ti­nu­ier­lich zwischen un­zäh­li­gen End­ge­rä­ten aus­ge­tauscht werden müssen. Fog-Computing setzt hier auf eine Zwi­schen­ver­ar­bei­tung nah an der Da­ten­quel­le, um den Da­ten­durch­satz zum Re­chen­zen­trum zu re­du­zie­ren.

Ab­gren­zung zum Edge-Computing

Nicht nur der Da­ten­durch­satz bei groß an­ge­leg­ten IoT-Ar­chi­tek­tu­ren bringt das Cloud-Computing an seine Grenzen. Ein weiteres Problem ist die Latenz. Die zen­tra­li­sier­te Da­ten­ver­ar­bei­tung ist in jedem Fall durch die langen Über­tra­gungs­we­ge mit einer Zeit­ver­zö­ge­rung verbunden. Endgeräte und Sensoren müssen stets den Server im Re­chen­zen­trum an­spre­chen, um mit­ein­an­der zu kom­mu­ni­zie­ren, und sowohl die externe Ver­ar­bei­tung der Anfrage als auch die Antwort abwarten. Zum Problem werden La­tenz­zei­ten dieser Art bei­spiels­wei­se bei IoT-ge­stütz­ten Fer­ti­gungs­pro­zes­sen, bei denen eine In­for­ma­ti­ons­ver­ar­bei­tung in Echtzeit si­cher­ge­stellt werden muss, damit Maschinen un­mit­tel­bar auf Vorfälle reagieren können.

Einen Lö­sungs­an­satz für das La­tenz­pro­blem bietet Edge-Computing, ein Konzept im Rahmen des Fog-Com­pu­tings, bei dem die Da­ten­ver­ar­bei­tung nicht nur de­zen­tra­li­siert wird, sondern direkt im Endgerät und damit am Rand („Edge“) des Netzwerks erfolgt. Dabei wird jedes „in­tel­li­gen­te Gerät“ mit einem eigenen Micro-Con­trol­ler aus­ge­stat­tet, der eine grund­le­gen­de Da­ten­ver­ar­bei­tung sowie die Kom­mu­ni­ka­ti­on mit anderen Geräten und Sensoren im IoT er­mög­licht. Dies reduziert nicht nur die Latenz, sondern auch den Da­ten­durch­satz an dem zentralen Re­chen­zen­trum.

Fog-Computing und Edge-Computing hängen sehr eng zusammen, aber sind nicht gleich. Der ent­schei­den­de Un­ter­schied ist, wo bzw. zu welchem Zeitpunkt die Daten ver­ar­bei­tet werden. Bei Edge-Computing werden die ge­ne­rier­ten Daten direkt an der Quelle ver­ar­bei­tet und meistens direkt wei­ter­ge­schickt. Da­hin­ge­gen werden beim Fog-Computing die Rohdaten aus mehreren Quellen in einem Zwischen-Re­chen­zen­trum gesammelt und ver­ar­bei­tet. Daraus erwächst die Mög­lich­keit, nicht­re­le­van­te Daten bzw. Er­geb­nis­se nicht an das zentrale Re­chen­zen­trum wei­ter­zu­lei­ten. Ob Edge- oder Fog-Computing (oder eine Kom­bi­na­ti­on der beiden) die bessere Lösung ist, hängt also sehr stark von dem in­di­vi­du­el­len Ein­satz­be­reich ab.

Vorteile von Fog-Computing

Fog-Computing bietet Lö­sungs­an­sät­ze für diverse Probleme cloud­ba­sier­ter IT-In­fra­struk­tu­ren. Im Vor­der­grund stehen Ansätze, die kurze Kom­mu­ni­ka­ti­ons­we­ge ver­spre­chen und den Upload in die Cloud auf ein Minimum be­schrän­ken. Hier eine Liste der wich­tigs­ten Vorteile:

  1. Weniger Netzwerk-Traffic: Fog-Computing reduziert den Traffic zwischen IoT-Geräten und der Cloud.
  2. Kos­ten­er­spar­nis bei der Nutzung von Fremd­net­zen: Netz­be­trei­ben­de lassen sich den schnellen Upload in die Cloud teuer bezahlen – Kosten, die man durch Fog-Computing einsparen kann.
  3. Offline-Ver­füg­bar­keit: IoT-Geräte stehen in einer Fog-Computing-Ar­chi­tek­tur auch offline zur Verfügung.
  4. Geringere Latenz: Fog-Computing verkürzt Kom­mu­ni­ka­ti­ons­we­ge und führt somit zu einer Be­schleu­ni­gung au­to­ma­ti­sier­ter Analyse- und Ent­schei­dungs­pro­zes­se.
  5. Da­ten­si­cher­heit: Beim Fogging erfolgt die Vor­ver­ar­bei­tung von Ge­rä­te­da­ten oft schon im lokalen Netzwerk. Dies er­mög­licht eine Im­ple­men­tie­rung, bei der sensible Daten im Un­ter­neh­men ver­blei­ben oder vor dem Upload in die Cloud ver­schlüs­selt oder an­ony­mi­siert werden können.

Nachteile von Fog-Computing

Die de­zen­tra­le Ver­ar­bei­tung in Mi­ni­re­chen­zen­tren birgt jedoch auch Nachteile. Diese ergeben sich vor allem aus dem Aufwand für die Wartung und Ad­mi­nis­tra­ti­on eines ver­teil­ten Systems. Die Nachteile von Fog-Computing-Systemen sind:

  1. Höhere Hardware-Kosten: IoT-Endgeräte und Sensoren in der Fog-Computing-Ar­chi­tek­tur müssen mit einer zu­sätz­li­chen Re­chen­ein­heit aus­ge­stat­tet werden, um eine lokale Da­ten­ver­ar­bei­tung und die Kom­mu­ni­ka­ti­on von Gerät zu Gerät be­werk­stel­li­gen zu können.
  2. Stei­gen­der War­tungs­be­darf: Eine de­zen­tra­le Da­ten­ver­ar­bei­tung ist mit einem höheren War­tungs­auf­wand verbunden. Der Grund dafür: Ver­ar­bei­tungs- und Spei­cher­ele­men­te sind über das ganze Netzwerk verteilt und können anders als bei Cloud-Lösungen nicht zentral gewartet oder ad­mi­nis­triert werden.
  3. Zu­sätz­li­che An­for­de­run­gen an die Netz­werk­si­cher­heit: Fog-Computing ist anfällig für Man-in-the-Middle-Angriffe.
Zum Hauptmenü