Sie sollen die Rechenleistung und die Intelligenz aus der Cloud herausholen und zurück in das Netz verlagern, also heraus aus dem Rechenzentrum und auf viele kleine Standorte verteilt. Sie sollen bestehende Infrastrukturen ablösen bzw. ergänzen. Sie sollen das „Internet of Things“ (IoT) nun endgültig zum „Internet of Everything“ (IoE) machen. Doch was sind eigentlich diese neuen FOG- und EDGE Computing Technologien? Welche Vorteile schlummern hier? Welche Gefahren müssen beachtet werden?

FOG- und EDGE Computing bezeichnen zunächst einmal zwei unterschiedliche Technologien, welche die Rechenleistung aus dem Rechenzentrum „herausholen“, diese dezentralisieren und latenzfreier machen. Hierbei werden unterschiedliche Ansätze verfolgt. Latenz bedeutet hierbei die Dauer zwischen der Eingabe von Daten, sei es von Mensch oder Maschine und der Lieferung des Ergebnisses dieser Eingabe.

FOG Computing setzt dabei auf viele verschiedene kleine lokale „Rechenzentren“, welche von den Nutzern angesteuert werden, die sich in der Nähe befinden. Dies kann kabelgebunden, aber auch kabellos geschehen. Der Vorteil bei diesen lokalen sogenannten „FOG-Nodes“ besteht darin, dass Informationen und Daten nicht erst über lange Strecken transportiert werden müssen, sondern, dass diese Daten in den FOG-Nodes verarbeitet werden können und in kürzester Zeit an den Nutzer zurückgeschickt werden können. Dies bedeutet erheblich kürzere Latenzzeiten, was uns zu Echtzeitverbindungen einen großen Schritt näherbringen wird. Ein weiterer Vorteil ist, dass Daten, die zu aufwendig zu berechnen wären, als dass man sie in dieser FOG-Node allein verarbeiten kann, man die Daten in der FOG-Node bereits aufbereitet. So kann die Rechenleistung der Cloud deutlich geringer ausfallen und somit werden die Latenzzeiten ebenfalls verringert.

EDGE Computing – Back to Basic

Das EDGE Computing verfolgt ein ähnliches Prinzip, allerdings besitzt hierbei jedes netzwerktaugliche Device eine eigene Hardwarekomponente, welche einen Großteil der Rechenleistung bereits übernimmt. So können einfache Berechnungen vor Ort durchgeführt werden und bei komplexen Vorgängen kann die Hardware die Daten aufbereiten und in Kombination mit den FOG-Nodes vorberechnete Daten an die Cloud weitergeben. Vorteil ist hier, neben den ebenfalls deutlich kürzeren Latenzzeiten, dass man auch bei einem Netzausfall Berechnungen weiterhin vornehmen kann.

Die Vorteile beider Technologien sind ganz klar die deutlich latenzärmere Übermittlung von Daten, der damit einhergehenden Beschleunigung der Datenverarbeitung bis hin zur Echtzeitfähigkeit und der Unabhängigkeit bei Cloud-Ausfall oder Überlastung.

Leider gibt es bei beiden Technologien auch Nachteile, da die Kosten für Hardware und Wartung steigen und Sicherheitsmaßnahmen nicht nur an einem Ort erfolgen müssen, sondern auch dezentralisiert vor Ort eingerichtet werden.

Die meisten Experten sind sich allerdings einig, dass die dezentrale Datenverarbeitung, wie auch immer sie aussehen wird, die Zukunft bestimmen wird, wie Prozesse im Internet gesteuert und verarbeitet werden. Es wird auch allerdings von einer Koexistenz aller drei Computing-Formen ausgegangen, da eine Kombination aller Vorteile zu dem besten Ergebnis für bevorstehende Aufgaben führen wird.

Bewertung des Beitrages: Ø4,5

Danke für deine Bewertung

Der Beitrag hat dir gefallen? Teile ihn doch mit deinen Freunden & Arbeits­kol­legen

Facebook Twitter LinkedIn WhatsApp