Internet der Dinge

Edge Computing nimmt Last aus dem Cloud Computing

Kaum haben sich die Banken auf den Weg in die Cloud gemacht, müssen sie sich schon mit dem nächsten Trend beschäftigen: Edge Computing gilt als Basis­infrastruktur für das Internet der Dinge (IoT) mit unendlich vielen Datenpunkten. Im Firmenkundengeschäft laufen erste Lösungen als „Edge Banking“.

Edge Computing nimmt Last aus dem Cloud Computing

Von Björn Godenrath, Frankfurt

Die zu speichernden Datenmengen wachsen derart exponentiell, dass man inzwischen dazu übergegangen ist, sie für zukünftige Betrachtungen in Zettabyte zu messen. Ein Zettabyte sind 1 Trilliarde Bytes, was wiederum 1 000 Exabytes oder eine Milliarde Terabytes entspricht. Momentan wird in Terabyte und Petabyte gemessen, wobei Petabyte heute das gängige Maß im Kryptobereich und im Cloud Computing ist – und dort schon Exabyte als Zwischenstufe zu Zettabyte Einzug hält. Und wenn das nicht mehr reicht, ist als nächsthöchstere Einheit Yottabyte vorgesehen. Bis zum Jahr 2024 sollen täglich global 149 Zettabytes an neuer Datenmenge geschaffen werden, so die Prognose der Datenspezialisten von CB Insights.

Erhöhte Verfügbarkeit

Beim Betrachten dieser Datenmengen-Explosion kann einem schwindelig werden. Verlässt man das Karussell jedoch wieder, wird einem schnell klar, dass es grundsätzlicher Ergänzungen in der IT-Architektur bedarf, um die Steuerung des Datenflusses herzustellen. Ein solches Hilfsmittel stellt das Edge Computing dar, das vor dem Einzug in die IT-Strategien der Banken steht. Es leistet eine dezentrale Datenverarbeitung am Rand des Netzwerks.

Im klassischen Set-up eines Netzwerkes steht in der Mitte ein Datenzentrum als Behausung einer Unmenge an Servern, in der modernen Variante ist es eine Cloud-Computing-Plattform, die Kapazitäten mit hoher Verfügbarkeit auf Abruf bereithält. Das macht den Reiz aus für Cloud-Kunden aus Bankenlandschaft und Industrie, die Daten verstärkt in Echtzeit vorhalten müssen.

Gleichzeitig wächst aber auch die Abhängigkeit von den Cloud-Riesen Amazon Web Services (AWS), Microsoft Azure, Google Cloud und dem Spezialisten Cloudflare – den hierzulande seltsamerweise kaum jemand wahrnehmen will, obwohl dieser einen nachweislich guten Schutz vor Cyberattacken liefert.

Um das Risiko eines „Single Point of Failure“ im Cloud Computing zu reduzieren, sind Institute wie die Commerzbank dazu übergegangen, ihre Datendienste auf zumindest zwei Cloud-Anbieter zu verteilen – und auch wenn das interne Management-Kapazitäten erhöht, erscheint es ratsam, sich ein Multi-Cloud-Umfeld zu schaffen: Denn was passiert, wenn der eine Anbieter einen Systemausfall hat?

Kein Single Point of Failure

Diese Reduktion des „Single Point of Failure“-Risikos kann ergänzend über Edge Computing adressiert werden. Dabei werden Datenströme zunächst an Ort und Stelle, also direkt am Endgerät oder innerhalb einer Fabrik verarbeitet und gespeichert. Dabei sind die Edge-Geräte eben nicht ständig mit der zentralen Serverfarm oder der Cloud-Plattform verbunden. Das nimmt Last aus dem System und lässt Spielraum für die Spitzenkapazität.

Dabei gilt Edge Computing jetzt schon als passende Infrastruktur für das Internet der Dinge (IoT), wenn es also um die Abrechnung des Aufladens von E-Autos geht oder aber Fabriken automatisierte Maschine-zu-Maschine-Transaktionen ausführen sollen. Fachleute sprechen hier von der „Vernetzung der Produktionsmittel in der Industrie 4.0“.

Edge-Computing-Anwendungen gibt es schon in der Energiewirtschaft bei Windparks, wenn vor Ort gespeicherte Energie ins Netz gegeben und dem Abnehmer in Rechnung gestellt wird. Die Vorzüge dezentraler Speicherung insbesondere von regenerativer Energie ist inzwischen auch dem Gesetzgeber bewusst geworden und scheint auch bei der allgemeinen Förderung von Industrie 4.0 Berücksichtigung zu finden. Daher wird man an der Integration von Edge Computing gar nicht vorbeikommen – wobei sich mit Blick auf die Modellierung der IT-Landschaft ja zunächst die Frage stellt, wie Edge und Cloud Computing miteinander harmonisieren sollen.

Dabei kann man sich die Edge-Struktur so vorstellen, dass dort Mikro-Datencenter auf weniger als 100 qm Fläche die Vor-Ort-Datendienste erledigen und bei Bedarf den Datenaustausch mit der Cloud-Plattform vornehmen. Diese Kleinst-Server-Farmen werden auch als Fog Computing bezeichnet – was wohl den nebligen gerätebezogenen Middleware-Bereich von Schnittstellen im Raum zwischen Cloud und Edge illustrieren soll. Der Vorteil: Informationen müssen nicht weit draußen in der Cloud abgefragt werden, sondern können näher am Gerät analysiert und zurückgesendet werden. Nur so dürften sich unter Kostenaspekten auch die Milliarden an IoT-Geräten anbinden lassen: Jede Anfrage muss blitzschnell gehen und darf nur so gut wie gar nichts kosten – und Cloud Computing ist grundsätzlich kostspielig, da die Tech-Konzerne ihre Investitionen ja wieder reinholen wollen (siehe Artikel zu Google Cloud).

Amazon hat Greengrass

Der Paradigmenwechsel hin zum Edge Computing dürfte rasant vonstatten gehen: CB Insights zitiert Schätzungen, denen zufolge Ende 2018 erst 10 % der Unternehmensdaten außerhalb zentraler Server-Farmen verarbeitet wurden, dieser Anteil bis 2025 aber zu 75% auf Edge Computing verlagert werden könnte. Derartige Schätzungen sind immer mit ein wenig Vorsicht genießen, aber allein die Tatsache, dass Amazon und die anderen Cloud-Riesen diesen Paradigmenwechsel längst aufgenommen haben, sollte die eigene Handlungsfähigkeit anregen.

Amazon machte 2017 mit „AWS Greengrass“ als Verlängerung der Cloud für die Anbindung lokaler Daten den Anfang. Und da Amazon an die Bedürfnisse ihrer Kunden denkt, hat der Konzern mit dem Dienst „FreeRTOS“ eine Open-Source-App bereitgestellt, die in Echtzeit als Betriebssystem für Microcontroller fungiert, die über Sensoren Daten der IoT-Geräte erfassen. Wer „FreeRTOS“ nutzt, hat gleich ein Datenmanagement-Tool an der Hand, mit dem Edge-Geräte programmiert werden können.

Bei Microsoft ist Edge Computing Teil des bis 2022 angelegten, 5 Mrd. Dollar schweren Budgets zur IoT-Entwicklung. Eine „Azure IoT Edge“ wurde bereits angekündigt. Außerdem wurden analog zu AWS schon Erweiterungen auf Prozessorebene bei Nvidia programmiert, um Edge-Anwendungen im maschinellen Lernen zu erleichtern.

Auch Google hatte Mitte 2018 zwei Edge-Produkterweiterungen auf den Weg gebracht und Ende 2020 darüber berichtet, schon gut 200 Anwendungspartner (darunter Siemens Advanta und AT&T) für 5G-Anwendungen gefunden zu haben. Zudem sind IT-Riesen wie Hewlett Packard, Dell und Huawei längst dabei, Hard- und Software-Pakete für das Edge Computing zu schnüren – einen speziellen Nvidia-Chip gibt es schon für schlanke 59 Dollar zu kaufen, was die Akzeptanz von ersten Edge-Computing-Anwendungen auf der Retail-Seite beflügeln sollte.

Dank weiter fallender Preise für Prozessoren und Sensoren sowie der Integration von Geräten, die temporär offline sind, kann Edge Computing wohl schnell Verbreitung finden. Autonome Fahrzeuge werden rollende Prozessoren sein, die mit Edge-Computing-Kapazitäten vollgestopft sind. Elon Musk hatte ja schon mal die Vision verbreitet, dass Tesla-Fahrzeuge nebenbei Krypto Mining betreiben könnten – denn warum sollte man vorhandene Rechnerkapazitäten brachliegen lassen. BMW und Toyota sind seit Mitte 2019 am Start-up Recogni beteiligt, das Edge Processing für visuelle Systeme entwickelt.

Erste Tests laufen

In der Finanzwirtschaft verspricht Edge Computing neben beschleunigtem Data Processing auch erhöhte Sicherheit beim Datentransfer. Das dürfte bei der Identifizierung von Identitäten enorm hilfreich sein. Mastercard hat für die Transaktionssicherheit schon einen „Edge Processing Kiosk“ entwickelt, BBVA und Commonwealth Bank of Australia bauen beide eine Edge-Computing-Plattform. Auch Trading-Algorithmen könnten mit Edge Computing verbessert werden.

Als vierte Stufe im modernen Computing verspricht Edge Computing Nachteile des Cloud Computing auszugleichen. Schon jetzt darf Edge Computing als Wegbereiter des IoT gelten, das mit Aufnahme der Massenproduktion entsprechender Hardware schneller Realität werden dürfte, als es manche auf dem Zettel haben.