Neues Leben am Rand der „Cloud“

Covid-19 mit seinen Erscheinungen von Home-Office, Home-Schooling und endlosen Zoom-Meetings zeigt, dass unser digitales Leben längst in der „Cloud“ stattfindet. Gigantische Rechenzentren haben jedoch einen Nachteil: Für neue Anwendungen wie Online-Gaming, Smart Devices, das Internet of Things, Drohnen oder Roboter dauert die Datenübertragung zu lange. Die Lösung? Edge Computing — Rechenleistung am Rande der Cloud: Antworten in Echtzeit.

Helmut Spudich

Geschichte wiederholt sich, auch in der Entwicklung der Digitalisierung, und vollzieht dabei evolutionäre Änderungen. Mit den raumfüllenden Mainframes zog in den 60er-Jahren der Computer in unseren Alltag ein, mit „dummen“ Terminals an der Peripherie, die den Zugang zu Rechenleistung und Daten gewährten und streng kontrollierten. Der PC stellte die Beziehung auf den Kopf, die fortlaufende Miniaturisierung von Chips und Speichern entmachtete die klobigen Ungetüme und demokratisierte den Computer.

Bis mit dem Internet und den Verbindungen zwischen PCs und Servern eine neue Rolle für den „Rechner“, den Server, im Zentrum von Millionen Verbindungen zwischen Endgeräten entstand. Allerdings nicht mehr in Form von Mainframes, sondern in Gestalt riesiger Serverfarmen, die sowohl enorme Rechenleistung als auch schier unbegrenzte Speicherkapazität zur Verfügung stellen. Weil der konkrete Standort irrelevant und de facto unbekannt war entstand so die „Cloud“ — ein wolkiges Gebilde, das je nach Notwendigkeit konkrete Form für Anwender annahm, ob als Ticketservice für Veranstalter oder Serverkapazität für Startups.

Als Nutzer, egal ob Privatperson oder Konzern, leben wir heute in der einen oder anderen Form in der Cloud. Durch Covid-19 wurde dies in den vergangenen Monaten eindrucksvoll belegt: Zoom — ein Cloud-Service — wurde zum geflügelten Wort für endlose private wie berufliche Videocalls, Home-Office und Home-Schooling wären ohne Cloud schlicht unmöglich. Die Infrastruktur dafür war längst vorhanden, nur war dies vielen nicht bewusst.

Ohne Verbindung zur digitalen Infrastruktur der Rechenfarmen ist der einzelne PC, das Tablet oder das individuelle Smartphone beinahe nutzlos. Zahlreiche Cloud-Anbietern bieten eine Heimat, die bei Bedarf rasch skaliert werden kann. Die IT von Unternehmen ist längst in — oft hybriden — Formen der Cloud beheimatet. Weltweit wird der Umsatz der Cloud-Industrie von der Synergy Research Group bereits auf über 300 Milliarden US-Dollar geschätzt. Marktführer sind Amazon, Google und Microsoft, das erst vor wenigen Tagen eine Milliardeninvestition für den Aufbau eines Datenzentrums in Österreich ankündigte.

Jetzt dreht sich das Rad der digitalen Geschichte weiter, und in mancher Hinsicht erinnert es an die Ablöse der Mainframes durch PCs. Smartphones, Smartwatches, „smarte“ Autos und das Internet der Dinge erzeugen eine Unmenge an Daten, deren Weiterleitung und Verarbeitung in weit entfernten Rechnerfarmen samt dem damit verbundenen Rückweg zu unserem Endgerät zu Wartezeiten — in der Fachsprache: hohe Latenzzeiten — führt. Bei Suchabfragen, dem Versand von Messages oder beim Videostreaming ist dies weniger störend. Jedoch gibt es Anwendungen, die nicht solange warten können.

So testet die Firma Pirelli Autoreifen, deren Sensoren Informationen über den Straßenzustand liefern. Kommt es beispielsweise zu Glatteisbildung, können so nachfolgende Fahrzeuge sofort gewarnt werden — vorausgesetzt es passiert in Echtzeit und muss nicht den elektronischen Weg in ein viele tausende Kilometer entferntes Rechenzentrum zurücklegen. Online-Gaming mit vielen Teilnehmern braucht ultrakurze Latenzzeiten, sonst geht der Spaß am Spiel verloren. Virtuelle und augmentierte Realität, sei es für Spiele, Unterhaltung oder als Informationssysteme, brauchen extrem kurze Latenzzeiten, um in ihren Kosmos eintauchen zu können. Eine Smartwatch, die gefährliche Herzfrequenzen erkennen und bei Gefahr Alarm schlagen soll, braucht die Ergebnisse sofort und nicht mit Zeitverzögerung. Der Autohersteller Toyota beziffert die Datenmenge, die aufgrund von Assistenzsystemen zwischen „smarten“ Automobilen und Servern künftig übermittelt werden, auf 10 Exabyte monatlich — die unvorstellbare Menge von zehn Milliarden Gigabyte.

All das sind Aufgaben für Edge Computing, wörtlich übersetzt die Rechner am Rand (Edge) der Wolke. Die Logik von Edge Computing liegt auf der Hand: Wenn die Übermittlung der Daten in weit entfernte Rechenzentren zu lange dauert, müssen Rechenzentren wieder näher an den Ort des Geschehens rücken. Wie das Beispiel eines smarten Fahrzeugs zeigt, ist es sinnlos diese Datenmengen überhaupt an zentrale Serverfarmen zu senden: Ihre Auswertung muss sofort erfolgen, die Daten können anschließend gelöscht, allenfalls einige kritische Informationen in der Cloud gespeichert werden. Oder bei der Simultan-Übersetzung von Sprache dank Künstlicher Intelligenz, wie sie bereits von Skype angeboten wird: Edge Computing verringert die irritierenden Sprechpausen, die entstehen würden, wenn die Übersetzung in entfernten Cloud-Servern erfolgt.

Neue Provider wie das New Yorker Startup Packet setzen darauf, dass sie diesen Bedarf mit verteilten Mikro-Datenzentren abdecken können — so wie einst der PC Aufgaben von Mainframes übernahm. Auch den großen Cloud-Providern ist das Problem hoher Latenzzeiten bewusst: Darum bieten Azure IoT Edge von Microsoft oder AWS Greengrass von Amazon Entwicklern Software für ihre Rechner, um eine Brücke zu den Cloud-Diensten zu bauen. Mit 5G betreten die Mobilfunker gleichfalls die Arena von Edge Computing: Denn 5G verspricht extrem kurze Latenzzeiten, vor allem für industrielle Anwendungen. Dies ist jedoch nur möglich, wenn die Mobilfunker eine entsprechende Edge-Infrastruktur bereitstellen. Dazu bieten sich die Standorte von Basisstationen an, die bereits mit Servern ausgestattet sind. In Österreich sind dies rund 18.000 Standorte, wesentlich näher bei der Anwendung als jedes Cloud-Rechenzentrum.

Mit Edge wird die Cloud nicht obsolet, sondern es gibt neues Leben an ihrem Rand. Die Systeme ergänzen sich in arbeitsteiliger Form: Während Aufgaben wie Webhosting, Suche, Streaming von Entertainment-Inhalten oder Online-Shops auch künftig die enorme Leistung der Cloud benötigen und weniger zeitkritisch sind, erfüllt Edge Computing Aufgaben, die Real-Time-Reaktionen benötigen.

Für die Entwicklung bei AT&S spielen Cloud wie Edge Computing eine zentrale Rolle. Immer größere Rechenzentren, dazu verteilte Edge Computer an zahlreichen Standorten, verlangen von der Hardware große Energieeffizienz sowie Miniaturisierung von Servern, um Platz zu sparen. Für 5G wird im weiteren Ausbau in wenigen Jahren ein engmaschiges Netz sogenannter Mikrozellen nötig sein, um extrem kurze Latenzzeiten sowie hohe Datenraten zu ermöglichen. Solche Zellen werden an unkonventionellen Orten verbaut, in Kanaldeckeln ebenso wie auf Laternenmasten — kleinste Größe bei effizientester Energienutzung ist dafür Voraussetzung.

Die Fähigkeit von intelligenten Leiterplatten zur Integration aller Arten von Bauteilen, Miniaturisierung und Energieeffizienz spielen dabei eine Schlüsselrolle. Gemeinsam mit Kunden und deren spezifischen Anwendungen entwickelt AT&S dafür so genannte Integrated Circuit Substrate (IC Substrate), hoch integrierte Leiterplatten, bei denen Halbleiter und andere Bauteile in einem Modul gefertigt werden und so Raum und, dank kürzerer Schaltwege und neuer Technologie, Strom sparen.

Veröffentlicht am: 13. Januar 2021

Beitrag teilen: