Der Begriff „Hy­pers­ca­le“ kann ins Deutsche übersetzt werden mit „übermäßig große Ska­lier­bar­keit“. Der Terminus wird in der Com­pu­ter­welt für eine bestimmte Or­ga­ni­sa­ti­ons­form von Servern benutzt.

Compute Engine
Die ideale IaaS für Ihre Workloads
  • Kos­ten­güns­ti­ge vCPUs und leis­tungs­star­ke de­di­zier­te Cores
  • Höchste Fle­xi­bi­li­tät ohne Min­dest­ver­trags­lauf­zeit
  • Inklusive 24/7 Experten-Support

Was ist Hy­pers­ca­le?

Der Begriff Hy­pers­ca­le eschreibt ska­lier­ba­re Cloud-Computing-Systeme, in denen eine sehr große Zahl von Servern in einem Netzwerk verbunden ist. Die Zahl der genutzten Server kann je nach Bedarf ver­grö­ßert oder ver­klei­nert werden. Ein solches Netzwerk kann sehr viele Zugriffe ver­ar­bei­ten, bei geringer Aus­las­tung aber auch geringere Ka­pa­zi­tä­ten be­reit­stel­len.

Die Ska­lier­bar­keit ist der ei­gent­li­che Ausdruck dafür, dass sich das Netzwerk auf wech­seln­de Leis­tungs­an­for­de­run­gen anpasst. Hy­pers­ca­le-Server sind kleine einfache Systeme, die exakt auf einen fest­ge­leg­ten Zweck ab­ge­stimmt sind. Um die Ska­lier­bar­keit zu erreichen, werden sie ho­ri­zon­tal mit­ein­an­der vernetzt. Ho­ri­zon­tal be­schreibt den Umstand, dass zur Stei­ge­rung der Leistung eines IT-Systems weitere Ser­ver­ka­pa­zi­tä­ten hin­zu­ge­fügt werden. Im in­ter­na­tio­na­len Sprach­ge­brauch wird auch der Begriff Scale-out dafür verwendet.

Das dem ge­gen­über­ste­hen­de Verfahren der ver­ti­ka­len Ska­lier­bar­keit (Scale-up) be­schreibt den Ausbau eines be­stehen­den lokalen Systems. Dazu wird ein be­stehen­des Rech­ner­sys­tem mit besserer Hardware, also größerem Haupt­spei­cher, schnel­le­rer CPU, leis­tungs­fä­hi­ge­ren Fest­plat­ten oder schnel­le­ren Gra­fik­kar­ten auf­ge­rüs­tet. In der Praxis wird oft vor der ho­ri­zon­ta­len Ska­lie­rung zuerst die Technik vor Ort auf­ge­rüs­tet – bis an die Grenzen des technisch Machbaren oder die Grenzen der ak­zep­ta­blen Hardware-Kosten. Dann ist der Schritt zum Hy­ers­ca­ler meist un­um­gäng­lich.

Wie funk­tio­niert Hy­pers­ca­le?

Beim Hy­pers­ca­le-Computing werden einfach ge­stal­te­te Server ho­ri­zon­tal vernetzt. Das Wort „einfach“ meint hierbei nicht „primitiv“, sondern „gut zu­sam­men­füg­bar“. Es bestehen also wenige und grund­le­gen­de Kon­ven­tio­nen – z. B. Netz­werk­pro­to­kol­le. Damit ist die Kom­mu­ni­ka­ti­on der Server un­ter­ein­an­der einfach zu verwalten.

Die „Ansprache“ der momentan be­nö­tig­ten Server erfolgt mit einem Rechner, der die ein­tref­fen­den Anfragen verwaltet und an die freien Ka­pa­zi­tä­ten verteilt, dem so­ge­nann­ten Load Balancer. Dabei wird beständig kon­trol­liert, inwieweit die genutzten Server mit den zu ver­ar­bei­ten­den Da­ten­vo­lu­mi­na aus­ge­las­tet sind, und bei Bedarf werden weitere Server da­zu­ge­schal­tet oder bei ab­neh­men­dem Request auch wieder ab­ge­schal­tet.

Ver­schie­de­ne Analysen haben ergeben, dass in Un­ter­neh­men lediglich 25 bis 30 Prozent der vor­lie­gen­den Daten aktiv genutzt werden. Zu den un­ge­nutz­ten Da­ten­be­stän­den gehören z. B. Si­cher­heits­ko­pien, Kun­den­da­ten, Wie­der­her­stel­lungs­da­ten. Ohne ein straffes Ord­nungs­sys­tem sind diese Daten bei Bedarf schwer auf­zu­fin­den, Backups können unter Umständen Tage in Anspruch nehmen. Das alles wird mit Hy­pers­ca­le-Computing ver­ein­facht. Die komplette Hardware für Computing, für Speicher und Netzwerke hat dann nur noch einen Kon­takt­punkt zu Da­ten­si­che­run­gen, Be­triebs­sys­te­men und anderer be­nö­tig­ter Software. Die Kom­bi­na­ti­on von Hardware und un­ter­stüt­zen­den Ein­rich­tun­gen erlaubt es, die aktuell benötigte Computing-Umgebung auf mehrere Tausend Server aus­zu­bau­en.

Das begrenzt über­mä­ßi­ges Kopieren von Daten und ver­ein­facht die Anwendung von Richt­li­ni­en und Si­cher­heits­kon­trol­len in Un­ter­neh­men, sodass letztlich auch Personal- und Ver­wal­tungs­kos­ten sinken.

Vorteile und Nachteile von Hy­pers­ca­le-Computing

Die be­schrie­be­ne Mög­lich­keit, Ser­ver­ka­pa­zi­tä­ten einfach zu erweitern oder wieder zu ver­rin­gern, hat Licht- und Schat­ten­sei­ten.

Die Vorteile

  • Der Ska­lie­rung sind keine Grenzen gesetzt, Un­ter­neh­men bleiben flexibel für zu­künf­ti­ge Da­ten­men­gen gerüstet. Das erlaubt eine schnelle und kos­ten­güns­ti­ge Markt­an­pas­sung.
  • Un­ter­neh­men müssen lang­fris­ti­ge Stra­te­gien für die Ent­wick­lung der eigenen IT besitzen.
  • Die Anbieter des Hy­pers­ca­le-Computing ga­ran­tie­ren eine hohe Aus­fall­si­cher­heit durch red­un­dan­te Lösungen.
  • Ver­mei­dung von Ab­hän­gig­kei­ten durch die zeit­glei­che Nutzung mehrerer Anbieter.
  • Klar kal­ku­lier­ba­re Kosten und große Kos­ten­ef­fi­zi­enz un­ter­stüt­zen optimal bei der Rea­li­sie­rung von Un­ter­neh­mens­zie­len.

Die Nachteile

  • Es werden Daten aus der Hand gegeben.
  • Neu hin­zu­ge­füg­te Speicher-/Server-Ka­pa­zi­tä­ten können auch neue Feh­ler­quel­len sein.
  • Es entstehen größere An­for­de­run­gen an das in­ner­be­trieb­li­che Ma­nage­ment und die Ver­ant­wor­tung der Mit­ar­bei­ter – lang­fris­tig gesehen al­ler­dings ein Vorteil.
  • Die Nutzer begeben sich in die Ab­hän­gig­keit vom Preis­mo­dell des Hy­pers­ca­le-Anbieters.
  • Jeder Anbieter hat seine eigene Be­dien­ober­flä­che.

Um Vor- und Nachteile gut ge­gen­ein­an­der abwägen zu können, können Un­ter­neh­men einen hybriden Weg wählen und große Backups oder selten benötigte Daten in einer Cloud ablegen. Diese Daten nehmen damit nicht die Spei­cher­ka­pa­zi­tä­ten eines in­ner­be­trieb­li­chen Re­chen­zen­trums in Anspruch. Beispiele sind per­sön­li­che Daten von Nutzern eines On­line­shops, die auf Verlangen der Nutzer her­aus­ge­ge­ben bzw. gelöscht werden müssen, oder auf­be­wah­rungs­pflich­ti­ge Un­ter­neh­mens­da­ten.

Was ist ein Hy­pers­ca­ler?

Unter einem Hy­pers­ca­ler versteht man den Betreiber eines Re­chen­zen­trums, das ska­lier­ba­re Cloud-Computing-Dienste anbietet. Als erstes Un­ter­neh­men hat Amazon diesen Markt im Jahre 2006 mit den Amazon Web Services (AWS) betreten. Dabei handelt es sich um ein Toch­ter­un­ter­neh­men, mit dessen Hilfe die eigenen Amazon-Re­chen­zen­tren weltweit besser aus­ge­las­tet werden sollen. In­zwi­schen bietet AWS sehr viele spe­zi­fi­sche Dienste an. Der Markt­an­teil beträgt zirka 40 Prozent. Die beiden anderen Big Player auf diesem Markt sind Microsoft mit dem Dienst Azure (2010) und die Google Cloud Platform (2010). Auch das Un­ter­neh­men IBM gilt als größerer Anbieter von Hy­pers­ca­le-Computing. Diese tech­ni­schen Mög­lich­kei­ten werden über au­to­ri­sier­te Partner auch mittels Re­chen­zen­tren am Standort Deutsch­land angeboten – für viele Un­ter­neh­men ein wichtiger Ge­sichts­punkt, besonders seit In­kraft­set­zung der neuen Da­ten­schutz­grund­ver­ord­nung.

Hinweis

Mit IONOS Cloud prä­sen­tiert IONOS eine Al­ter­na­ti­ve zu den großen US-Hy­pers­ca­lern. Der Fokus liegt hier auf In­fra­struc­tu­re as a Service (IaaS), mit Angebote wie Compute Engine, Managed Ku­ber­netes, S3 Object Storage oder eine Private Cloud.

Zum Hauptmenü