High Per­for­mance Computing kommt zum Einsatz, um große Da­ten­men­gen und komplexe Re­chen­auf­ga­ben parallel und mit geballtem Hoch­leis­tungs­rech­nen zu be­wäl­ti­gen. Typische An­wen­dungs­ge­bie­te sind Wirt­schaft, Wis­sen­schaft, Si­mu­la­tio­nen und Business In­tel­li­gence. Doch welche HPC-Verfahren gibt es und wie funk­tio­nie­ren sie?

KI-Assistent kostenlos – Ihr smarter All­tags­hel­fer
  • DSGVO-konform & sicher gehostet in Deutsch­land
  • Pro­duk­ti­vi­tät steigern – weniger Aufwand, mehr Output
  • Direkt im Browser starten – ohne In­stal­la­ti­on

Was ist High Per­for­mance Computing?

High Per­for­mance Computing, abgekürzt HPC, bedeutet übersetzt Hoch­leis­tungs­rech­nen. Wie der Name andeutet, handelt es sich dabei nicht so sehr um eine klar de­fi­nier­te Tech­no­lo­gie mit spe­zi­fi­schen In­stru­men­ten, sondern um Verfahren, die ein Viel­fa­ches der Per­for­mance und Spei­cher­ka­pa­zi­tä­ten ge­wöhn­li­cher Rechner nutzen bzw. zur Verfügung stellen. Feste Kriterien für das Wesen von HPC gibt es nicht, da das Ver­ständ­nis von HPC mit der Zeit geht und sich neuen Re­chen­tech­no­lo­gien anpasst. Allgemein lässt sich sagen, dass HPC-Lösungen für komplexe Re­chen­ope­ra­tio­nen mit sehr großen Da­ten­men­gen oder zur Analyse, Be­rech­nung und Si­mu­la­ti­on von Systemen und Modellen zum Einsatz kommen.

HPC-Verfahren lassen sich zum einen auf einzelnen, sehr leis­tungs­fä­hi­gen Rechnern nutzen. Häufiger jedoch findet sich HPC in Form von HPC-Knoten, die als HPC-Cluster Su­per­com­pu­ter bilden. Su­per­com­pu­ter sind in der Lage par­al­le­les Hoch­leis­tungs­rech­nen mit mehreren agg­re­gier­ten Res­sour­cen durch­zu­füh­ren. Frühe HPC-Su­per­com­pu­ter wurden vom heutigen Intel-Partner Cray ent­wi­ckelt. Heut­zu­ta­ge sind Su­per­com­pu­ter um ein Viel­fa­ches leis­tungs­fä­hi­ger, da komplexe Hardware- und Software-Ar­chi­tek­tu­ren über Knoten verknüpft und Per­for­mance-Leis­tun­gen kom­bi­niert werden.

Wie funk­tio­nie­ren HPC-Lösungen?

Wenn zu ver­ar­bei­ten­de Da­ten­men­gen die Leis­tungs­fä­hig­keit her­kömm­li­cher Rechner über­for­dern, sind HPC-Um­ge­bun­gen gefragt. Als eine Form des Dis­tri­bu­ted Computing nutzt HPC die ge­sam­mel­te Per­for­mance von ge­kop­pel­ten Rechnern innerhalb eines Systems bzw. die agg­re­gier­te Per­for­mance von Hardware- und Software-Um­ge­bun­gen und Servern. Moderne HPC-Cluster und Ar­chi­tek­tu­ren fürs Hoch­leis­tungs­rech­nen setzen sich aus CPUs, Arbeits- und Da­ten­spei­chern, Be­schleu­ni­gern und HPC-Fabrics zusammen. An­wen­dun­gen, Messungen, Be­rech­nun­gen und Si­mu­la­tio­nen in großem Umfang können dank HPC auf parallele Prozesse verteilt werden. Die Ver­tei­lung der Task erfolgt über spezielle Computing-Software.

Bei High Per­for­mance Computing-An­wen­dun­gen finden sich vor allem zwei Ansätze:

  1. Scale-Up: Hierbei nutzen HPC-Tech­no­lo­gien eine komplexe Ar­chi­tek­tur aus Hardware und Software, in der Tasks auf ver­füg­ba­re Res­sour­cen verteilt werden. Die Ver­tei­lung auf parallele Re­chen­pro­zes­se erfolgt innerhalb eines Systems bzw. Servers. Beim Scale-Up ist das High-Per­for­mance-Potential zwar hoch, doch durch die Sys­tem­be­gren­zung be­schränkt.
  2. Scale-Out: Bei Scale-Out-Ar­chi­tek­tu­ren werden einzelne Rechner, Server-Systeme und Spei­cher­ka­pa­zi­tä­ten mithilfe von Clus­te­ring zu Knoten und HPC-Clustern verbunden.

Warum sind HPC-Cluster vor­teil­haf­ter?

Theo­re­tisch können bereits einzelne ge­kop­pel­te Rechner eines Systems durch Scale-Up für HPC-An­for­de­run­gen genügen. In der Praxis jedoch erweist sich der Scale-Up Ansatz bei sehr großen An­wen­dun­gen als kaum effizient. Erst der Zu­sam­men­schluss von Rech­ner­ein­hei­ten und Ser­ver­sys­te­men ak­ku­mu­liert Ka­pa­zi­tä­ten und skaliert die er­for­der­li­che Per­for­mance nach Bedarf. Die Zu­sam­men­stel­lung, Ver­tei­lung oder Trennung von HPC-Clustern erfolgen in der Regel über ein einzelnes Server-System mit zu­sam­men­ge­schlos­se­nen Rech­ner­ein­hei­ten oder über das au­to­ma­ti­sier­te Cloud-Computing von HPC-Providern.

Was ist HPC aus der Cloud?

Im Gegensatz zu lokalen oder über­re­gio­na­len Ein­zel­sys­te­men, die über einen Server HPC-An­wen­dun­gen ausführen, bietet HPC per Cloud-Computing deutlich mehr Ka­pa­zi­tä­ten und Ska­lier­bar­keit. Hierbei stellen HPC-Provider eine IT-Umgebung aus Servern und Rech­ner­sys­te­men zur Verfügung, die sich nach Bedarf buchen lässt. Der Zugriff erfolgt flexibel und schnell. Zudem sind die an­ge­bo­te­nen Cloud-Services von HPC-Anbietern fast un­ein­ge­schränkt ska­lier­bar und ga­ran­tie­ren eine zu­ver­läs­si­ge Cloud-In­fra­struk­tur für HPC-Verfahren. Das On-Premises-Modell mit Ein­zel­sys­te­men, bestehend aus einem oder mehreren Servern und komplexer IT-In­fra­struk­tur, bietet zwar mehr Un­ab­hän­gig­keit ist jedoch von höheren In­ves­ti­tio­nen und Auf­rüs­tun­gen abhängig.

Tipp

Nutzen Sie mit IONOS In­fra­struc­tu­re-as-a-Service. Mit der IONOS Compute Engine können Sie sich auf volle Kos­ten­kon­trol­le, leis­tungs­fä­hi­ge Cloud-Lösungen und per­sön­li­chen Service verlassen.

Typische An­wen­dungs­be­rei­che von HPC

Genau wie die De­fi­ni­ti­on von HPC fließend ist, findet sich auch die Anwendung von HPC in nahezu allen Bereichen, in denen komplexe Re­chen­pro­zes­se erfolgen. HPC lässt sich lokal On-Premises, über die Cloud oder auch als hybrides Modell nutzen. Zu Branchen, die auf HPC an­ge­wie­sen sind oder re­gel­mä­ßig nutzen, zählen:

  • Genomik: Zur DNA-Se­quen­zie­rung, Ab­stam­mungs­stu­di­en und Arz­nei­mit­tel­ana­ly­se
  • Medizin: Me­di­ka­men­ten­for­schung, Impf­stoff­her­stel­lung, Therapie-Forschung
  • Industrie: Si­mu­la­tio­nen und Modelle, z. B. Ar­ti­fi­ci­al In­tel­li­gence, Ma­schi­nel­les Lernen, Autonomes Fahren oder Pro­zess­op­ti­mie­rung
  • Luft-/Raumfahrt: Si­mu­la­tio­nen zu Ae­ro­dy­na­mik
  • Finanzen: Im Rahmen der Fi­nanz­tech­no­lo­gie zur Durch­füh­rung von Ri­si­ko­ana­ly­sen, zur Be­trugs­er­mitt­lung, für Business-Analysen oder zur Er­stel­lung von Fi­nanz­mo­del­len
  • Un­ter­hal­tungs­me­di­en: Special Effects, Ani­ma­tio­nen, Über­tra­gung von Me­di­en­da­tei­en
  • Me­teo­ro­lo­gie und Kli­ma­to­lo­gie: Wet­ter­vor­her­sa­ge, Kli­ma­mo­del­le, Ka­ta­stro­phen­pro­gno­sen und -warnungen
  • Teil­chen­phy­sik: Be­rech­nun­gen und Si­mu­la­tio­nen zur Quan­ten­me­cha­nik/-physik
  • Quan­ten­che­mie: Quan­ten­che­mi­sche Be­rech­nun­gen

Vorteile von High Per­for­mance Computing

HPC ist längst nicht mehr nur in der Wis­sen­schaft ein ver­läss­li­ches Werkzeug zur Lösung komplexer Aufgaben und Probleme. In­zwi­schen können auch Un­ter­neh­men und In­sti­tu­tio­nen aus ver­schie­dens­ten Bereichen auf leis­tungs­fä­hi­ge HPC-Verfahren zu­rück­grei­fen.

Zu den Vorteilen von HPC zählen:

  • Kos­ten­er­spar­nis: Durch HPC aus der Cloud lassen sich größere und komplexe Workloads auch von kleineren Un­ter­neh­men ver­ar­bei­ten. Die Buchung von HPC-Services über HPC-Provider sichert trans­pa­ren­te Kos­ten­kon­trol­le.
  • Mehr Leistung, höhere Ge­schwin­dig­keit: Komplexe und auf­wän­di­ge Aufgaben lassen sich durch HPC-Ar­chi­tek­tu­ren bestehend aus CPUs, Server-Systemen und Tech­no­lo­gien wie Remote Direct Memory Access mit mehr Re­chen­ka­pa­zi­tä­ten erledigen und Be­rech­nun­gen deutlich schneller ausführen.
  • Pro­zess­op­ti­mie­rung: Durch Modelle und Si­mu­la­tio­nen lassen sich physische Tests und Pro­be­pha­sen ef­fi­zi­en­ter gestalten, Ausfälle und Defekte, bei­spiels­wei­se in der Industrie oder in der Fi­nanz­tech­no­lo­gie, vorbeugen und Pro­zess­ab­läu­fe durch in­tel­li­gen­te Au­to­ma­ti­sie­rung op­ti­mie­ren.
  • Wis­sens­ge­winn: In der Forschung er­mög­licht HPC die Aus­wer­tung enormer Da­ten­men­gen und fördert In­no­va­tio­nen, Prognosen und Er­kennt­nis­ge­winn.
Zum Hauptmenü