Zurück zur Übersicht

Mehr Rechenleistung, um immer ressourcenhungrigere Anwendungen betreiben zu können? Über viele Jahre hinweg war dies kein Problem. Denn mit jeder neuen CPU-Generation vervielfachte sich in der Vergangenheit die Performance handelsüblicher PCs und Server. Mit immer schnellerer Hardware ließ sich auf diese Weise so mancher Makel in bestehenden Applikationen ausgleichen. Und auch der Umgang mit ständig wachsenden Datenmengen – Stichwort: Big Data – war maximal eine Frage der Investitionen in die IT-Infrastruktur.

CPU-Geschwindigkeit wird zum limitierenden Faktor
Doch von vielen noch weitgehend unbemerkt, ist bei dieser Entwicklung das Ende der Fahnenstange bald erreicht. Das liegt in erster Linie schlicht und einfach an physischen Grenzen: Die Prozessor-Hersteller nähern sich in nunmehr immer kleineren Schritten den theoretisch umsetzbaren CPU-Taktfrequenzen an (Stichwort: Ende des Mooreschen Gesetzes). Vielfach wird für rechenintensive Anwendungen bereits auf die zusätzliche Leistung von Grafikprozessoren (GPUs) zurückgegriffen. Doch dies stellt für High Performance-Anforderungen in der Regel keine nachhaltige Lösung dar. Und auch der Einsatz von mehreren Rechnern parallel eignet sich in vielen Szenarien nicht, denn der Flaschenhals bleibt oftmals die Geschwindigkeit des einzelnen CPU-Kerns – Stichwort Singlethread Performance.

Der Fokus verlagert sich auf die Applikationen
Im so genannten High Performance Computing verschiebt sich der Fokus deshalb künftig immer mehr auf die hardwareabgestimmte Entwicklung von Software. Denn gerade in Bestandslösungen schlummert oft riesiges Optimierungspotenzial. Das hängt damit zusammen, dass sich Entwickler in der Vergangenheit aus oben genannten Gründen kaum auf einen möglichst effizienten Code konzentrieren mussten – ein Ausgleich in Form immer leistungsfähigerer Hardware war vielfach schlicht der einfachere Weg. Doch der Wind hat sich gedreht. Um Zukunftssicherheit zu gewährleisten, sind nun mehr denn je clevere, hochgradig performante Algorithmen gefragt.

In Sekundenbruchteilen Millionen von Daten verarbeiten
Ganz entscheidend ist dies beispielsweise in Bereichen, in denen vergleichsweise kompakte Systeme höchste Rechenleistungen erbringen müssen. Beim autonomen und teilautomatisierten Fahren etwa müssen Steuerungssysteme in Pkws in der Lage sein, innerhalb von Sekundenbruchteilen Millionen von Daten und Informationen zuverlässig zu verarbeiten. Gleichzeitig spielt hier ebenso wie in anderen Branchen ein enormer Kostendruck eine Rolle, der auch hardwareseitig klare Grenzen setzt. Und auch im Finanzdienstleistungs- und Bankenbereich gibt es zahlreiche Anwendungsmöglichkeiten für High Performance Computing, etwa im Bereich des Tradings bzw. des computergestützten Hochfrequenzhandels.

Individuelle High Performance Lösungen für Ihr Unternehmen
Kluges statt einfaches Code-Design: Unsere Experten für High Performance Computing haben es sich zum Ziel gesetzt, für unsere Kunden clevere Algorithmen zu entwickeln, die maximal optimiert sind. Dabei kommen beispielsweise auch modernste, zukunftsweisende Verfahren aus dem Bereich der generischen Programmierung zum Einsatz. Auf diese Weise wird Code generiert, der die jeweiligen Hardware-Konfigurationen optimal ausschöpft. Die möglichen Leistungssteigerungen im High Performance Computing sind teilweise exorbitant.

Gerne beraten wir Sie zu den individuellen Möglichkeiten in Ihrem Unternehmen und stehen dazu jederzeit zu Ihrer Verfügung.