WARUM SICH ON PREM IMMER NOCH LOHNT.

Alles in die Cloud? Mitnichten. Auch 2024 lohnen sich on-premises Infrastrukturen noch in vielen Fällen! Beispiele dafür sind:

  • Sie betreiben einen HPC- oder Machine-Learning-Cluster.
  • Gesetze oder Compliance-Vorgaben erlauben Ihnen keinen Gang in die Public Clound – oder erschweren ihn zumindest über Gebühr.
  • Sie haben eine TCO-Betrachtung gemacht und festgestellt, dass die Public Cloud sich für Sie nicht lohnt.
  • Sei wollen als Managed-Service-Provider Infrastrukturen für Ihre Kunden bereit stellen.

Doch Sie müssen sich nicht entscheiden zwischen IT der 1980er Jahre und heute: Wir planen, bauen und unterstützen Sie beim Betrieb Ihrer eigenen Infrastruktur. Sowohl in Forschung und Entwicklung mit HPC- und Machine-Learning-Clustern, als auch in der Verwaltung bei Virtualisierungs– und Private-Cloud-Computing-Clustern. Immer mit dabei: Hoch- und höchstperformante Netzwerke, sowie Storage und Monitoring – und das ganze basierend auf einem Data Center Infrastructure Management mit vollständiger Automatisierung. Und auf Wunsch auch nachhaltig mit Wasserkühlung.

Sprechen Sie uns gerne an – oder rufen Sie durch: 030 5130 444 – 00.

Schreiben Sie uns
Rufen Sie an
Virtualisierungscluster (Symbolbild)
cluster-lights

HIGH PERFORMANCE COMPUTING.

Leider lassen sich bis heute mathematische und damit physikalische, chemische oder ingenieurswissenschaftliche Probleme nicht als Formel geschlossen berechnen. Zum Teil, weil man die Formel bisher noch nicht ermittelt hat – und zum Teil, weil diese viel zu komplex wäre. Oder wüssten Sie die Formel, mit der sich die Motorhaube eines 1977er Ford Mustang mit 141 PS verbiegt, wenn er in einem Winkel von 52° mit 35,4 m/s auf einen Poller aus reinem Stahl und mit einem Durchmesser von 17cm fährt, wenn der Tank zu 44 Prozent gefüllt ist, die Reifen einen Innendruck von 4,5 bar haben und die Insassen zusammen 230 kg wiegen?

Um dies zu lösen, benötigt es die in Forschung und Wissenschaft wohl am Häufigsten anzutreffende Computing-Cluster-Variante: Den High-Performance-Computing-Cluster. HPC-Cluster dienen vor allem der Berechnung komplexer, anspruchsvoller Aufgaben. Hier werden große Datenmengen und komplexe Probleme parallelisiert und so wissenschaftliche Probleme durch Computermodellierung, -simulation und -analyse gelöst.

Das wichtige: Neben reinen Compute-Nodes, den Arbeitspferden in der Simulation, bedarf es für einen funktionierenden Cluster auch einen hochperformanten Storage und ein latenzarmes und bandbreitenstarkes Netzwerk.

Schreiben Sie uns

MACHINE LEARNING & KI.

Die Anzahl der Branchen, die 2024 noch ohne künstliche Intelligenz auskommen, lässt sich an einer Hand abzählen – KI ist in aller Munde. Und es ist unwichtig, ob man ein Large Language Model für Sprachverarbeitung oder eine Bildanalyse-KI für die Detektion von Schweißfehlern erstellen möchte. Künstliche Intelligenz benötigt maschinelles Lernen – und das wiederum viele Ressourcen. GPUs sind da nur eine von.

Doch für das Training muss man nicht in die Public Cloud. Auch on premises, also im eigenen Rechenzentrum lassen sich Modelle trainieren – und das regelmäßig günstiger und unter Einhaltung aller Datenschutzvorschriften. Wichtig hierfür: Eine passende Infrastruktur – vom Netzwerk über Storage bis hin zum Design der Compute-Nodes sind alle Komponenten für einen hochperformanten ML-Cluster von absoluter Wichtigkeit. Wir designen Ihren Cluster und unterstützen Sie beim Aufbau.

Schreiben Sie uns
GPU-Server (Symbolbild)

VIRTUALISIERUNG.

Virtualisierung von Diensten spart Geld, häufig schon auf einem Knoten. Der Grund dafür ist, dass sich die einzelnen Dienste, wie etwa der File- und Projektverwaltungsserver, Ressourcen teilen. Doch sie teilen auch ein Problem: Fällt die unterliegende Hardware aus, sind alle Dienste nicht mehr verfügbar – ein Single Point of Failure.

Ein Cluster aus Virtualisierungs-Hosts, die über ein gemeinsames Netzwerk und mit einem gemeinsamen Storage verbunden sind (ein so genannter shared-all-Cluster) kann hier eine nachhaltige und belastbare Lösung sein. Die virtuellen Maschinen liegen nun in einem Pool von Servern und können von einem Host zum nächsten verschoben werden – mit einer entsprechenden Planung sogar geo-redundant, also über mehrere Rechenzentren an unterschiedlichen Orten hinweg. Außerdem kann von virtuellen Maschinen einfach ein Snapshot gemacht werden, etwa vor einem kritischen Update einer Software. Hat dieses Update nicht den gewünschten Erfolg gebracht, rollt man ohne großen Aufwand das gesamte Betriebssystem der virtuellen Maschine inklusive aller Daten zurück.

Beispiele für Virtualisierungs-Cluster sind nicht nur interne Dienste, wie File- und Webserver, sondern auch Software-as-a-Service-Angebote.

Schreiben Sie uns

PRIVATE CLOUD.

Die Crème de la Crème der Infrastrukturen: Die Private Cloud. Die Technologien, die die Hyperscaler anbieten – nur im eigenen Rechenzentrum. Mit einer private Cloud lassen sich den eigenen Kunden vollständige virtuelle Rechenzentrum zur Verfügungstellen. Vollautomatisierbar, skalierbar und mit digitaler Souveränität. Ob als Managed Service Provider, Forschungsinstitut oder als größeres Unternehmen mit verschiedenen Abteilungen: Mit einer Private Cloud auf OpenStack-Basis können Sie skalieren – und das mit der Technik aus dem HPC.

Im Gegensatz zu einer klassischen Virtualisierungs-Infrastruktur ist eine Private Cloud neben der Skalierung vor allem auf eines ausgelegt: Standarisierung und Abstraktion der Hardware-Komponenten für die Anwender.

Übrigens: Die Private Cloud kann sich auch als Unterbau für Machine-Learning– oder HPC-Cluster lohnen.

Schreiben Sie uns
Netzwerke (Symbolbild)

HIGHSPEED-NETZWERKE.

Unverzichtbare Ergänzung zu jedem Computing Cluster: Highspeed-Netzwerke

Damit ein Cluster aus mehreren Servern auch als eine Einheit zusammen arbeiten kann, braucht es zwischen den Nodes ein stabiles und performantes Netzwerk. Dies kann ein in der Forschung aufgrund seiner latenzarmen Übertragungen sehr beliebten Infiniband-Verbindung, oder eine im Rechenzentrum aufgrund seiner Versatilität gerne genommenen Ethernetverbindung sein – beide erreichen heute Datenraten von 800 Gigabit pro Sekunde. Doch dafür müssen Voraussetzungen schon in der passiven Verkabelung gegeben sein.

Diese Netzwerkverbindung ermöglicht es auch, dass man selbst für (hoch-)verfügbare Cluster Standard-Serverhardware verwenden kann (COTS – commercial off the shelf).

Schreiben Sie uns

DATA CENTER INFRASTUCTURE MANAGEMENT (DCIM).

Wissen Sie wie viele Kabel Sie im Rechenzentrum haben? Und wie viele davon dort stecken, wo Sie stecken sollen? Ein modernes Data Center Infrastructure Management (DCIM) hilft Ihnen nicht nur dabei, sondern ist auch die Single Source of Truth für Automatisierung: Wenn maschinenlesbar hinterlegt ist, welcher Server mit welchem Switch auf welchem Port hinterlegt ist, können Automatisierungslösungen, wie Ansible sämtliche Server und Switches darauf basierend konfigurieren.

Schreiben Sie uns
Grafana (Symbolbild)

MONITORING UND LOGGING.

Was nicht gemonitort wird, darf kaputt gehen. Diese simple IT-Weisheit gilt auch bis heute unverändert. Gerade in großen Infrastrukturen mit Dutzenden oder gar hunderten von Nodes und Services ist eine Übersicht andernfalls schlicht unmöglich. Doch auch wenn sich Monitoring bis heute im Wesen kaum verändert hat (Daten werden gesammelt und aggregiert und bei Bedarf Trigger ausgelöst), so profitiert ein modernes Monitoring vor allem von einem: Automatisierung.

Schreiben Sie uns

RZ-INFRASTURKTUR & WASSERKÜHLUNG.

Lange Zeit gab es eine gläserne Decke zwischen Rechenzentrums-Planern und Anwendern. Jeder Server war bestmöglich mit zwei Feeds abzusichern und durfte nicht ausfallen. Gleichzeitigkeitsfaktoren wurden angewendet – und mehr als 10 kW pro Rack waren eine Seltenheit. Doch seit 10 Jahren ändert sich einiges: Mit HPC und Machine-Learning sind heute Racks mit einem Leistungsbedarf von 40 kW keine Seltenheit mehr – mit Spitzen von bis zu 120 kW. Die entstehenden Wärmelasten sind auch ohne Energieeffizienzgesetz nicht mehr ohne Wasserkühlung aus einem Rack abführbar.

Und gleichzeitig erlauben moderne Cloud-Technologien auch eine größere Fehlerresilienz der Services – sofern die RZ-Infrastruktur von Anfang an korrekt geplant wird.

Schreiben Sie uns
Wasserkühlung
Bild-Anzeige-TA

CONSULTING.

Wir unterstützen Sie gerne bei der Zusammenstellung Ihres Clusters. In unserem Consulting ermitteln wir Ihren tatsächlichen Bedarf und setzen, wenn Sie es wünschen, unsere für Sie ausgearbeitete Cluster-Lösung auch in die Tat um. Durch unsere jahrelange Erfahrung im HPC-Bereich, können wir die bestmögliche, zukunftsfähigste und dabei kosteneffizienteste Konfiguration für Sie erarbeiten. Kontaktieren Sie uns.

Schreiben Sie uns
Rufen Sie an

OPEN SOURCE
IS IN OUR DNA.