TECHNOLOGIE9 Min. Lesezeit

KI-Workloads: Neue Anforderungen an Colocation-Infrastruktur

GPU-Cluster, Liquid Cooling, High-Density-Racks — was künstliche Intelligenz von modernen Rechenzentren verlangt.

E

Redaktion

Das Strom-Problem: 30 kW pro Rack und mehr

Traditionelle Colocation-Racks verbrauchen 5-8 kW. Ein einzelner GPU-Server mit 8x NVIDIA H100 zieht dagegen 10-12 kW. Ein volles Rack mit GPU-Servern kommt schnell auf 30-40 kW — das Fünffache eines Standard-Racks. Diese Leistungsdichte stellt Rechenzentren vor massive Herausforderungen bei Stromversorgung und Kühlung. Nicht jeder Standort kann High-Density liefern.

Kühlung: Luft allein reicht nicht mehr

Bei 30+ kW pro Rack stoßen Luftkühlungssysteme an ihre physikalischen Grenzen. Die Branche bewegt sich rasant zu Flüssigkeitskühlung: Direct-to-Chip (DLC) leitet Kühlmittel direkt an die heißesten Komponenten. Rear-Door Heat Exchangers tauschen Wärme an der Rack-Rückseite aus. Immersion Cooling taucht gesamte Server in dielektrische Flüssigkeit. Auf ENTRONYX können Sie gezielt nach Standorten mit Liquid-Cooling-Option filtern.

Netzwerk: Latenz und Bandbreite für verteiltes Training

Verteiltes KI-Training über mehrere GPU-Nodes erfordert extrem niedrige Latenz und hohe Bandbreite zwischen den Knoten. InfiniBand und RoCEv2 mit 400 Gbit/s sind der Standard. Dafür müssen die GPU-Server idealerweise im selben Rechenzentrum stehen — die Auswahl des richtigen Standorts ist kritisch.

Checkliste: Der richtige Colocation-Standort für KI

Bei der Standortwahl für KI-Workloads sollten Sie auf folgende Kriterien achten: Verfügbare Leistung pro Rack (mindestens 15 kW, idealerweise 30+ kW). Kühlungstechnologie (Liquid Cooling verfügbar?). Netzwerk-Infrastruktur (lokaler IX, geringe Latenz). Skalierbarkeit (können zusätzliche Racks schnell bereitgestellt werden?). Energieeffizienz (PUE-Wert unter 1.3).

Bereit, das passende Rechenzentrum zu finden?

Vergleichen Sie 200+ zertifizierte Standorte in 15 Ländern — transparent und in Echtzeit.

Rechenzentren vergleichen