Das Strom-Problem: 30 kW pro Rack und mehr
Traditionelle Colocation-Racks verbrauchen 5-8 kW. Ein einzelner GPU-Server mit 8x NVIDIA H100 zieht dagegen 10-12 kW. Ein volles Rack mit GPU-Servern kommt schnell auf 30-40 kW — das Fünffache eines Standard-Racks. Diese Leistungsdichte stellt Rechenzentren vor massive Herausforderungen bei Stromversorgung und Kühlung. Nicht jeder Standort kann High-Density liefern.
Kühlung: Luft allein reicht nicht mehr
Bei 30+ kW pro Rack stoßen Luftkühlungssysteme an ihre physikalischen Grenzen. Die Branche bewegt sich rasant zu Flüssigkeitskühlung: Direct-to-Chip (DLC) leitet Kühlmittel direkt an die heißesten Komponenten. Rear-Door Heat Exchangers tauschen Wärme an der Rack-Rückseite aus. Immersion Cooling taucht gesamte Server in dielektrische Flüssigkeit. Auf ENTRONYX können Sie gezielt nach Standorten mit Liquid-Cooling-Option filtern.
Netzwerk: Latenz und Bandbreite für verteiltes Training
Verteiltes KI-Training über mehrere GPU-Nodes erfordert extrem niedrige Latenz und hohe Bandbreite zwischen den Knoten. InfiniBand und RoCEv2 mit 400 Gbit/s sind der Standard. Dafür müssen die GPU-Server idealerweise im selben Rechenzentrum stehen — die Auswahl des richtigen Standorts ist kritisch.
Checkliste: Der richtige Colocation-Standort für KI
Bei der Standortwahl für KI-Workloads sollten Sie auf folgende Kriterien achten: Verfügbare Leistung pro Rack (mindestens 15 kW, idealerweise 30+ kW). Kühlungstechnologie (Liquid Cooling verfügbar?). Netzwerk-Infrastruktur (lokaler IX, geringe Latenz). Skalierbarkeit (können zusätzliche Racks schnell bereitgestellt werden?). Energieeffizienz (PUE-Wert unter 1.3).