TECHNOLOGIE10 Min. Lesezeit

GPU-Colocation: Anforderungen an KI-Infrastruktur

Warum herkömmliche Rechenzentren für KI-Workloads nicht ausreichen und welche Anforderungen GPU-Colocation an Strom, Kühlung und Netzwerk stellt.

E

Redaktion

Warum Standard-Colocation für KI nicht reicht

Die Anforderungen an KI-fähige Colocation unterscheiden sich fundamental von klassischen IT-Workloads. Herkömmliche Rechenzentren sind für eine durchschnittliche Leistungsdichte von 5-8 kW pro Rack ausgelegt — mit Luftkühlung, die für CPU-basierte Server völlig ausreicht. GPU-Colocation verlangt jedoch eine völlig andere Infrastruktur. Ein einziger GPU-Server mit acht NVIDIA H100 oder H200 Beschleunigern zieht 10-12 kW. Ein vollständig bestücktes High-Density Rack erreicht 30-40 kW — das Vier- bis Fünffache eines Standard-Racks. Diese enorme Leistungsdichte stellt drei Kernbereiche vor Herausforderungen: Die Stromversorgung muss deutlich höhere Leistungen pro Quadratmeter bereitstellen. Die Kühlung muss die konzentrierte Abwärme effizient abführen, ohne dass Hotspots entstehen. Das Netzwerk muss für die spezifischen Kommunikationsmuster verteilter GPU-Cluster optimiert sein — mit extrem niedriger Latenz und hohem Durchsatz zwischen den Knoten. Nicht jedes KI Rechenzentrum kann diese Anforderungen erfüllen, weshalb eine sorgfältige Standortwahl entscheidend ist.

GPU-Racks: 30-40 kW pro Rack

Die aktuelle Generation von GPU-Beschleunigern für KI-Training setzt neue Maßstäbe bei der Leistungsaufnahme. NVIDIA H100 SXM5 verbraucht bis zu 700W pro Chip, die neuere H200 liegt bei 700W mit deutlich mehr HBM3e-Speicher. AMDs Antwort, die MI300X, zieht bis zu 750W. Ein typischer GPU-Server mit acht solcher Beschleuniger erreicht mit CPUs, Speicher und Netzwerk eine Gesamtleistung von 10-12 kW. Bei drei bis vier GPU-Servern pro Rack plus Top-of-Rack-Switches und Netzwerk-Equipment landen Sie bei 30-40 kW pro Rack. Für die nächste Generation — NVIDIA B200 und Rubin — werden sogar 40-60 kW pro Rack erwartet. GPU-Colocation-Anbieter müssen entsprechend dimensionierte Stromschienen, PDUs und USV-Systeme bereitstellen. Die Redundanz der Stromversorgung (2N oder mindestens N+1) ist bei diesen Leistungsdichten besonders kritisch, da ein Stromausfall nicht nur zum Datenverlust führt, sondern auch laufende KI-Trainings unterbrechen kann, die Wochen dauern und Hunderttausende Euro kosten.

Liquid Cooling: Pflicht für KI-Workloads

Bei Leistungsdichten jenseits von 20 kW pro Rack stößt konventionelle Luftkühlung an ihre physikalischen Grenzen. Liquid Cooling wird zur Pflicht für GPU-Colocation. Drei Technologien dominieren den Markt: Direct Liquid Cooling (DLC) führt Kühlmittel über Kaltplatten direkt an die heißesten Komponenten — GPUs und CPUs. DLC entfernt bis zu 80% der Abwärme direkt an der Quelle und ist bis zu 3.000-mal effizienter als Luft. Die meisten modernen GPU-Server wie das NVIDIA DGX H100 unterstützen DLC nativ. Rear-Door Heat Exchangers (RDHx) sind eine nachrüstbare Lösung, die an der Rack-Rückseite installiert wird und die Abluft kühlt, bevor sie in den Raum gelangt. Sie eignen sich für mittelhohe Dichten von 15-25 kW. Immersion Cooling taucht gesamte Server in eine dielektrische Flüssigkeit ein und erreicht die höchste Kühleffizienz. Diese Technologie ist besonders für extreme Leistungsdichten über 50 kW pro Rack relevant. Für Unternehmen, die GPU-Colocation mieten möchten, ist die Verfügbarkeit von Liquid Cooling ein entscheidendes Auswahlkriterium. Auf ENTRONYX können Sie gezielt nach Standorten mit Liquid-Cooling-Option filtern.

KI-Colocation Standorte in Deutschland

Nicht alle Colocation-Standorte in Deutschland sind für KI-Workloads geeignet. Die besten GPU-Colocation-Angebote finden sich in Frankfurt und München. Frankfurt bietet die größte Dichte an KI-fähigen Rechenzentren, da internationale Hyperscaler und Cloud-Anbieter hier massive GPU-Kapazitäten aufbauen. Die Nähe zum DE-CIX ist für verteiltes Training über mehrere Standorte vorteilhaft. München profitiert von der Nähe zu KI-Forschungseinrichtungen und der Automotive-Industrie, die zunehmend GPU-Kapazität für autonomes Fahren und Predictive Maintenance nachfragt. Berlin entwickelt sich als dritter KI-Hub mit Fokus auf Startup-Ökosystem und Government AI. Bei der Wahl eines GPU-Colocation-Standorts sollten Sie neben der Kühltechnologie auch auf die Energiekosten achten: KI-Workloads verbrauchen enorme Mengen Strom, sodass jeder Cent pro kWh sich summiert. Standorte mit hohem Anteil erneuerbarer Energien senken zudem den CO2-Fußabdruck Ihrer KI-Projekte. Erfahren Sie mehr über KI-optimierte Colocation auf unserer Spezialseite entronyx.com/ki-colocation — oder vergleichen Sie GPU-fähige Standorte direkt auf unserer Suchseite.

Bereit, das passende Rechenzentrum zu finden?

Vergleichen Sie 200+ zertifizierte Standorte in 15 Ländern — transparent und in Echtzeit.

Rechenzentren vergleichen