Ein technischer und strategischer Leitfaden für IT-Leiter und Entscheider
Die digitale Transformation stellt Unternehmen vor wachsende Herausforderungen: Höhere Verfügbarkeitsanforderungen, verschärfte Compliance-Vorgaben, steigende Energiekosten und komplexere hybride IT-Architekturen erfordern tragfähige Infrastrukturlösungen. Für IT-Leiter stellt sich daher zunehmend die Frage, wie und wo unternehmenskritische Systeme sicher, effizient und zukunftsfähig betrieben werden können.
Colocation, also die Auslagerung eigener Hardware in ein externes Rechenzentrum, ist in vielen Fällen eine sinnvolle Option – sowohl aus technischer als auch aus betriebswirtschaftlicher Sicht.
In diesem Leitfaden geben wir einen umfassenden Einblick in das Thema Colocation, klären technische Details, zeigen Unterschiede zu anderen Betriebsmodellen auf und beantworten zentrale Fragen, wie sie sich in der Praxis eines IT-Leiters stellen.
Was genau ist Colocation?
Unter Colocation versteht man die Unterbringung unternehmenseigener IT-Systeme – beispielsweise Server, Storage-Systeme, Netzwerkkomponenten oder Appliances – in einem externen, professionell betriebenen Rechenzentrum. Dabei verbleibt die Hardware im Besitz des Kunden, der auch weiterhin für deren Betrieb, Konfiguration und Wartung verantwortlich ist. Der Colocation-Anbieter stellt die physische Umgebung zur Verfügung: Racks, Stromversorgung, Kühlung, Netzwerkanbindung sowie Sicherheits- und Zugangskontrollen.
Colocation unterscheidet sich damit klar vom klassischen Hosting oder von Cloud-Modellen, bei denen sowohl Hardware als auch Infrastruktur vollständig vom Dienstleister bereitgestellt und verwaltet werden. Ziel der Colocation ist es, eine hochverfügbare, sichere und skalierbare Betriebsumgebung zu bieten – ohne dass Unternehmen eigene Rechenzentren betreiben müssen.
Colocation – Technische Rahmenbedingungen und Leistungsmerkmale
RZ-Infrastruktur: Rackspace, Strom, Kühlung
Die Unterbringung erfolgt typischerweise in 19-Zoll-Racks, die einzeln (z. B. 1–10 Höheneinheiten), als halbe oder ganze Racks oder sogar als dedizierte Cages bzw. eigene Räume gebucht werden können. Der Strombedarf pro Rack ist ein entscheidender Faktor: während klassische Systeme mit 2–5 kW auskommen, steigen moderne High-Density-Setups (z. B. mit GPU-Clustern) schnell auf 10 kW oder mehr. Seriöse Anbieter bieten A/B-Redundanz bei der Stromversorgung – d. h. zwei unabhängig voneinander geführte Stromkreise mit unterbrechungsfreier Versorgung (USV) und Notstromversorgung (Dieselgeneratoren).
Die Kühlung erfolgt in modernen Rechenzentren in der Regel über Kalt-/Warmgangeinhausung. Bei höheren Leistungsdichten kommen wassergekühlte In-Rack- oder In-Row-Systeme zum Einsatz. Besonders bei steigenden Energiekosten spielt die Effizienz der Kühlung eine zentrale Rolle – ausgedrückt im Power Usage Effectiveness (PUE). Ein PUE von unter 1,4 gilt heute als guter Wert, Spitzenrechenzentren erreichen Werte unter 1,2.
Netzanbindung: Carrier-neutral und hochverfügbar
Ein wesentliches Qualitätsmerkmal eines Colocation-Standorts ist seine Konnektivität. Idealerweise ist das Rechenzentrum carrier-neutral, d. h. Kunden können zwischen verschiedenen Netzbetreibern wählen und unabhängige Verbindungen aufbauen – etwa für redundante Uplinks oder BGP-Multihoming. In der Praxis lassen sich dadurch Internetanbindungen mit hoher Bandbreite (1 Gbit/s, 10 Gbit/s oder mehr), niedriger Latenz und maximaler Ausfallsicherheit realisieren.
Zudem bieten viele Colocation-Anbieter direkte Anbindungen zu Hyperscalern wie AWS, Azure, Google Cloud oder SAP über dedizierte „Cloud Connects“. Das ermöglicht Hybrid-IT-Szenarien mit nahtlosem Datenaustausch und kontrollierten Latenzen zwischen lokalen Systemen und Cloud-Plattformen.
Monitoring- und Managementsysteme
Ein leistungsfähiges Monitoring ist für IT-Verantwortliche eine Grundvoraussetzung, um den operativen Betrieb von Colocation-Umgebungen effizient steuern zu können. Moderne Rechenzentren bieten hierfür Zugang zu umfassenden DCIM-Systemen (Data Center Infrastructure Management). Diese erlauben nicht nur das Live-Monitoring von Temperatur, Luftfeuchtigkeit und Stromverbrauch – bis hinunter auf einzelne Höheneinheiten oder PDUs –, sondern auch die Überwachung von Netzwerkverbindungen, Auslastung, Link-Status und physischem Zugang. In der Praxis hilfreich sind außerdem Anbindungen an eigene Systeme per API oder die Integration in bestehende ITSM- oder Monitoring-Plattformen. Ein webbasiertes Kundenportal mit Ticketsystem, Dashboards und Reportingfunktionen gehört heute zum Standardanspruch.
Brandfrüherkennung und Löschsysteme
Ein weiteres zentrales Element der Betriebssicherheit ist der Brandschutz. Die meisten modernen Rechenzentren setzen hier auf RAS-Systeme (Rauchansaugsysteme), die kontinuierlich Luftproben aus dem Raum ansaugen und analysieren, um Brände in einem sehr frühen Stadium zu erkennen. Kommt es dennoch zu einem Zwischenfall, kommen bevorzugt Inertgas-Löschsysteme zum Einsatz – beispielsweise mit Argon oder Stickstoff. Diese löschen Brände effektiv, ohne die empfindliche Hardware zu beschädigen. Hochwertige Anlagen bieten sogar sektorielle Auslösung, bei der nur betroffene Räume oder Racks gelöscht werden. Solche Systeme sind nicht nur sicherheitsrelevant, sondern auch Voraussetzung für viele Zertifizierungen wie EN 50600 oder ISO 27001.
Stromversorgung im Detail
Zwar ist die Erwähnung redundanter A/B-Feeds und USV-Anlagen essenziell, jedoch lohnt sich ein genauerer Blick auf die konkrete Power-Architektur. Wichtige Aspekte sind etwa die verwendete USV-Technologie – idealerweise Online-Double-Conversion –, die garantierte Überbrückungsdauer bei Volllast (z. B. zehn bis fünfzehn Minuten) und das Vorhandensein automatischer Transfer-Switches (ATS), die im Fehlerfall für eine nahtlose Umschaltung sorgen. Auch die Dieselbevorratung für Notstromaggregate ist kritisch: Wie lange kann ein Rechenzentrum autark betrieben werden, ohne Kraftstoff nachzuführen? Und wie häufig werden diese Systeme gewartet und getestet? Für viele IT-Leiter ist es entscheidend, dass Redundanz nicht nur zugesichert, sondern auch technisch nachvollziehbar und regelmäßig verifiziert ist.
Interconnection- und Netzwerkanbindung im Detail
Der Aspekt der Netzanbindung geht über die reine Bandbreite hinaus. Carrier-neutrale Rechenzentren bieten nicht nur die Wahlfreiheit zwischen verschiedenen Anbietern, sondern ermöglichen auch sogenannte Cross Connects – also direkte Glasfaser- oder Kupferverbindungen zu Carriern, Kunden oder Partnern innerhalb desselben Standorts. Über sogenannte Meet-Me-Rooms werden Verbindungen mit geringer Verzögerung realisiert. Für komplexe Netzwerkszenarien sind auch Metro-Connects relevant, also dedizierte Glasfaserverbindungen zu anderen Standorten desselben Anbieters oder zu einem zweiten Rechenzentrum im Rahmen einer Geo-Redundanzstrategie.
Ein weiterer Punkt ist das Peering mit Internet Exchanges wie DE-CIX oder AMS-IX. Dies kann besonders für Unternehmen mit hoher Netzlast oder internationalem Traffic sinnvoll sein, da es Routingwege verkürzt, Latenzen senkt und Transitkosten reduziert. Und schließlich werden direkte Verbindungen zu Hyperscalern (z. B. AWS Direct Connect, Azure ExpressRoute, Google Cloud Interconnect) zunehmend zum Standard für hybride IT-Architekturen.
Verfügbarkeitsstandards und Tier-Klassifikation
Ein bewährter Maßstab zur Einordnung der Betriebszuverlässigkeit ist die Tier-Klassifikation des Uptime Institute. Rechenzentren der Tier-I-Klasse bieten nur einfache Infrastruktur ohne Redundanz, während Tier-IV-Zentren mehrfach redundant und fehlertolerant ausgelegt sind. Für die meisten mittelständischen und großen Unternehmen ist Tier III der empfohlene Mindeststandard. Dieser gewährleistet eine Betriebsverfügbarkeit von mindestens 99,982 %, was einer maximalen jährlichen Ausfallzeit von rund 1,6 Stunden entspricht – bei gleichzeitig vollständiger Wartungsfähigkeit aller Komponenten im laufenden Betrieb.
Remote Hands – Leistungsumfang und Transparenz
Zahlreiche Betreiber bieten sogenannte „Remote Hands“-Services an, die den Betrieb erleichtern, wenn kein eigenes Personal vor Ort ist. Der Leistungsumfang variiert jedoch stark. Während einfache Dienste wie das Neustarten eines Servers oder das Ablesen von Status-LEDs meist jederzeit verfügbar sind, erfordern komplexere Tätigkeiten – etwa das Austauschen von Hardwarekomponenten, das Patchen von Netzwerkkabeln oder das Einlegen von Backup-Medien – definierte Zeitfenster, Berechtigungen und Servicevereinbarungen. Auch die Reaktionszeiten unterscheiden sich deutlich: Einige Anbieter garantieren eine Bearbeitung binnen 15 Minuten, andere lassen sich mehrere Stunden Zeit. Die Kosten können pauschal oder minutengenau abgerechnet werden – entscheidend ist die Transparenz im Angebot.
Zertifizierungen und Audits
Technische Exzellenz allein genügt nicht – auch die Prozesse und das Personal des Rechenzentrums müssen nachvollziehbaren Standards genügen. Hierzu zählen Infrastrukturzertifizierungen wie EN 50600 oder ISO 50001 (Energiemanagement), aber auch ISO 27001 (Informationssicherheit) und ISO 20000 (IT-Service-Management) für den laufenden Betrieb. In sensiblen Branchen kommt es zusätzlich auf nachgewiesene Sicherheitsprüfungen des Personals an – etwa gemäß §8a BSIG für Betreiber kritischer Infrastrukturen. Wer Colocation-Dienstleister evaluiert, sollte sich sämtliche relevanten Audits und Prüfberichte vorlegen lassen, um interne und regulatorische Anforderungen sicher erfüllen zu können.
Sicherheit und Compliance: Ein zentrales Argument
Für IT-Leiter sind Sicherheit und regulatorische Anforderungen zentrale Entscheidungskriterien. Professionelle Colocation-Rechenzentren verfügen über ein mehrstufiges Sicherheitskonzept, das typischerweise folgende Elemente umfasst:
- Physischer Zugangsschutz: Zugang nur nach Identitätsprüfung (z. B. biometrisch), mit Protokollierung und individueller Zutrittsfreigabe. Oft ist das Rechenzentrum rund um die Uhr mit Security-Personal besetzt.
- Brandfrüherkennung und Löschsysteme: Brandmelder mit Rauchansaugtechnik (RAS), Brandabschottung zwischen Racks, Gaslöschanlagen oder Inertgas-Systeme gehören zur Grundausstattung.
- Videoüberwachung und Bewegungsmelder zur lückenlosen Dokumentation.
- Monitoring und Logging: Temperatur, Feuchtigkeit, Stromverbrauch und Zugriffe lassen sich live überwachen.
Darüber hinaus sind Zertifizierungen wichtig. Gängige Standards umfassen:
- ISO/IEC 27001 (Informationssicherheitsmanagement)
- EN 50600 (Planung und Betrieb von Rechenzentren)
- ISO 50001 (Energiemanagement)
- TISAX, BSI C5, SOC 2 oder PCI DSS – je nach Branche
Für Unternehmen aus regulierten Branchen (z. B. Finanzsektor, Gesundheitswesen, KRITIS) ist die Zusammenarbeit mit einem entsprechend zertifizierten Anbieter oft Voraussetzung.
Colocation oder Cloud – oder beides?
Die Diskussion um den „richtigen“ Infrastrukturansatz wird oft zu stark polarisiert: Entweder Cloud oder Colocation, entweder maximale Flexibilität oder maximale Kontrolle. In der Praxis zeigt sich jedoch ein differenzierteres Bild. Unternehmen sind nicht mehr gezwungen, sich auf eine einzige Betriebsform festzulegen – vielmehr können sie je nach Anforderung verschiedene Modelle kombinieren. Dabei kommt es vor allem auf eine präzise Bewertung der Workloads und der strategischen Ziele an.
Unterschiede in Verantwortung, Kontrolle und Betriebsmodell
Der wohl größte Unterschied zwischen Colocation und Cloud liegt in der Verantwortlichkeit. Bei Colocation liegt die Hardware im Besitz des Kunden, ebenso die Verantwortung für Betriebssysteme, Software und Sicherheit auf Systemebene. Der Anbieter stellt lediglich die physische Umgebung – Strom, Kühlung, Konnektivität und physische Sicherheit.
In der Cloud hingegen werden Ressourcen vollständig vom Anbieter betrieben und verwaltet. Nutzer konsumieren Rechenleistung, Speicher oder Plattformdienste über Self-Service-Portale. Skalierbarkeit, Automatisierung und Geschwindigkeit sind die großen Stärken – jedoch zum Preis von geringerer Transparenz und Kontrolle. Auch Aspekte wie Vendor-Lock-in, Datenresidenz und Lizenzmodelle spielen hier eine Rolle.
Klassische Anwendungsfälle im Vergleich
Colocation ist besonders stark bei Workloads, die stabil, performancekritisch und compliance-relevant sind. Dazu zählen unter anderem:
- Legacy-Systeme mit spezifischer Hardware
- Lizenzgebundene Software mit Hardwarebindung (z. B. Oracle, SAP HANA)
- Anwendungen mit hohen IOPS-Anforderungen (z. B. Datenbanken)
- Systeme mit strengen Datenschutz- oder Prüfungsanforderungen
Public-Cloud-Angebote entfalten ihre Stärken vor allem dort, wo Elastizität, internationale Skalierung oder Time-to-Market im Vordergrund stehen:
- Entwicklungs- und Testumgebungen
- Webapplikationen mit Lastspitzen
- Microservices-Architekturen mit DevOps-Betrieb
- KI-/ML-Workloads mit hohem GPU-Bedarf auf Zeit
Hybride Szenarien – und ihre praktische Umsetzung
Die Realität vieler Unternehmen liegt heute zwischen diesen beiden Welten. Colocation bietet den stabilen Kern, auf dem geschäftskritische Systeme mit definierten SLAs laufen. Die Cloud dient als skalierbare Erweiterung, zum Beispiel zur Verarbeitung von Transaktionsdaten, zur Auslagerung von Analysen oder zur Integration moderner Plattformdienste. Verbindende Elemente wie Cloud Connects, SD-WAN oder hybride Backup- und Restore-Strategien schaffen die notwendige technische Integration. Dabei ist die Netzarchitektur ein entscheidender Erfolgsfaktor: Nur mit ausreichender Bandbreite und niedriger Latenz gelingt ein nahtloser Übergang zwischen Colocation und Cloud.
Der Erfolg einer hybriden IT-Strategie hängt maßgeblich davon ab, dass Governance, Monitoring, Sicherheit und Kostenmanagement übergreifend funktionieren. Das bedeutet: Einheitliche Logging- und Überwachungstools, zentrale Zugriffsverwaltung, automatisierte Konfigurationen und klare Policies für Datenhaltung und Performanceverteilung.
Kostenbetrachtung: Was kostet Colocation wirklich?
Die Gesamtkosten hängen stark von individuellen Faktoren ab:
- Anzahl und Größe der benötigten Racks
- Stromverbrauch pro Rack (Abrechnung nach kWh oder als Flatrate)
- Bandbreite und Uplink-Kosten
- Vertragslaufzeit und Zusatzleistungen (z. B. Remote Hands, Monitoring)
Beispielhafte Kostenstruktur (monatlich):
Leistung | Preis (netto) |
1x 47 HE Rack (abschließbar) | 400–800 € |
Strom (2 kW, 100 % Nutzung) | ca. 300–600 € |
1 Gbit/s Uplink | 100–300 € |
Remote Hands 24/7 | ab 50 €/Stunde |
Auf den ersten Blick ist Colocation nicht günstiger als der Betrieb im eigenen Serverraum. Jedoch entfallen Investitionen in Infrastruktur, Kühlung, Energieversorgung und Sicherheitssysteme. Gleichzeitig steigt die Verfügbarkeit und Ausfallsicherheit signifikant – was im Ernstfall millionenschwere Schäden verhindert.
Entscheidungshilfen für IT-Leiter
Um die richtige Entscheidung für oder gegen Colocation zu treffen, sollten IT-Verantwortliche sich systematisch mit folgenden Fragen auseinandersetzen:
1. Wie hoch ist der physische Platzbedarf?
Analysieren Sie, wie viele Höheneinheiten (HE) Ihre aktuelle Hardware belegt – und wie viel Wachstum Sie in den nächsten 12 bis 36 Monaten erwarten. Berücksichtigen Sie dabei auch Sonderhardware wie Firewalls, Tape Libraries oder Appliances, die ggf. zusätzliche Tiefe oder Breite benötigen.
2. Welche Stromdichte pro Rack benötigen meine Systeme?
Die durchschnittliche Leistungsaufnahme pro Rack bestimmt, ob Sie mit Standardlösungen auskommen oder High-Density-Racks (z. B. mit Flüssigkeitskühlung oder aktiver Luftführung) benötigen. Entscheidend ist der Peak-Wert unter Last – besonders bei virtualisierten oder GPU-lastigen Umgebungen.
3. Welche Redundanzen (Strom, Netz, Standort) sind notwendig?
Definieren Sie klar, welches Redundanzniveau Ihr Betrieb verlangt: Reicht ein N+1-System oder benötigen Sie echte 2N-Redundanz? Ist eine zweite Netzanbindung mit anderem Carrier sinnvoll? Kommt ein zweiter RZ-Standort für Georedundanz infrage?
4. Wie hoch ist die geplante Uptime? Gibt es SLAs mit 99,999 % oder höher?
Legen Sie verbindlich fest, welche Verfügbarkeitsziele für Ihre IT-Systeme gelten. Prüfen Sie, ob der Anbieter schriftlich zugesicherte Service Level Agreements (SLAs) für Stromversorgung, Netzwerk, Remote Hands und physischen Zugang vorlegen kann.
5. Wie lassen sich Migration und Betrieb personell abbilden (Onsite/Remote Hands)?
Überlegen Sie, ob Sie eigenes Personal zur Betreuung vor Ort benötigen – oder ob sich der Betrieb vollständig remote steuern lässt. Viele Anbieter bieten Remote-Hands-Services, doch deren Umfang, Reaktionszeit und Kosten sollten im Vorfeld geklärt sein.
6. Welche Zertifizierungen verlangt mein Unternehmen/Regulator?
Branchen mit erhöhten Anforderungen (Finanzen, KRITIS, Gesundheitswesen) müssen oft nachweisen, dass bestimmte Standards eingehalten werden. Verlangen Sie Nachweise wie ISO 27001, ISO 50001, EN 50600, BSI C5, TISAX oder SOC2 – je nach Bedarf.
7. Wie flexibel lässt sich die Umgebung künftig skalieren?
Ein wachsendes Unternehmen benötigt Flexibilität. Klären Sie, wie kurzfristig zusätzliche Racks, höhere Stromkapazitäten oder zusätzliche Netzverbindungen verfügbar sind – und ob vertragliche Einschränkungen Skalierungen verzögern könnten.
8. Wie erfolgt die Abrechnung – transparent und nachvollziehbar?
Verstehen Sie die Preismodelle des Anbieters genau: Wie werden Strom, Traffic, Support, Lagerplatz oder Hands-on-Arbeiten abgerechnet? Gibt es Flat-Rates oder nutzungsabhängige Tarife? Vermeiden Sie Anbieter mit intransparenten Nebenkosten.
9. Gibt es definierte Exit-Strategien oder Optionen zur Rückholung der Systeme?
Der Anbieterwechsel oder die Rückführung in ein eigenes Rechenzentrum muss möglich bleiben. Achten Sie auf klare Vereinbarungen zu Kündigungsfristen, Datenlöschung, physischer Rückgabe und Support im Rückbauprozess.
Fazit: Colocation als Schlüssel zu stabiler, kontrollierter IT-Infrastruktur
Colocation bietet eine pragmatische, aber leistungsfähige Alternative zum Eigenbetrieb – besonders in Zeiten steigender IT-Komplexität und Compliance-Anforderungen. Die Kombination aus Kontrolle über die Hardware, professioneller Betriebsumgebung und Skalierbarkeit macht Colocation zu einem tragfähigen Baustein moderner IT-Strategien.
Wenn du Colocation strategisch einsetzen willst, lohnt sich eine sorgfältige Analyse – aber auch ein realistischer Vergleich zu Cloud-Angeboten und On-Premises-Ansätzen. Wichtig ist: Nicht jedes Szenario passt in jedes Modell. Doch Colocation ist oft die stabilere, sicherere und langfristig wirtschaftlichere Option – gerade bei planbaren, unternehmenskritischen Workloads.