Am 12. Mai 2025 kam es bei ECSO CLOUD zu einem erheblichen Netzwerkausfall, von dem unser primärer Rechenzentrumsstandort in Köln betroffen war. Die Störung wurde durch externe Bauarbeiten verursacht, die zu einer vollständigen Unterbrechung unseres primären Glasfaser-Backbones führten. Obwohl Redundanzprotokolle vorhanden waren, verzögerte eine extreme Auslastung der sekundären Routen die vollständige Wiederherstellung. Dieser Bericht beschreibt den zeitlichen Ablauf, die technischen Herausforderungen sowie die Maßnahmen, die zur Wiederherstellung der Dienste ergriffen wurden.
Der Vorfall
Um 19:08 Uhr MEZ meldeten unsere Überwachungssysteme dem Network Operations Center (NOC) einen vollständigen Verbindungsverlust am Standort Köln. Als Ursache wurde schnell eine physische Beschädigung unserer primären Glasfaserleitung mit einer Kapazität von 100 TB identifiziert. Der Schaden entstand während Ausbauarbeiten der Deutschen Bahn in der Nähe unserer Infrastruktur.
Ablauf der Ereignisse
12. Mai, 19:08 Uhr Erster Netzwerkausfall in Köln.
12. Mai, 19:11 Uhr: Benachrichtigungen an Kunden versendet – Notfallteams
eingesetzt.
12. Mai, 19:15 Uhr: Automatische Umschaltung auf Backup-Leitungen in Chicago und Tokio
eingeleitet.
12. Mai, 20:33 Uhr: Manuelle Umleitung über sekundäre Backup-Leitung abgeschlossen; Dienste
wurden wieder online gestellt.
13. Mai, 12:34 Uhr: Physische Reparaturen an der primären Glasfaserleitung abgeschlossen und getestet.
Technische Analyse & Reaktion
Unter normalen Betriebsbedingungen ist unser globales Mesh-Netzwerk so ausgelegt, dass der Datenverkehr über unsere internationalen Knotenpunkte in Chicago und Tokio umgeleitet wird. In diesem speziellen Zeitraum kam es jedoch zu einem beispiellosen Anstieg der Auslastung dieser Backup-Routen, was zu einer Überlastung führte, die es ihnen unmöglich machte, den Datenverkehr aus Köln vollständig aufzunehmen.
Um dies zu beheben, arbeiteten unsere Techniker vor Ort daran, eine zusätzliche lokale Backup-Leitung bereitzustellen und zu konfigurieren. Um 20:33 Uhr war diese Leitung betriebsbereit, sodass sich die Dienste allmählich stabilisieren konnten und für die Mehrheit unserer Nutzer wieder online gingen.
Ausblick
ECSO CLOUD verpflichtet sich zu höchsten Zuverlässigkeitsstandards. Wir überprüfen derzeit die Kapazitäten unserer sekundären Leitungen, um sicherzustellen, dass selbst im Falle eines vollständigen Ausfalls der Primärleitung der regionale Datenverkehr von unseren internationalen Knotenpunkten ohne Leistungseinbußen vollständig aufrechterhalten werden kann. Die physischen Reparaturarbeiten wurden am 13. Mai um 12:34 Uhr abgeschlossen, und alle Systeme laufen derzeit mit 100 % Kapazität.
Wir entschuldigen uns aufrichtig für die Unannehmlichkeiten, die dieser Ausfall verursacht hat, und danken unseren Kunden für ihre Geduld während des Wiederherstellungsprozesses.
Verfasst von
Luke Barwanietz
Chief People & Operations Officer
Möchten Sie mehr erfahren?
Weitere Informationen über uns finden Sie auf unserer Seite „Über uns“.
Mehr über uns