Sechs technologische Trends für das DCIM von morgen

Der Hauptzweck von DCIM-Systemen ist es, die Downtime von Rechenzentren zu vermeiden und deren Energieeffizienz zu erhöhen – beides ist bares Geld wert. Nun sind die Anforderungen an die Überwachung von Datacenter massiv gestiegen. Nehmen wir zum Beispiel die Strom- und Kälteversorgung. Heute verarbeiten deren Überwachungssysteme rund dreimal so viele Daten wie vor zehn Jahren.

Diese sechs Technologietrends bestimmen, wie Rechenzentren künftig mit DCIM überwacht werden:

  1. Integrierte Sensoren

Die Anzahl integrierter Sensoren hat sich in den letzten zehn Jahren verdreifacht.  Es gibt praktisch kein Gerät mehr in der gesamten Strom- und Kälteversorgung, das nicht permanent Status- und Leistungsdaten übermitteln würde. Die Preise der Sensoren sind gesunken, die Qualität der vernetzten Geräte (IoT) ist gestiegen: Sie zeichnen Leistungsdaten viel detaillierter auf, verfügen über mehr Features und übermitteln diese Daten ans DCIM-System. Je mehr Zustandsdaten verfügbar sind, desto höher ist der Nutzen der Daten dank zunehmender Machine Learning-Fähigkeiten.

  1. Cybersicherheit

Im Fokus steht dabei nicht nur das IT-Netzwerk selbst, sondern auch die physische Datacenter-Infrastruktur, die „als Hintertür“ ins IT-Netz missbraucht werden könnte. Mit Vorteil wählt man einen Anbieter mit einem Secure-Development-Lifecycle-Prozess (SDL): Seine Produkte werden gemäss Cybersecure-Methoden codiert, getestet, überprüft und validiert. Punkto Architektur sollte es nur einen einzigen Eintrittspunkt ins System geben.

  1. Cloud Computing

Cloud Computing im DCIM ist ein Gamechanger, ausgelöst durch die rasche Zunahme von Edge Computing und die Anforderungen vieler neuer Echtzeit-Services. DCIM wird also immer mehr zu Datacenter Management as a Service (DMaaS). Eine heterogene physische Infrastruktur über viele Standorte kann via Cloud viel einfacher, effizienter und günstiger überwacht werden. Neue Services wie prädiktive Analytik und maschinelles Lernen basieren auf der Cloud-Plattform und verbessern das Monitoring von Rechenzentren substanziell.

  1. Big-Data-Analysen

Diese High-Level-Analysen verwandeln grosse Datenmengen in wertvolle Information. Ein Beispiel sind Algorithmen, welche die Leistung von USV-Systemen proaktiv überwachen. Die Algorithmen erkennen den optimalen Zeitpunkt für die Wartung. Zudem können die Probleme meist auf Anhieb behoben werden, was ebenfalls Kosten spart.

  1. Mobile Computing

Personelle Ressourcen werden aufgrund des Kostendrucks in Datacentern immer knapper. Datacenter-Manager sind mit Smartphone und App heute stets «vor Ort» im Datacenter, wo auch immer sie sich physisch befinden. Meldet ein Gerät einen veränderten Zustand, «merken» Überwachungssysteme dies sofort und schlagen geeignete Massnahmen vor. So lassen sich die meisten Probleme beheben, bevor Infrastrukturanlagen tatsächlich ausfallen.

  1. Maschinelles Lernen

«Beinahe-Ausfälle» sind dabei besonders wertvoll, das gilt für die Aviatik und den OP im Spital genauso wie für Rechenzentren. Das maschinelle Lernen versteht und dokumentiert, warum Vorfälle aufgetreten sind. Dadurch sinkt das Risiko für erneute Fehler desselben Typs. Besonders wirkungsvoll ist diese Analyse, wenn dabei auch unternehmensübergreifend aggregierte (und anonymisierte) Daten berücksichtigt werden. So kann gefährlichen «Mustern» noch besser vorgebeugt werden.

Der Ausblick zeigt: Rechenzentren werden immer zuverlässiger und effizienter dank digitaler Fernüberwachung (DCIM). Sie hilft, die Vorteile von Big-Data, der Cloud und maschinellem Lernen zu nutzen. Vorausgesetzt, die Überwachungs-Plattformen sind so konzipiert, dass sie die laufend produzierten Daten auch sinnvoll auswerten können.