Drei Herausforderungen, die der Datacenter-Markt für die breite Einführung von KI lösen muss
Die erste Herausforderung betrifft die Ausstattung des Datacenter mit Messtechnik. Der alte Spruch „Garbage in, Garbage out“ trifft hier mehr denn je zu. Sie wirken zwar wie „Black Boxes“, aber weder ML-Algorithmen noch Deep Neural Networks sind Hexerei. Wie jede Analytics-Engine benötigen sie große Datenmengen als Input. Gut implementierte DCIM-Suites leisten hier einen wichtigen Beitrag. Aber die Ausstattung von Datacentern mit Messtechnik muss teilweise auch von den Systemanbietern übernommen werden. Ist die Hardware in der Lage, die Informationen zu erfassen und bereitzustellen, die für das Funktionieren der Algorithmen erforderlich sind? Als Vorreiter der Branche stattet Schneider Electric seine USVs, Kühlsysteme, PDUs, Schaltanlagen usw. bereits seit langem mit Digital- und Messtechnik aus. Bei der Entwicklung von KI-Einsatzszenarien und von Algorithmen zu deren Unterstützung wird unter Umständen klar, dass wir neue Sensoren an neuen Stellen brauchen. Ein Vibrationssensor an einer anderen Stelle kann gegebenenfalls detailliertere Informationen zum Lebenszyklus eines Systems liefern, die uns heute noch fehlen. Solche Dinge entwickeln sich im Laufe der Zeit.
Die zweite Herausforderung ist, dass diese Daten üblicherweise in verschiedenen Systemen abgelegt sind. Gebäudedaten befinden sich im BMS (Building Management System), Informationen zur Stromqualität im EPMS (Energy & Power Management System), Informationen zur Stellflächen-Infrastruktur in DCIM-Tools (Data Center Infrastructure Management) und IT-Software-Ressourcen oder virtuelle Ressourcen in IT-Betriebsmanagement-Tools. Damit das System alle kritischen Variablen und deren Wechselwirkungen verstehen kann, müssen diese Daten konsolidiert und in das KI-Modell eingebunden werden. Die Konsolidierung aller dieser Daten ist nach wie vor ein nicht vollständig gelöstes Problem. Die neue Systemarchitektur und Plattform EcoStruxure™ von Schneider Electric leistet einen großen Beitrag zur Lösung dieser Herausforderung. Wird keine Konsolidierung durchgeführt, sind KI-Anwendungen in ihrem Funktionsumfang erheblich eingeschränkt, beispielsweise auf die Optimierung von Klimaschränken oder die Früherkennung von Lüfterausfällen in Kühlsystemen. Das sind zwar nützliche, aber gewiss keine weltbewegenden Funktionen.
Die dritte Herausforderung betrifft die Datenintegrität. Alle Daten müssen miteinander in Beziehung gesetzt werden, wozu Kontext erforderlich ist. Das Modell muss wissen, woher die Daten genau kommen. Für einen bestimmten Datensatz von einem bestimmten System muss das Modell beispielsweise Dinge wissen wie: Standort, Raum, Reihe, Rack, Höheneinheit, Stromkreis, Netzwerkanschluss und Policy-Vorgaben. Die Zeiträume müssen in irgendeiner Weise synchronisiert werden. Für DCIM-Tools muss das alles geplant und festgelegt werden, was aber einen großen Aufwand und viele Ressourcen nicht nur im Vorfeld erfordert, sondern auch später für die laufende Pflege, wenn sich im Laufe der Zeit Änderungen ergeben. Es ist zum größten Teil Aufgabe von uns Anbietern, dies alles zu vereinfachen und die Komplexität auszublenden.
Die kommenden KI-Entwicklungen im Datacenter-Markt, die Colocation-Provider beachten müssen
Zu beachten ist, dass diese bestehenden Herausforderungen erst gelöst werden müssen, bevor der Einsatz von KI in Datacentern zum Standard wird und Colocation-Anbieter die Potenziale voll ausschöpfen können. Ein gut implementiertes und gepflegtes DCIM-System ist ein wichtiger erster Schritt für die Colocation-Provider. Ein solches System kann nämlich die erforderlichen Mess- und Kontextdaten für den effektiven Einsatz von KI-Tools liefern. In meinem nächsten Beitrag gehe ich auf unsere Einschätzungen ein, wie KI speziell in Colocation-Datacentern in nächster Zeit genutzt werden wird – und warum die Zuverlässigkeit der KI einen größeren Einfluss auf das Unternehmenswachstum haben wird.