Lesedauer: 5 Minuten
Auf dem Innovation Summit, den Schneider Electric kürzlich in Barcelona veranstaltete, konnten Teilnehmer aus erster Hand erfahren, wie zwei Giganten der Datacenter-Branche – Google und der Colocation-Anbieter Equinix – die Herausforderungen bei der Digitalisierung ihrer Datacenter bewältigen. In den Gesprächen wurde deutlich, wie ähnlich die Herausforderungen bei praktisch jedem Colocation-Anbieter oder anderem Datacenter-Betreiber sind.
Ich habe aus der Session drei wichtige Erkenntnisse mitgenommen. Erstens setzen diese Unternehmen stark auf Daten und Algorithmen für maschinelles Lernen (ML), um den Betrieb von Datacentern zu optimieren, z.B. bei der vorausschauenden Wartung. Zweitens ist die Standardisierung in Datacentern von wesentlicher Bedeutung, weil sie tatsächlich eine Voraussetzung für Innovationen ist. Drittens: Die Art und Weise, wie beide Unternehmen mit dem Mangel qualifizierten Mitarbeitern für die Entwicklung von Steuerungssystemen und den Betrieb unternehmenskritischer Datacenter umgehen.
Daten sind der Motor für effiziente, vorausschauende Wartung
Umfang und Komplexität von Datacentern werden weiter zunehmen, daher müssen immer mehr Unternehmen auf digitale Managementlösungen für das Performance-Management umstellen. Joe Kava, Vice President, Global Data Centers bei Google, sprach darüber, dass sein Unternehmen bereits seit geraumer Zeit so gut wie alle Funktionen in seinen Datacentern digitalisiert hat und seit Jahren riesige Datenmengen dazu sammelt. Aber diese Daten wurden kaum genutzt, bis ein Entwickler auf die Idee kam, ein ML-Modell zu entwickeln und es mit den Daten zu trainieren. Die Ziele: Verbesserung der Energieeffizienz und Prognosen von Systemausfällen.
Nur ein paar Jahre später nutzen fast 100 Prozent der Google-Installationen ML zur Optimierung der Kühlsysteme, und zwar im vollständig autonomen Betrieb. (Das erinnert mich an einen Blog-Artikel meines Kollegen John Niemann, der vor einigen Jahren ähnliche Funktionalitäten beschrieben hatte.)
Natürlich verfügen nur wenige Unternehmen über ähnliche Ressourcen wie Google, um ihre eigenen ML-Modelle so zu entwickeln, dass Datacenter autonom laufen können. Aber die Entwicklung in der Branche ist heute so weit fortgeschritten, dass es Tools gibt, die jedes Unternehmen nutzen kann, um diese Funktionalität zu nutzen.
Entscheidend ist, dass diese Tools „offen“ sind, d.h. sie können mit der Infrastruktur jedes beliebigen Anbieters arbeiten. Schneider Electric EcoStruxure for Cloud & Service Providers stellt eine solche Plattform bereit.. Sie bietet die gleiche Art von Datenanalysen, die Google entwickelt hat. Somit erhalten Unternehmen jeder Größe Zugang zu fortschrittlichen Analysen, um die Effizienz und Funktionalität von Datacentern zu optimieren, z.B. durch vorausschauende Analysen.
Standardisierung fördert Innovationen
Beide Unternehmen sind große Verfechter der Standardisierung, weil sie dadurch die Flexibilität erhalten, die ihnen schnelle Kapazitätserweiterungen ermöglicht. Für Equinix, das rund 200 Datacenter auf fünf Kontinenten betreibt, ist die Standardisierung von entscheidender Bedeutung, sagt Diraj Bamola, SVP Global Design and Construction bei dem Unternehmen.
Equinix habe bewusst versucht, zusammen mit Schneider Electric ein strukturiertes Framework für Design und Entwicklung seiner Steuerungssysteme und Energieverteilung zu schaffen, sagt Bamola.
Schneider Electric setzt bereits seit vielen Jahren auf Standardisierung. Das zeigt sich auch in unserer Datacenter-Infrastruktur, die auf vorkonfektionierten Modulen basiert. Damit sind wir in der Lage, den Bau von Datacentern zu beschleunigen und gleichzeitig höchste Zuverlässigkeit und Performance zu gewährleisten..
Aber die Standardisierung ist auch wichtig, weil sie Innovationen vorantreibt – als eine Art Basis, an der Verbesserungen gemessen werden können, erläutert Bamola. Unternehmen wie Google und Equinix müssen innovativ sein, um mit dem schnellen Wachstum Schritt zu halten. Die gute Nachricht ist, dass die Innovationen, die sie – häufig mit unserer Hilfe – entwickeln, schließlich auch im allgemeinen Markt ankommen und dort für alle verfügbar werden.
Ein Beispiel dafür ist das Open Compute Project (OCP). Es begann mit Innovationen, die Facebook entwickelte, um ein Datacenter mit höherer Energieeffizienz und Leistung zu niedrigeren Kosten zu bauen. OCP bietet jetzt Designs für Server, Racks, Netzwerkkomponenten usw. an, die für alle frei verfügbar sind.
Die Standardisierung bietet darüber hinaus Vorteile für die Ausbildung des Betriebspersonals, erläutert Kava. Wenn jeder Standort unterschiedliche Designs und Betriebsabläufe hätte, „wäre das ein großes Durcheinander“ bei der Ausbildung von Fachpersonal für die unternehmenskritischen Installationen, die eine hohe Ausfallsicherheit bieten müssen, sagt er.
Fachkompetenz ist Mangelware
Damit wären wir beim letzten Punkt, dem Mangel an kompetentem Personal für Datacenter.
Auf die Frage, wo er den größten Mangel an qualifiziertem Personal sieht, zeigt Bamola auf die andere Seite des Raums, wo Julien Moreau steht, ein Ingenieur von Schneider Electric. „Julien ist einer der führenden Experten in der Branche, er kennt sich mit Technik und Vertrieb aus“, sagt er. „Das große Problem für uns: Wir alle haben große Projekte, die vollständig von einigen wenigen dieser qualifizierten Fachleute abhängig sind.“
Das hat auch viel mit dem massiven Wachstum in unserer Branche zu tun. Vor 10 Jahren gab es Datacenter mit 5 MW, vor 5 Jahren schon mit 20 MW, doch heute sprechen wir über 100-MW-Datacenter. Die Ausmaße entsprechen eher einer riesigen Produktionsanlage. Die Steuerungen für die erforderliche mechanische, elektrische, Kühlinfrastruktur sind äußerst komplex.
Das sind industrietaugliche Steuerungen, und genau dabei helfen uns Ingenieure wie Julien. Aber Bamola weiß natürlich auch, dass Ingenieure mit diesem Fachwissen selten sind. Selbst Google habe Schwierigkeiten, qualifiziertes Personal für seine Datacenter zu finden, sagt Kava.
Daher ist es umso wichtiger, dass Unternehmen Tools wie EcoStruxure für Cloud & Service Provider einsetzen. Die darin enthaltenen cloud-basierten Analytics-Engines können die Produktivität des Personals steigern, indem sie es bei der Fehlerbehebung und der Vermeidung von Problemen mit Funktionen für die vorausschauende Wartung unterstützen. EcoStruxure for Cloud & Service Providers stellt jedem Unternehmen die Art von Datacenter-Fachwissen zur Verfügung, das auch Google und Equinix nutzen.
Sehen Sie sich die Session von Google und Equinix auf dem Innovation Summit an
Das waren meine drei Erkenntnisse aus der Expertenrunde mit Google und Equinix. Sie können sich aber auch das gesamte Gespräch ansehen, das unter der Leitung von Mark Bidinger, President of Cloud & Service Providers Segment bei Schneider Electric, geführt wurde. Vielleicht können Sie von diesen Giganten in der Datacenter-Branche noch mehr erfahren, was Ihrem eigenen Unternehmen zugutekommen könnte.
Auf dem Innovation Summit, den Schneider Electric kürzlich in Barcelona veranstaltete, konnten Teilnehmer aus erster Hand erfahren, wie zwei Giganten der Datacenter-Branche – Google und der Colocation-Anbieter Equinix – die Herausforderungen bei der Digitalisierung ihrer Datacenter bewältigen. In den Gesprächen wurde deutlich, wie ähnlich die Herausforderungen bei praktisch jedem Colocation-Anbieter oder anderem Datacenter-Betreiber sind.
Ich habe aus der Session drei wichtige Erkenntnisse mitgenommen. Erstens setzen diese Unternehmen stark auf Daten und Algorithmen für maschinelles Lernen (ML), um den Betrieb von Datacentern zu optimieren, z.B. bei der vorausschauenden Wartung. Zweitens ist die Standardisierung in Datacentern von wesentlicher Bedeutung, weil sie tatsächlich eine Voraussetzung für Innovationen ist. Drittens: Die Art und Weise, wie beide Unternehmen mit dem Mangel qualifizierten Mitarbeitern für die Entwicklung von Steuerungssystemen und den Betrieb unternehmenskritischer Datacenter umgehen.
Daten sind der Motor für effiziente, vorausschauende Wartung
Umfang und Komplexität von Datacentern werden weiter zunehmen, daher müssen immer mehr Unternehmen auf digitale Managementlösungen für das Performance-Management umstellen. Joe Kava, Vice President, Global Data Centers bei Google, sprach darüber, dass sein Unternehmen bereits seit geraumer Zeit so gut wie alle Funktionen in seinen Datacentern digitalisiert hat und seit Jahren riesige Datenmengen dazu sammelt. Aber diese Daten wurden kaum genutzt, bis ein Entwickler auf die Idee kam, ein ML-Modell zu entwickeln und es mit den Daten zu trainieren. Die Ziele: Verbesserung der Energieeffizienz und Prognosen von Systemausfällen.
Nur ein paar Jahre später nutzen fast 100 Prozent der Google-Installationen ML zur Optimierung der Kühlsysteme, und zwar im vollständig autonomen Betrieb. (Das erinnert mich an einen Blog-Artikel meines Kollegen John Niemann, der vor einigen Jahren ähnliche Funktionalitäten beschrieben hatte.)
Natürlich verfügen nur wenige Unternehmen über ähnliche Ressourcen wie Google, um ihre eigenen ML-Modelle so zu entwickeln, dass Datacenter autonom laufen können. Aber die Entwicklung in der Branche ist heute so weit fortgeschritten, dass es Tools gibt, die jedes Unternehmen nutzen kann, um diese Funktionalität zu nutzen.
Entscheidend ist, dass diese Tools „offen“ sind, d.h. sie können mit der Infrastruktur jedes beliebigen Anbieters arbeiten. Schneider Electric EcoStruxure for Cloud & Service Providers stellt eine solche Plattform bereit.. Sie bietet die gleiche Art von Datenanalysen, die Google entwickelt hat. Somit erhalten Unternehmen jeder Größe Zugang zu fortschrittlichen Analysen, um die Effizienz und Funktionalität von Datacentern zu optimieren, z.B. durch vorausschauende Analysen.
Standardisierung fördert Innovationen
Beide Unternehmen sind große Verfechter der Standardisierung, weil sie dadurch die Flexibilität erhalten, die ihnen schnelle Kapazitätserweiterungen ermöglicht. Für Equinix, das rund 200 Datacenter auf fünf Kontinenten betreibt, ist die Standardisierung von entscheidender Bedeutung, sagt Diraj Bamola, SVP Global Design and Construction bei dem Unternehmen.
Equinix habe bewusst versucht, zusammen mit Schneider Electric ein strukturiertes Framework für Design und Entwicklung seiner Steuerungssysteme und Energieverteilung zu schaffen, sagt Bamola.
Schneider Electric setzt bereits seit vielen Jahren auf Standardisierung. Das zeigt sich auch in unserer Datacenter-Infrastruktur, die auf vorkonfektionierten Modulen basiert. Damit sind wir in der Lage, den Bau von Datacentern zu beschleunigen und gleichzeitig höchste Zuverlässigkeit und Performance zu gewährleisten..
Aber die Standardisierung ist auch wichtig, weil sie Innovationen vorantreibt – als eine Art Basis, an der Verbesserungen gemessen werden können, erläutert Bamola. Unternehmen wie Google und Equinix müssen innovativ sein, um mit dem schnellen Wachstum Schritt zu halten. Die gute Nachricht ist, dass die Innovationen, die sie – häufig mit unserer Hilfe – entwickeln, schließlich auch im allgemeinen Markt ankommen und dort für alle verfügbar werden.
Ein Beispiel dafür ist das Open Compute Project (OCP). Es begann mit Innovationen, die Facebook entwickelte, um ein Datacenter mit höherer Energieeffizienz und Leistung zu niedrigeren Kosten zu bauen. OCP bietet jetzt Designs für Server, Racks, Netzwerkkomponenten usw. an, die für alle frei verfügbar sind.
Die Standardisierung bietet darüber hinaus Vorteile für die Ausbildung des Betriebspersonals, erläutert Kava. Wenn jeder Standort unterschiedliche Designs und Betriebsabläufe hätte, „wäre das ein großes Durcheinander“ bei der Ausbildung von Fachpersonal für die unternehmenskritischen Installationen, die eine hohe Ausfallsicherheit bieten müssen, sagt er.
Fachkompetenz ist Mangelware
Damit wären wir beim letzten Punkt, dem Mangel an kompetentem Personal für Datacenter.
Auf die Frage, wo er den größten Mangel an qualifiziertem Personal sieht, zeigt Bamola auf die andere Seite des Raums, wo Julien Moreau steht, ein Ingenieur von Schneider Electric. „Julien ist einer der führenden Experten in der Branche, er kennt sich mit Technik und Vertrieb aus“, sagt er. „Das große Problem für uns: Wir alle haben große Projekte, die vollständig von einigen wenigen dieser qualifizierten Fachleute abhängig sind.“
Das hat auch viel mit dem massiven Wachstum in unserer Branche zu tun. Vor 10 Jahren gab es Datacenter mit 5 MW, vor 5 Jahren schon mit 20 MW, doch heute sprechen wir über 100-MW-Datacenter. Die Ausmaße entsprechen eher einer riesigen Produktionsanlage. Die Steuerungen für die erforderliche mechanische, elektrische, Kühlinfrastruktur sind äußerst komplex.
Das sind industrietaugliche Steuerungen, und genau dabei helfen uns Ingenieure wie Julien. Aber Bamola weiß natürlich auch, dass Ingenieure mit diesem Fachwissen selten sind. Selbst Google habe Schwierigkeiten, qualifiziertes Personal für seine Datacenter zu finden, sagt Kava.
Daher ist es umso wichtiger, dass Unternehmen Tools wie EcoStruxure für Cloud & Service Provider einsetzen. Die darin enthaltenen cloud-basierten Analytics-Engines können die Produktivität des Personals steigern, indem sie es bei der Fehlerbehebung und der Vermeidung von Problemen mit Funktionen für die vorausschauende Wartung unterstützen. EcoStruxure for Cloud & Service Providers stellt jedem Unternehmen die Art von Datacenter-Fachwissen zur Verfügung, das auch Google und Equinix nutzen.
Sehen Sie sich die Session von Google und Equinix auf dem Innovation Summit an
Das waren meine drei Erkenntnisse aus der Expertenrunde mit Google und Equinix. Sie können sich aber auch das gesamte Gespräch ansehen, das unter der Leitung von Mark Bidinger, President of Cloud & Service Providers Segment bei Schneider Electric, geführt wurde. Vielleicht können Sie von diesen Giganten in der Datacenter-Branche noch mehr erfahren, was Ihrem eigenen Unternehmen zugutekommen könnte.