Grünes IT-Kraftwerk für den Uni-Campus

Die Universität Siegen vermeidet mit dem Cisco Data Center künftig mehrere tausend Tonnen CO2 im Jahr. Und das ist längst nicht der einzige Vorteil der neuen Technik.

Grünes IT-Kraftwerk für den Uni-Campus
Der Paul-Bonatz-Campus der Uni Siegen – grün ist hier nicht nur die neue IT. © Universität Siegen.

Mit ihrem New Data Center (NDC) verwirklicht die Universität Siegen eine konsequent auf Nachhaltigkeit ausgerichtete IT-Strategie. Die IT-Architektur für das NDC entstand in enger Kooperation mit Cisco, wobei bestmögliche Ressourcenauslastung, hohe Energieeffizienz sowie flexible Betriebsführung im Vordergrund standen. Digitale Dienste sind heute um ein Vielfaches schneller und kostengünstiger verfügbar als früher. Die hochskalierbare Computing- und Netzwerkarchitektur dient zudem als Plattform  für die campusweite Re-Zentralisierung von IT-Systemen: Je breiter das NDC-Servicespektrum in Zukunft wird, desto mehr dezentrale Server können endgültig vom Netz gehen.

Die Umwandlung der Gesamthochschule Siegen in eine Universität führte 2003 zu einer grundlegenden Neuorientierung. Wichtigste Ziele waren ein offenes, interdisziplinäres Forschungsklima sowie verbesserte Studienbedingungen und höhere Verwaltungseffizienz. Die Neuprofilierung löste einen massiven Strukturwandel aus, der sich bis heute fortsetzt.

Kooperativer Lernprozess

Die ersten Jahre der Siegener Universität fielen in eine Zeit, in der die weltweite Digitalisierung in nahezu alle Lebens- und Arbeitsbereiche vordrang und dabei insbesondere das Lernen und Lehren grundlegend verändert hat. „Unsere IT-Strategie fokussiert auf eine nachhaltige Infrastruktur, mit der wir die permanent wachsenden technologischen Anforderungen auf ebenso wirtschaftliche wie umweltverträgliche Weise erfüllen können“, sagt Professor Roland Wismüller, CIO der Universität Siegen.

Ihren wohl deutlichsten Ausdruck findet diese Strategie im New Data Center (NDC), das Ende vorigen Jahres seinen Betrieb aufnahm und organisatorisch zum Zentrum für Informations- und Medientechnologie (ZIMT) zugeordnet ist. Die hochintegrierte Server-, Speicher- und Netzwerkplattform im Inneren des NDC entstand in enger Zusammenarbeit mit Cisco. „Wir suchen gezielt die Partnerschaft zu innovativen Universitäten und Hochschulen in aller Welt“, kommentiert Stefan Decker, Account Manager Forschung und Lehre bei Cisco. „Uns geht es hauptsächlich darum, gemeinsam tragfähige Lösungen zu schaffen, die einerseits die individuellen Anforderungen des jeweiligen Kunden optimal erfüllen, andererseits aber auch Modellcharakter aufweisen und somit für andere Bildungseinrichtungen leicht adaptierbar sind. Partnerschaften wie die NDC-Kooperation mit der Universität Siegen bilden für uns einen wichtigen Lernprozess, von dem auch andere Hochschulrechenzentren profitieren.“

Grünes IT-Kraftwerk für den Uni-Campus
Längst begeben sich Studenten und Dozenten nicht mehr nur vom festinstallierten PC aus an die Arbeit. © Universität Siegen

Rechnerraum am Leistungslimit

Bernd Schade, Abteilungsleiter für Betriebstechnik der Universität Siegen, schildert, warum ein RZ-Neubau auf dem Siegener Campus unumgänglich war: „Der frühere ZIMT-Serverraum war in jeder Hinsicht an seine Limits gestoßen. Die fast 30 Jahre alte Klimaanlage war nicht redundant ausgelegt und bot folglich keinen Ausfallschutz. Die ebenfalls nicht ausfallsichere Energieversorgung war bis zum Anschlag ausgelastet; sie verhinderte damit Kapazitätserweiterungen. Nicht zuletzt entsprach der 1974 in Betrieb genommene Rechnerraum so gut wie keinem aktuellen Standard in Bezug auf Sicherheit und Brandschutz, und mögliche bauliche Erweiterungen waren ausgeschöpft.“

Eine externe Risiko- und Schwachstellenanalyse auf der Basis aktueller Standards und von der Universität Siegen vorgegebene Rahmenbedingungen lieferten 2007 eine detaillierte Übersicht über die Vor- und Nachteile einer möglichen Sanierung mit und ohne räumliche Erweiterung im Vergleich zu einem Neubau. Das Rektoratsvotum lautete eindeutig zugunsten der letztgenannten Option. 2008 erging dann ein entsprechender Auftrag an den zuständigen Bau- und Liegenschaftsbetrieb des Landes NRW.

Energieeffizienz hat viele Gesichter 

Das neue NDC-Gebäude und sein komplettes Innenleben sind von Grund auf energieeffizient konzipiert. Den Strom für das Gebäude und all seine Versorgungssysteme liefert ein gasbetriebenes Blockheizkraftwerk (BHKW), das anstelle eines einfachen Notstromgenerators eingebaut wurde. Ein ausgefeiltes System zur Kraft-Wärme-Kälte-Kopplung sorgt für eine optimale Nutzung der  Leistung des BHKW. So wird die Abwärme des BHKW im Sommer zur Kühlung der Rechner über eine Absorberkühlmaschine sichergestellt. Im Winter wird, wenn nötig, mit der Außenluft gekühlt, und die Abwärme des BHKW unterstützt die Beheizung des gesamten Campus. Bei Ausfall dieser Systeme kann eine Kompressorkühlmaschine aushelfen. 

Mit der der Nutzung von Abwärme zur Energiegewinnung ist das Thema energieeffiziente IT aber noch nicht beendet:  „Mindestens ebenso wichtig ist eine optimale Ausnutzung von IT-Ressourcen durch Virtualisierung. Nur so ist gewährleistet, dass Prozessoren und/oder Plattensysteme nicht unnötig Strom verbrauchen und außerdem energieintensiv gekühlt werden müssen“, erläutert Lothar Hofmann von der Arbeitsgruppe Netzwerk und Kommunikation. Außerdem käme es auf eine perfekte Integration zwischen Servern, Speichersystemen und Netzwerk an, um die Zahl von Kabeln und Adaptern im Rechenzentrum so weit wie möglich zu reduzieren. Seinen Worten zufolge liefert Integration der verschiedenen Infrastrukturebenen plus Virtualisierung nicht nur die Formel für maximale Energieeffizienz, sondern ebenso für einfaches Management und hohe Serviceflexibilität. Allein durch den Umstieg von physischen auf virtuelle Server sparen  Rechenzentren im öffentlichen Sektor auf fünf Jahre gerechnet durchschnittlich 85 Prozent bei Strom- und Kühlungskosten ein. Die Serverkosten insgesamt sinken um 62 Prozent, und der Return on Investment ist nach dreizehn Monaten erreicht.

Vereinheitlichung über unterschiedliche IT-Ebenen hinweg

Bei der Planung der IT-Ausstattung für das NDC nutzte die Arbeitsgruppe Netzwerk und Kommunikation auch das technologische Know-how der Axians NK Networks & Services GmbH. Das bundesweit präsente Systemhaus vertritt in Deutschland die IT-Marke Axians und ist seit Jahren Cisco-Partner. Stephan Breuer vom Axians-Standort in Köln skizziert die wichtigsten Anforderungen an die NDC-Plattform: „Die Universität wollte eine hochskalierbare Architektur, die nicht nur alle IT-Services für Forschung und Lehre aus dem bisherigen Serverraum übernimmt, sondern perspektivisch auch sämtliche Anwendungen bereitstellt, die heute noch auf dezentral betriebenen Servern in diversen Forschungsbereichen laufen. Dass dies nur per Virtualisierung auf wirtschaftlich vernünftige Weise möglich ist, war von Anfang an klar. Weniger klar hingegen war, wie man gleichzeitig auch ein einfaches und das heißt infrastrukturweit einheitliches IT-Management erreichen kann.“

Die Antwort auf diese Frage fand sich im Cisco Unified Computing System, kurz UCS. Dazu nochmals Stephan Breuer: „Cisco UCS ist eine extrem skalierbare und speziell für virtuelle Umgebungen optimierte Data-Center-Lösung. Sie bündelt leistungsfähige Bladeserver plus Speicher- und Netzwerkanbindung zu einem hochkompakten Komplettsystem. Eben dies macht den Weg frei für ein durchgängiges Management über die verschiedenen Infrastrukturebenen hinweg.“ Verglichen mit aktuellen Blade-Architekturen der Konkurrenz bringt Cisco UCS 60 Prozent mehr Server pro Rack-Unit unter. Der Platzbedarf ist um 37 Prozent geringer, der Kostenvorteil liegt bei 33 Prozent. Anders als in einer konventionellen Bladeserver-Umgebung ist Cisco UCS nicht über separate Leitungspfade an das Netzwerk und die Speicherlandschaft angeschlossen. Stattdessen verschafft sich auch hier die Vereinheitlichungsdevise Geltung – und zwar durch das Integrationsprotokoll Fibre-Channel-over-Ethernet (FCoE). „Sowohl Cisco UCS als auch unsere neuen Data-Center-Switches Cisco Nexus 7000 unterstützen FCoE“, sagt Lothar Hofmann. „Wir benötigen daher keine separaten Fibre-Channel-Adapter mehr und konnten überdies einen Großteil der sonst erforderlichen Verkabelung sparen.“

1 2
Share.

About Author