Das GNZ mit Sitz am Fritz-Haber-Institut in Berlin unterstützt als regionales IT-Kompetenz-Zentrum die IT-Infrastruktur der vierzehn Max-Planck-Einrichtungen in Berlin und Brandenburg. Die Service-Palette reicht von der Administration der WAN- und MAN-Strecken über das Management von LAN und WLAN bis hin zur Umsetzung von Backup-, Virtualisierungs-, Storage- und Cloud-Lösungen. Um einen wirtschaftlichen und effizienten IT-Betrieb sicherzustellen, ist das GNZ bestrebt, die Infrastrukturen der Max-Planck-Einrichtungen so weit wie möglich zu harmonisieren und zu homogenisieren. Ziel ist es, durch den Einsatz einheitlicher Produkte einen zuverlässigen Betrieb sowie ein einfaches Handling zu gewährleisten. „Bei der Betreuung der physikalischen und logischen IT-Infrastrukturen sind wir auf ein jederzeit verlässliches Netzwerk angewiesen. Leistungsfähigkeit, Stabilität und Sicherheit des Netzes sind für unsere Arbeit maßgebend“, erklärt Gerd Schnapka, Leiter des GNZ. „Daher entschieden wir uns, die von uns betreuten Institute auf einheitliche Backbones mit identischen Routing-Systemen zu migrieren.“
Zentrale Backbone-Router für homogene Netzwerke
Controlware unterstützte das GNZ bei diesem innovativen Netzwerkkonzept, bei dem das Backbone-Switchsystem durch einen dedizierten Backbone-Router mit sternförmig angeschlossenen Stack-Systemen abgebildet wird. Als zentrale Backbone-Router kommen leistungsfähige MLX-Router von Brocade zum Einsatz. Die Plattformen sind voll redundant mit Management- und Fabric-Modulen sowie mit vier Stromversorgungen ausgestattet. Die Chassis wurden anforderungsspezifisch mit SFP+- oder Kupfer-Modulen bestückt. An den Backbone-Routern sind sternförmig die Gebäude angeschlossen, je nach Bedarf über LWL-, Kupfer- oder Kupfer-Server-Stacks mit 10G-Links.
Der hochverfügbare Ansatz bietet dem GNZ vier große Vorteile:
- Die Portzahlen lassen sich durch die Nutzung von Stacks sehr flexibel erweitern.
- Die Uplink-Kapazitäten der Stacks zum Backbone-Router sind äußerst flexibel und bieten umfassende Leistungsreserven.
- Die Switches lassen sich innerhalb des Server-Stacks bedarfsgerecht räumlich verteilen.
- Die verwendeten CES- und MLXe-Plattformen sind voll MPLS-fähig und ermöglichen es dem GNZ, für die Institute eine Vielzahl hochwertiger Services bereitzustellen.
Seit der Migration laufen sämtliche Datenpakete und alle Dienste im GNZ-Netz über die neuen Infrastrukturen. Das GNZ stellt über die Backbones unter anderem Cloud-Dienste für die Institute und wissenschaftlichen Mitarbeiter sowie Services in den Bereichen IT-Security, Datenschutz, Backup, First-Level-Support und Administration zur Verfügung. „Die Brocade Router haben unsere Erwartungen in jeder Hinsicht erfüllt. Die Netzwerke laufen absolut stabil, schnell und zuverlässig“, bestätigt Frank Malisius, Netzwerk-Consultant beim GNZ. „Durch die höhere Verfügbarkeit und Ausfallsicherheit sparen die Institute Arbeitszeit und Geld. Hinzu kommt, dass sich unsere IT durch die Vereinheitlichung des Equipments wesentlich einfacher administrieren lässt. So kann jeder Administrator seine Kollegen im Krankheits- oder Urlaubsfall vertreten – das ist in der Praxis eine enorme Arbeitserleichterung.“
Neue Firewalls für mehr Sicherheit
Im Nachlauf der Netzwerk-Harmonisierung implementierte das GNZ mit der Unterstützung durch Controlware in einem Folgeprojekt an Max-Planck-Standorten in Berlin und Potsdam hochverfügbare Check Point Firewall-Cluster. „Unser Ziel bei diesem Projekt bestand darin, die Firewalls für einen optimalen Schutz nahtlos in das Netzwerk zu integrieren, ihre Verwaltung aber in der Hoheit der einzelnen Max-Planck-Institute zu belassen“, erklärt Jörg Dubslaff, Account Manager bei Controlware. „Daher wurde eine mandantenfähige virtualisierte Firewall-Architektur implementiert – mit zwei leistungsfähigen High-End-Firewalls für größere, vernetzte Institute und zwei dedizierten kleineren Systemen für Einzelinstitute.“