Server Sizing in virtualisierten Umgebungen

Samstag, 1. März 2014

Die Virtualisierung von Systemen ist in den meisten IT-Umgebungen mitllerweile Standard - an die Flexibilität und Schnelligkeit im Umgang mit fachlichen Anforderungen gewöhnt sich der IT-Administrator doch sehr schnell. So geht es in vielen Fällen heute eher um die Erneuerung von virtuellen Farmen als um die Neuimplementierung.

Um so erstaunlicher, dass nach unserer Beobachtung teils noch erhebliche Unsicherheiten bei der Auswahl sinnvoller Host-Konfigurationen bestehen und auch teilweise schwer nachvollziehbare Parameter vorgesehen werden.

Dabei bringt gerade eine bereits existierende virtualisierte Umgebung durchaus hilfreiche Informationen mit, wie denn eine optimale Konfiguration aussehen sollte - insbesondere unter dem Aspekt endlicher Budgetmittel sollte ja zielgerichtet investiert werden.

Deshalb beschreiben wir hier einige interessante Aspekte, die uns aufgefallen sind und die wir als hilfreiche Denkanstöße sehen:

1. Prozessorleistung

Sehr oft wird die nötige Prozessorleistung überschätzt; der Ansatz von Konsolidierung in virtuellen Umgebungen sollte ja ursprünglich auch gerade der Vermeidung vieler "Idle-Zeiten" in verteilten, isolierten Systemen dienen. Offensichtlich wird darauf aber selten geachtet. Gerade auch weil Softwarelizenzierungen heute oft von der CPU-, Sockel- oder Core- Ausstattung der Hosts abhängt, lohnt es sich hier, genauer hinuzsehen.

Empfehlung: schauen Sie sich die Prozessorauslastung der aktuellen Umgebung an - es wird Sie wahrscheinlich überraschen, was Sie alles nicht benötigen...

2. Arbeitsspeicher

Umgekehrt verhält es sich bei der Ausstattung mit Arbeitsspeicher: ein "zu viel" gibt es hier praktisch nicht. Sehen Sie sich die Speicheranforderungen von aktuellen Server-Anwendungen (wie z.B. Exchange oder SharePoint) an: spätestens seit der Überwindung der 32 Bit-/4GB-Grenze wachsen die Anforderungen noch einmal deutlich. Um es plakativ zu machen: in den von uns selbst eingesetzten Host-Systemen werkelt die zweite CPU heute in der Regel nur noch, weil sonst nicht die volle RAM-Ausstattung adressiert werden kann.

Empfehlung: sollen die Hosts über einen längeren Zeitraum betrieben werden, gehen Sie grosszügig mit der RAM-Ausstattung um.

3. Serversystem

Ein wichtiger Effekt der Virtualisierung ist die Abstraktion von der konkreten Hardware, für die der Hypervisor sorgt. Gut für Sie - weil die Abhängigkeit vom einzelnen Serversystem sinkt. Schlecht für den einzelnen Hersteller, der natürlich austauschbarer wird. Letzteres ist einer der Gründe, warum es eine wachsende Anzahl von proprietären Konzepten gibt: haben Sie sich (z.B.) einmal für ein bestimmtes Blade Center entschieden, führt so schnell kein Weg mehr davon weg. Vordergründig wird dies bei Blade Centern dann gerne mit einer höheren Packungsdichte begründet - dabei sollte die Virtualisierung bei Ihnen doch eigentlich schon zur Reduzierung der physischen Systeme geführt und so allemal genug Ressourcen freigemacht haben.

Empfehlung: prüfen Sie, ob Sie mit einfacheren Konzepten und Produkten nicht genau so gut fahren - und unnötige Komplexitäten vermeiden.

4. Connectivity

Eine typisch deutsche Diskussion: die Storage-Connectivity. Wir kennen Szenarien, in denen ernsthaft darüber diskutiert wird, ob ein einzelnes ("dummes") Disk Shelf besser per 8Gb- als 4Gb-Fibre Channel angebunden werden solle. Rechnen Sie mal nach, wie sinnvoll so eine Diskussion ist - das Shelf kann nicht einmal eine 1 Gb iSCSI-Verbindung auslasten.

Empfehlung: prüfen Sie den tatsächlichen Bedarf. Und vermeiden Sie unnötige Komplexitäten - ein Ethernet-Switch ist im Zweifel leichter ersetzt als ein - deutlich teureres - Fibre Channel Produkt.

 

Natürlich bedarf es im individuellen Projekt jeweils der Überprüfung dieser Aspekte und es mag durchaus belastbare Gründe für ein abweichendes Vorgehen geben. Aber nach unserer Erfahrung ist das aktuell eher die Ausnahme als die Regel.