Können Sie das Maß der seltsamen, virtuellen Welt des Scale-Outs und Scale-Ups von Rechenzentren messen?

Skalieren oder Skalieren von Rechenzentrumsressourcen? Das war die Frage. Aber jetzt könnte sich eine größere Veränderung in der Art und Weise ergeben, wie Serveranbieter das Problem angehen, sagt Clive Longbottom.

Am Anfang war der Computer, und der Computer war ein Mainframe. Es stellte einen Scale-up-Ansatz dar, bei dem Workloads auf einer Reihe hoch definierter Ressourcen ausgeführt wurden. Dann kam der Standard-Server mit hohem Volumen.

Anfänglich wurde eine einzelne Anwendung auf jedem physischen Server mit hohem Volumen ausgeführt, aber zuerst durch Clustering und dann durch Virtualisierung wurde ein Scale-Out-Ansatz erstellt, bei dem der Bedarf an mehr Ressourcen einfach dadurch behoben wird, dass mehr Server, Speicher und Netzwerk auf das Problem geworfen werden.

Bei diesem Ansatz wurde davon ausgegangen, dass Workloads einen Standardsatz von Ressourcen benötigen - und die Mängel des Scale-Outs wurden bei bestimmten Workload-Typen deutlich, bei denen die verfügbaren Ressourcen wie CPU, Netzwerk, Speicher und Eingabe / Ausgabe (E / A) besser angepasst werden mussten ).

Das Zeitalter des reinen Scale-Ups ist vor einiger Zeit vorbei, und der Ansturm auf das reine Scale-Out scheint zu enden. Wie geht es weiter? Foto: Shutterstock

In einer IT-Architektur gibt es einen Platz für beide Ansätze, aber möglicherweise ändert sich die Art und Weise, wie Serveranbieter das Problem angehen, grundlegend.

Beginnen wir mit Cisco. Im Jahr 2009 brachte Cisco seine UCS-Architektur (Unified Computing System) auf den Markt - einen modularisierten Ansatz für Intel-basiertes Computing.

UCS kombiniert Rack-Blades mit erstklassigen Netzwerkkomponenten und Speicher sowie VMware-Virtualisierung, BMC-Systemverwaltung und ein Microsoft Windows-Betriebssystem und zielt auf hochspezifische Windows-basierte Workloads ab.

Mit anderen Worten, UCS war im Wesentlichen eine Scale-up-Architektur - eine Art Mainframe, der aus kostengünstigeren, nicht ganz üblichen Hardware-Bausteinen aufgebaut war.

Dell, HP, IBM, Oracle und SGI haben alle etwas Ähnliches getan, entweder basierend auf modularen Rechenzentrumskomponenten oder container-basierten Systemen. In jedem Fall können ihre Systeme so abgestimmt werden, dass sie bestimmte Merkmale bereitstellen und unterschiedliche Workloads auf unterschiedliche Weise bewältigen - wiederum eher ein Merkmal eines Scale-up-Systems als ein Scale-out-Ansatz für Server mit hohem Volumen.

Server, Speicher- und Netzwerkgeräte werden nach Rack, Row oder Container entwickelt, um eine größere Bandbreite an Workload-Funktionen bereitzustellen, als dies durch die Zusammenstellung einer Sammlung einzelner Ressourcen möglich ist. Durch die Aktivierung von Virtualisierung und privater Cloud-basierter Elastizität werden die Nutzungsraten erhöht und die Energiekosten gesenkt.

Es gibt jedoch eine Synergie zwischen Scale-up und Scale-out. Endbenutzerorganisationen müssen wissen, dass die Verwendung eines modularisierten Kaufansatzes für vorbestückte Racks nicht bedeutet, dass sie nicht kaufen müssen, wenn ihnen eine bestimmte Ressource - CPU, Speicher, Netzwerk oder E / A - ausgeht ein weiteres vollständiges System zur Bereitstellung inkrementeller Ressourcen.

Auch hier kommt die Virtualisierung ins Spiel. Zusätzliche Ressourcen können als eigenständige Komponenten verwendet werden, die vom vorhandenen Hauptsystem über seine Verwaltungssoftware genutzt und bei Bedarf verwendet werden können.

Dieser Ansatz ist eine Notwendigkeit, wenn das neue Scale-up funktionieren soll. Das Versprechen von Servern mit hohem Volumen und Virtualisierung war die wesentliche Kommerzialisierung des Rechenzentrums, da die verschiedenen Komponenten der IT-Plattform individuell kostengünstig sind. Wenn eine Komponente ausfällt, ist der Austausch billig und einfach.

Dieser Ansatz funktioniert gut in einer reinen Scale-Out-Architektur, aber ...

© Copyright 2020 | mobilegn.com