Die Entwicklung des Rechenzentrums: Abstraktionsschichten, STP und TRILL

Die Tage des mehrschichtigen, mehrschichtigen Rechenzentrumsnetzwerks sind gezählt. Da Unternehmen immer weiter in die Implementierung verschiedener Abstraktionstechnologien vordringen, konnten dieselben Organisationen die Gestaltung ihrer Rechenzentren überdenken und auf flache, einfache Netzwerke umsteigen, die sehr unterschiedliche Verkehrsmuster als in der Vergangenheit unterstützen.

Abstraktion

Sie fragen sich vielleicht, was ich unter dem Ausdruck "Abstraktionstechnologien" verstehe. Nun, es gibt einige, die sich alle um verschiedene auf dem Markt verfügbare Virtualisierungstechnologien drehen.

Servervirtualisierung

Der Aufstieg des Hypervisors war die erste Entwicklung, die uns dorthin geführt hat, wo wir heute sind. Rechenzentren sehen heute radikal anders aus als noch vor 10 Jahren. Während ältere Rechenzentren häufig mit einer Vielzahl von Mitarbeitern in der Nähe betrieben wurden, um physische Aufgaben wie das Hinzufügen neuer Hardware, das Bereitstellen neuer Betriebssysteme und das Verkabeln neuer Systeme zu erledigen, werden diese Aufgaben nicht annähernd so oft ausgeführt wie früher. Sicher, Unternehmen müssen immer noch von Zeit zu Zeit neue Hardware bereitstellen, aber aus laufender betrieblicher Sicht hat sich die Servicebereitstellung von einer hardwareintensiven Aufgabe zu einer hauptsächlich softwaregesteuerten Aufgabe entwickelt. Gleichzeitig hat sich der Arbeitsaufwand jedes physischen Servers erhöht, wodurch sich der Umfang der physischen Server verringert, die zum Ausführen von Workloads erforderlich sind.

Diese Workload-Abstraktion hat jedoch zu anderen Herausforderungen bei den zugehörigen Rechenzentrumsressourcen geführt, einschließlich Speicher und Gesamt-E / A.

Speichervirtualisierung

Für viele Unternehmen sind die Zeiten vorbei, in denen einzelne Server Massenspeicher hatten, um die Anforderungen der Anwendungen zu erfüllen. Wir haben eine neue Ära des massiv gemeinsam genutzten Speichers eingeläutet, in der viele verschiedene Speicherebenen zusammenarbeiten, um Workload und Kosten in Einklang zu bringen. Um Ordnung in das Speicherchaos zu bringen, haben wir auch Anstrengungen unternommen, um Speicherverwaltungsaufgaben von der Ebene der einzelnen Arrays auf eine höhere Ebene zu abstrahieren, die gepoolten Speicher aus dem gesamten Unternehmen umfasst. Wenn Sie die Speichervirtualisierung von einer hohen Ebene aus betrachten, sieht sie genauso aus wie die Servervirtualisierung. Die einzelnen Workloads werden von der zugrunde liegenden Hardware abstrahiert, während komplexe Softwaresysteme Entscheidungen darüber treffen, wo eine Workload hingehört.

E / A-Virtualisierung

Wie viele von Ihnen haben eine Menge Kabel, die sorgfältig in Ihren Serverschränken verstaut sind? Möglicherweise verfügen Sie über Kabel, mit denen Sie Ihre Server mit vielen verschiedenen Datennetzen verbinden können, zusätzliche Kabel für die Verbindung mit Speichersystemen - ob iSCSI oder Fibre Channel - und eine Reihe anderer Arten von Verbindungen. Mit dem Aufkommen von erstaunlich schnellen Netzwerkadaptern und Switching-Fabrics, die massive Workloads bewältigen können, entstehen Anbieter, die diese zuvor unterschiedlichen Konnektivitätsmethoden zu einzelnen Kabeln kombinieren können, um Server zu hosten, die den gesamten zur Unterstützung der Workload-Anforderungen erforderlichen Datenverkehr transportieren können dieses Servers. Unternehmen wie Xsigo, die als E / A-Virtualisierung bezeichnet werden, geben an, dass sie die Anzahl der Kabel, Schnittstellenkarten und Switch-Ports, die zur Unterstützung einer komplexen Rechenzentrumsumgebung erforderlich sind, um bis zu 70% reduzieren können.

In Anlehnung an Xsigo wird die Lösung den größten Teil des zur Unterstützung der Serverkommunikationsanforderungen erforderlichen Aufwands auf eine Softwareschicht verlagern, wodurch Administratoren eine beispiellose Granularität und Flexibilität bei der Verwaltung von Rechenzentrumsnetzwerken erhalten. Ich erinnere mich noch genau an einen Job als Systemingenieur vor 12 Jahren, bei dem ich sechs separate Netzwerkkabel zu jedem Server in drei vollständigen Server-Racks verlegen und jedes Kabel mit einem Netzwerk-Switch-Port verbinden musste. Heute konnte ich das gleiche Ziel mit nur einem einzigen Kabel, einer 10-GbE-Verbindung und einem Switch-Port sowie der Möglichkeit erreichen, diese 10-GbE-Verbindung nach Belieben zu schneiden und zu würfeln. Das ist Macht.

Die Ergebnisse

All diese Abstraktionen haben zwar alle möglichen neuen Möglichkeiten für Effizienz und Verfügbarkeit eröffnet, aber auch die Art und Weise, wie der Datenverkehr im Rechenzentrum ausgeführt wird, erheblich verändert. Während der Verkehrsfluss im Allgemeinen innerhalb und außerhalb des Rechenzentrums stattfand, hat der interne Verkehr innerhalb des Rechenzentrums exponentiell zugenommen. Obwohl Anwendungen immer miteinander kommunizieren mussten und von Zeit zu Zeit verschiedene App-Ebenen im Netzwerk chatten mussten, sollten Sie in Betracht ziehen, viele Workloads auf einem einzelnen Host auszuführen und diese laufenden Workloads dann ständig um die Daten zu verschieben Zentrum nach Belieben, Dinge ändern sich.

Einfach ausgedrückt, werden Tools auf eine Weise immer bandbreitenintensiver, die vor einem Jahrzehnt nicht vorhersehbar war.

Spanning Tree-Protokoll

Seit Jahren versuchen Unternehmen, Netzwerkprobleme mithilfe von Protokollen wie dem Spanning Tree Protocol (SPT) zu kontrollieren, was im Allgemeinen gut funktioniert hat, obwohl es auch seine eigenen Herausforderungen mit sich gebracht hat. SPT war robust und fähig.

SPT basiert jedoch eher auf der Blockierung von Verbindungen als auf der Suche nach Möglichkeiten, die verfügbaren Netzwerkressourcen so effizient wie möglich zu nutzen. In Zeiten hoher Bandbreitenanforderungen im Rechenzentrum können solche Brute-Force-Methoden, obwohl sie zur Lösung kritischer Netzwerkprobleme erforderlich sind, zu einer nicht optimalen Leistung führen und sogar die Kosten erhöhen, da der Datenverkehr über möglicherweise teure Verbindungen gezwungen wird.

Abbildung A.

Spanning Tree blockiert einen Port.

Transparente Verbindung vieler Links (TRILL)

Was wäre, wenn Sie, anstatt Links aus Angst vor Schleifen zu blockieren, ständig alle Ihnen zur Verfügung stehenden Netzwerkpfade nutzen könnten? Auf diese Weise würden Sie nicht nur aufgrund einer Schleife perfekt gute Netzwerkpfade erzwingen.

Hier kommt eine aufstrebende Technologie ins Spiel, die als TRILL-Transparente Verbindung vieler Links bekannt ist. Vereinfacht ausgedrückt können Sie mit TRILL jederzeit alle Ihre Netzwerkpfade ohne Angst vor Schleifen verwenden. Spanning Tree in der Umgebung entfällt effektiv.

Durch die Verwendung von TRILL werden alle Pfade zu einem einzigen großen Netz, in dem alle Pfade gültig sind. Durch die Möglichkeit, dass alle Pfade jederzeit verfügbar bleiben, können Unternehmen Workloads mit hoher Bandbreite und geringer Latenz besser unterstützen.

Abbildung B.

TRILL verwendet ständig alle verfügbaren Links.

Es folgt eine Debatte

Wie Sie sich vorstellen können, passt der Gedanke, eine Technologie wegzuwerfen, die seit Jahren eine gute Leistung erbringt, nicht bei allen gut an. In der Netzwerk-Community wird diskutiert, was, wenn überhaupt, getan werden muss, um sich an neue Verkehrsmuster in Rechenzentren anzupassen.

Verteidiger von Spanning Tree geben an, dass es das Protokoll schon lange gibt und Unternehmen vorsichtig sein müssen, bevor sie sich auf das Neue und Glänzende konzentrieren. Protokolle kommen und Protokolle gehen, aber es ist das seltene, das Jahrzehnte dauern kann und den Sprung von den frühesten Tagen des Ethernet bis zu den heutigen modernen 10-GbE-Geschwindigkeitsdämonen schafft.

Auf der anderen Seite der Debatte stehen diejenigen, die das Gefühl haben, dass jedes Protokoll seinen Tag hat und Spanning Tree für etwas Flexibleres und Effizienteres sterben wird.

Wieder andere befürworten eine Kombination aus beiden, indem ein zentrales Kernnetzwerk durch einen TRILL-basierten Mesh-Kern ersetzt und kleinere STP-Domänen an strategischen Standorten zusammengeführt werden, um die Auswirkungen eines Ausfalls zu verringern.

Ebenen reduzieren

Lassen Sie uns abschließend über die Notwendigkeit von drei Netzwerkebenen sprechen. In der Vergangenheit haben wir Netzwerke gesehen, die mit drei Ebenen entworfen wurden:

  • Ader
  • Verteilung
  • Zugriff

Diese drei Ebenen wurden unter Berücksichtigung von Leistung, Sicherheit und Skalierbarkeit entwickelt. Darüber hinaus ermöglichte es den Einsatz von Netzwerktechnologien, die möglicherweise nicht über die Leistung verfügen, um mehrere Ebenen zu einer einzigen Einheit zu kombinieren.

In einem zweistufigen Netzwerk entfällt die Verteilungsschicht, und ihre Dienste werden in den Kern oder in die Zugriffsschichten gerollt. Mit modernen Geräten, die mehr als mithalten können, und mit Anbietern, die Geräte verkaufen, die diese neu konvergierten Ebenen bewältigen können, ist dies eine gängigere Praxis.

Zweischichtige Netzwerke sind einfacher redundant zu machen und ebenso skalierbar wie ihre dreischichtigen Gegenstücke.

Zusammenfassung

Zeitänderungen und die heutigen Rechenzentren passen sich den neuen Realitäten an, mit denen sie konfrontiert sind. Mit sich ändernden Verkehrs- und Nutzungsmustern ergeben sich neue Möglichkeiten, über die Architektur von Rechenzentren nachzudenken.

Was machst du in deiner eigenen Organisation? Reduzieren Sie Netzwerkebenen? Suchen Sie nach Tools wie TRILL, um STP zu ergänzen oder zu ersetzen?

© Copyright 2020 | mobilegn.com