Bei der Azure-Bewegung von LinkedIn geht es weniger um Skalierung als vielmehr um die Geschwindigkeit der Innovation

Wie Barracuda Microsoft Azure nutzt, um Kunden Anwendungssicherheit zu bieten Nitzan Miron, Vice President für Anwendungssicherheitsdienste bei Barracuda Networks, erläutert das auf Azure bereitgestellte WAF-as-a-Service-Produktangebot, das auf der Microsoft Ignite 2019 angekündigt wurde

Must-Read Cloud

  • Cloud Computing im Jahr 2020: Vorhersagen zu Sicherheit, KI, Kubernetes, mehr
  • Die wichtigsten Cloud-Fortschritte des Jahrzehnts
  • Top Desktop as a Service (DaaS) -Anbieter: Amazon, Citrix, Microsoft, VMware und mehr
  • Cloud-Computing-Richtlinie (TechRepublic Premium)

LinkedIn ist so in den Betrieb eigener Rechenzentren investiert, dass es eine eigene Version des Open Compute Project (OCP) auf Basis des 19-Zoll-Racks Open19 gestartet hat. Es hat auch erhebliche Mengen an Code zum SONiC-Netzwerkbetriebssystem von Microsoft beigetragen, um die Funktionen zu unterstützen, die es für sein eigenes Rechenzentrumsnetzwerk benötigt. Jetzt ist ein Wechsel zu Azure geplant.

Einige Monate nach der ersten Ankündigung setzte sich TechRepublic mit dem CTO von LinkedIn, Raghu Hiremagalur, zusammen, um zu fragen, warum das Unternehmen auf die Cloud umstellt und welche Fortschritte bisher erzielt wurden. Und nein, sagt er, es liegt nicht daran, dass Microsoft sie besitzt oder unter Druck setzt - es geht um die Möglichkeit, mit neuer Hardware und neuen Diensten zu skalieren, die LinkedIn niemals für sich selbst erstellen könnte.

Echte Hyperskala

Raghu Hiremagalur, CTO at LinkedIn.

" data-credit="Image: LinkedIn" rel="noopener noreferrer nofollow">

Raghu Hiremagalur, CTO bei LinkedIn.

Bild: LinkedIn

Zum einen ging es Open19 zum großen Teil darum, die Kosten für den Betrieb eines Rechenzentrums zu vereinfachen und zu senken. Durch den Wechsel zu Azure müssen jedoch keine neuen Rechenzentren mehr aufgebaut werden.

Microsoft Azure: Ein Insider-Handbuch (kostenloses PDF)

Vor einem Jahrzehnt bestand das Problem von LinkedIn darin, die Website mit zunehmendem Datenverkehr verfügbar zu halten. Mehrere Jahre lang konzentrierte sich LinkedIn darauf, auf Microservices umzusteigen und nur über genügend Kapazitäten zu verfügen, um Mitglieder zu bedienen. Dann begann man darüber nachzudenken, das Netzwerk zu skalieren und eine Aktiv-Aktiv-Rechenzentrumsarchitektur aufzubauen. In den letzten drei Jahren wurde der Versuch unternommen, Rechenzentren so zu erstellen, wie es die Hyperscale-Clouds wie Azure tun. Das Netzwerk wurde geändert, um den Anforderungen der darauf ausgeführten Anwendungen zu entsprechen, anstatt die Anwendungsentwickler zu bitten, mit der verfügbaren Infrastruktur zu arbeiten, Bandbreite und Latenz.

Dies geschah jedoch eher in mittelgroßen Rechenzentren als in den riesigen Rechenzentren der Hyperscale Cloud, und es war wahrscheinlicher, dass das Problem nicht mehr über genügend Speicherplatz als Strom verfügte. LinkedIn verfügt über rund 250.000 Server in fünf Rechenzentren - und diese Zahl wächst jedes Jahr um ein Drittel. Es hat auch 20 Präsenzpunkte und Peers mit 4.000 Netzwerken, aber das ist nicht vergleichbar mit Azure.

"Wir befinden uns in West-USA, Ost-USA, Singapur und Texas. Das sind buchstäblich 57 Regionen", erklärt Hiremagalur. "Die Möglichkeit, auf dem Microsoft-Backbone zu fahren, ist ein sofortiges Plus: Es ist wahrscheinlich eines der besten Netzwerk-Backbones, die es aus privater Backbone-Sicht gibt, und sie verfügen über mehr als 160 Edge-Standorte mit Azure Front Door Mitglieder werden viel besser sein als heute, weil wir ihre Sitzungen in der Nähe ihres Standortes beenden können. "

LinkedIn bietet mehr als nur die Verwendung von Azure-Konnektivität, sagt Hiremagalur: "Unser Plan ist es, alle unsere Workloads - Produktion, Offline-Berechnung, aktuelle Berechnung - auf Azure zu verlagern. Irgendwann in der Zukunft möchten wir keine Rechenzentren mehr betreiben . "

Das liegt nicht daran, dass LinkedIn seine Rechenzentren nicht weiter ausbauen konnte: Zumindest für die nächsten fünf Jahre sieht Hiremagalur keine Probleme bei der Skalierung des Netzwerks, der Kapazität des Rechenzentrums, der Leistung oder der anderen Infrastrukturanforderungen.

LinkedIn wechselt nicht in die Cloud, weil dies erforderlich ist. Es lohnt sich jedoch, eine möglicherweise ziemlich störende Migration komplexer Workloads zu durchlaufen, um die Gelegenheit zu nutzen, die Azure bietet - Agilität.

"Ob es um Elastizität und Kapazität geht oder um die Nutzung von Azure-Investitionen mit ihrer Edge-Infrastruktur mit Azure Front Door oder ihrem Netzwerk-Backbone oder der Arbeit, die sie in benutzerdefiniertem Silizium erledigen, und dem Rechenzentrum und den Netzwerk-Dingen, mit denen sie arbeiten Beschleunigte Netzwerk- und FPGA- und Speicherinnovation ... Das sind alles Dinge, auf die wir im Laufe der Zeit zugreifen möchten ", sagt Hiremagalur. "Und das sind keine Dinge, die wir unabhängig in uns selbst investieren würden - es macht für uns keinen Sinn, selbstständig in diese zu investieren."

LinkedIn wird auch Cloud-KI-Tools wie AzureML einsetzen. "Die Azure-Funktionen mit den Dingen, die sie im KI-Bereich ausführen, sind erstaunlich. Von der GPU-Rechenleistung, über die sie verfügen, würden wir definitiv erheblich profitieren", sagt Hiremagalur.

Mehrjährige Migration

Wenn Sie Teil von Microsoft sind, erhält LinkedIn einen erweiterten Überblick über die Entwicklungen in Azure. Hiremagalur möchte mit einer Migration beginnen, die mehrere Jahre dauern wird, um darauf vorbereitet zu sein. "Angesichts der Zeit, die wir für die Verlagerung unserer Workloads in Azure benötigen, wollten wir den Prozess jetzt starten und bereit sein, all diese Vorteile zu nutzen, wenn all dies für uns bereit ist."

In der Zwischenzeit wird LinkedIn seine eigene Produktentwicklung fortsetzen, sich aber gleichzeitig auf den Umzug vorbereiten - und darüber nachdenken, was es tun kann, wenn es auf Azure ausgeführt wird.

"Im Großen und Ganzen müssen die Schnittstellen, die unsere Infrastrukturbausteine ​​wie die Speicherindizierung für den Rest der technischen Organisation bieten, konstant oder zumindest sehr ähnlich bleiben, sodass unsere Infrastrukturteams die Anpassung unserer Infrastrukturbausteine ​​schwer tun werden." auf der öffentlichen Cloud laufen ", sagt Hiremagalur.

Aber er möchte nicht nur in der Cloud eine Kopie der aktuellen Infrastruktur von LinkedIn erhalten. "Dies ist eine Gelegenheit für uns, Computer und Speicher zu disaggregieren. Wir haben die Möglichkeit, die Elastizität in extremem Maßstab zu nutzen, um mit den täglichen Arbeitslastmustern von LinkedIn zu arbeiten wobei sich die meisten Benutzer während der Arbeitszeit anmelden. Das sind Dinge, die wir wollen auf dem Weg zu Azure zu nutzen. "

LinkedIn verwendet sehr große Grafikdatenbanken. Es gibt eine Menge Kafka (das bei LinkedIn entwickelt wurde und dort bis 2015 über eine Billion Ereignisse pro Tag abwickelte) und die auf Kafka aufbauenden Samza-Stream-Verarbeitungssysteme wie Offline-Computing und maschinelles Lernen. Es ist sehr netzwerkintensiv: Für jedes Datenbyte, das aufgrund von Benutzeraktivitäten in ein LinkedIn-Rechenzentrum gelangt, werden im Rechenzentrum etwa 1.000 Byte Ost-West-Verkehr generiert (Analyse dieser Informationen für das LinkedIn-Diagramm und maschinelle Lernsysteme wie Empfehlungen) Leute, die du vielleicht kennst).

"Wir werden in der Lage sein, diese Aggregation von Netzwerk und Speicher in großem Umfang zu nutzen und Computer und Speicher unabhängig voneinander zu skalieren. Wir sind ein sehr datenintensives System, daher können wir diese beiden Dinge als zwei separate Einheiten verwalten." auch ein großes Plus für uns ", sagt Hiremagalur.

"Je geringer die Latenz des Netzwerks ist, desto mehr können Sie mit dem Durchlaufen von Grafikdatenbanken tun", betont er. "Die Fähigkeit, unser Diagramm auf sehr interessante Weise zu durchlaufen, erfordert natürlich sehr gute, sehr gut strukturierte verteilte Systeme, aber auch Netzwerke, die erstklassig sind. Ich freue mich auf die Fähigkeit, für diese Art von Servern ohne Skalierbarkeit zu arbeiten Workloads und Sie müssen sich überhaupt keine Gedanken darüber machen, wie sich diese Dinge drehen und abwickeln. Diese Dinge sind erstaunliche Kandidaten für serverloses Rechnen. "

Sonderbericht: Vorbereitung auf Serverless Computing (kostenloses PDF)

Dies ist eine architektonische Änderung, die LinkedIn geprüft hätte, ob es nach Azure gezogen ist oder in seinen eigenen Rechenzentren geblieben ist. Der Umzug bedeutet jedoch, dass es Infrastrukturbereiche geben wird, die LinkedIn vollständig an Azure übergeben kann.

"Das Betreiben einer großen Arbeitslast in einer öffentlichen Cloud unterscheidet sich vom Verwalten von Dingen selbst, bei denen wir buchstäblich alles zu 100 Prozent kontrollieren. Daher müssen wir lernen, eine Site mit diesen Änderungen auf sehr stabile Weise zu betreiben", so Hiremagalur sagt.

Anstatt über Hardware- und Servicefehler nachzudenken, müssen Ingenieure Upgrade-Zyklen einplanen, auf die sie keinen Einfluss haben, erklärt Hiremagalur. "Wir müssen lernen, auf Signale zu reagieren, die Azure für uns bereitstellt, und herausfinden, wie Workloads verschoben oder angehalten werden. Die Art und Weise, wie wir die Sicherheit verwalten, wird unterschiedlich sein. Die Ebenen des Stapels, auf die wir 100% Kontrolle haben, werden es tun." Schrumpfen Sie einfach: Wir kontrollieren nicht das Netzwerk, wir kontrollieren nicht die unterschiedlichen Datensätze. Die Art und Weise, wie wir über Infosec denken, muss sich also weiterentwickeln, die Art und Weise, wie wir über Perimetersicherheit denken, muss sich weiterentwickeln. "

Das ist die übliche Geschichte der Cloud-Migration: Sie verschieben eine Anwendung nicht auf einen anderen Server, sondern verschieben das, was Sie benötigen, auf eine andere Art von Abstraktion. Sobald Sie die Arbeit erledigt haben, ist die Belohnung, dass Sie sich auf übergeordnete Probleme konzentrieren können.

"Ich sehe dies darin, dass wir uns auf Bereiche konzentrieren können, in denen wir einen einzigartigen Wert liefern und uns auf unsere Kollegen in Azure stützen, um Dinge zu tun, die sie in extremem Maßstab tun und die sehr, sehr gut funktionieren", sagt Hiremagalur. "Ich stelle mir das als einen Anstieg des Meeresspiegels vor: Die Dinge, die für uns unter Wasser gehen, sind Dinge, für die wir uns nur auf Azure stützen. Der Rest davon sind Dinge, die wir weiterhin tun, und wir können uns eine Tonne mehr darauf konzentrieren."

On-Prem ist der neue Mainframe

Die Open19-Initiative geht nicht weg, sagt Hiremagalur. "Wir haben bereits viel Wert darauf gelegt: Wir haben es in unseren Rechenzentren bereitgestellt, wir haben bereits eine Reihe von Technologien zu OCP beigetragen und wir werden weiterhin mit ihnen zusammenarbeiten."

Abgesehen von riesigen Organisationen wie Facebook, die ihre eigene Cloud betreiben, erwartet Hiremagalur auch, dass immer mehr Unternehmen im Laufe der Zeit für einen Großteil ihrer Workloads auf die öffentliche Cloud umsteigen, da ihre eigenen Entwickler dies verlangen werden.

"Wenn Sie keinen Zugang zu Innovationen haben, die in den nächsten fünf bis zehn Jahren in der öffentlichen Cloud stattfinden, wird Ihr Unternehmen möglicherweise genauso wahrgenommen wie Unternehmen, die auf Mainframes laufen - und kein Unternehmen möchte in dieser Position sein." . "

Cloud und alles als Service Newsletter

Dies ist Ihre Anlaufstelle für die neuesten Informationen zu AWS, Microsoft Azure, Google Cloud Platform, XaaS, Cloud-Sicherheit und vielem mehr. Montags geliefert

Heute anmelden

Siehe auch

  • Multicloud: Ein Spickzettel (TechRepublic)
  • Hybrid Cloud: Ein Leitfaden für IT-Profis (TechRepublic-Download)
  • Top-Cloud-Anbieter 2019: AWS, Microsoft, Azure, Google Cloud; IBM macht einen hybriden Schritt; Salesforce dominiert Saas (ZDNet)
  • Beste Cloud-Services für kleine Unternehmen (CNET)
  • Microsoft Office gegen Google Docs Suite gegen LibreOffice im Jahr 2018 (Download.com)
  • Cloud Computing: Mehr Muss-Abdeckung (TechRepublic on Flipboard)

© Copyright 2020 | mobilegn.com