Ihre KI-Workloads in der Cloud: Google veröffentlicht endlich TPU Beta

Video: Google über die Unterstützung von TensorFlow Lite beim Aufbau einer besseren KI für Smartphones Pete Warden, Leiter des TensorFlow Mobile / Embedded-Teams bei Google, über die Bereitstellung von maschinellem Lernen für Telefone und Single-Board-Computer.
Erstellen Sie ein Dia-Deck, einen Pitch oder eine Präsentation? Hier sind die großen Imbissbuden:
  • Google hat seine Cloud TPU-Beschleuniger für maschinelles Lernen in der Beta-Version veröffentlicht, die das Training von Modellen für maschinelles Lernen beschleunigen könnten.
  • Unternehmen, die sich verstärkt auf maschinelles Lernen und KI konzentrieren möchten, sollten die Google Cloud Platform als praktikable Option für ihre Workloads betrachten.

Google hat am Montag seine Tensor Processing Units (TPUs) in der Beta-Version auf der Google Cloud Platform veröffentlicht. Dies bietet Unternehmen eine gute Möglichkeit, ihre Bemühungen um künstliche Intelligenz (KI) und maschinelles Lernen zu verstärken.

Über einen Blog-Beitrag angekündigt, werden die TPUs das Training von Modellen für maschinelles Lernen erheblich beschleunigen und Modelle erstellen, die über Nacht anstatt über Tage oder Wochen trainiert werden können. Google hat vor einigen Jahren erstmals seine Arbeit mit TPUs angekündigt, veröffentlicht diese jedoch erst jetzt für seine Cloud-Kunden.

Die Veröffentlichung der TPUs erhöht die Anzahl der Rechenoptionen, die Unternehmen zur Verfügung stehen, die ernsthaftes maschinelles Lernen und KI-Arbeit in der Cloud durchführen möchten. Im Oktober 2017 stellte Amazon Web Services (AWS) die NVIDIA Tesla V100-GPUs in EC2 unter einer Vielzahl anderer Tools für maschinelles Lernen zur Verfügung, und Microsoft stellte dieselben GPUs Ende 2017 auch für HPC- und AI-Workloads zur Verfügung.

Angesichts der wachsenden Bedeutung von KI und maschinellem Lernen wird die Fähigkeit, die Workloads zu verarbeiten und diese Modelle zu trainieren, zu einem der wichtigsten Cloud-Anbieter. Google hat sich einen Namen als einer der führenden Namen für maschinelles Lernen und Deep Learning gemacht. Die Verfügbarkeit von TPUs sollte eine ernsthafte Überlegung für Cloud-Kunden sein, die nach einem Ort suchen, an dem sie ihre KI- und maschinellen Lern-Workloads ausführen können.

In seinem Blogbeitrag beschreibt Google Cloud-TPUs als "Familie von von Google entwickelten Hardwarebeschleunigern, die optimiert sind, um bestimmte mit TensorFlow programmierte ML-Workloads zu beschleunigen und zu skalieren". Diese Beschleuniger sind seit 2015 die treibende Kraft hinter Teilen von Google-Rechenzentren, wie unsere Schwesterseite ZDNet feststellt, und bieten 180 Teraflops mit Gleitkomma-Leistung auf einem einzigen Board. Bei einer kürzlich durchgeführten Google I / O-Veranstaltung sagte CEO Sundar Pichai, Google habe seine Computerarchitektur überarbeitet, um "AI-first-Rechenzentren" zu bauen.

Anstatt einen Cluster gemeinsam nutzen zu müssen, erhalten Datenwissenschaftler über eine Google Compute Engine-VM Zugriff auf eine an das Netzwerk angeschlossene Cloud-TPU. Sie können diese steuern und an die Anforderungen ihrer Arbeitslast anpassen.

Google Cloud Platform bietet nicht nur TPUs, sondern auch Zugriff auf CPUs wie die Intel Skylake-Serie und GPUs wie die oben genannte NVIDIA Tesla V100. Die Cloud-TPU-Abrechnung wird im Sekundentakt mit einem Satz von 6, 50 USD pro Cloud-TPU und Stunde berechnet.

In einem separaten Beitrag gab Google außerdem bekannt, dass sich GPUs in Kubernetes Engine in der Beta befinden. Diese könnten auch ähnliche Anstrengungen beim maschinellen Lernen und bei der Bildverarbeitung ankurbeln.

Cloud und alles als Service Newsletter

Dies ist Ihre Anlaufstelle für die neuesten Informationen zu AWS, Microsoft Azure, Google Cloud Platform, XaaS, Cloud-Sicherheit und vielem mehr. Montags geliefert

Heute anmelden

© Copyright 2020 | mobilegn.com