Stellen Sie Ihre Container auf Autopilot und führen Sie Ihre Unternehmensarbeitslasten sicher und ohne Kubernetes-Kenntnisse aus.
Sie erhalten einen zonalen oder Autopilot-Cluster pro Monat kostenlos. Neukunden erhalten ein Guthaben von 300 $, um GKE und andere Google Cloud-Produkte auszuprobieren.
Features
Im Hinblick auf noch größere Modelle führen wir Unterstützung für Cluster mit 65.000 Knoten ein. Um hochmoderne KI-Modelle zu entwickeln, müssen Teams Computing-Ressourcen für verschiedene Arbeitslasten bereitstellen können. Dazu gehören nicht nur das Modelltraining, sondern auch Bereitstellung, Inferenz, Durchführung von Ad-hoc-Recherchen und die Verwaltung von Hilfsaufgaben. Die Rechenleistung in möglichst wenigen Clustern zu zentralisieren, bietet die Flexibilität, sich schnell an Änderungen der Nachfrage bei Inferenz-, Forschungs- und Trainingsarbeitslasten anzupassen.
Die GKE-Inferenzfunktionen mit generativer KI-sensitiver Skalierung und Load-Balancing-Techniken bieten eine differenzierte Leistung für Generative-KI-Anwendungen. Diese Funktionen tragen dazu bei, die Bereitstellungskosten um mehr als 30%, die Tail-Latenz um 60 % und den Durchsatz um bis zu 40% zu senken – im Vergleich zu anderen verwalteten und Open-Source-Kubernetes-Angeboten.
Mit der neuen GKE Enterprise-Premium-Version profitieren Plattformteams von höherer Geschwindigkeit, da sie mehrere Cluster von einem Ort aus konfigurieren und beobachten und so Konfigurationen für Teams anstelle von Clustern definieren können. Außerdem gibt es Self-Service-Optionen für Entwickler zum Bereitstellen und Verwalten von Anwendungen. Durch erweiterte Sicherheitsfunktionen und GitOps-basierte Konfigurationsverwaltung können Sie Risiken reduzieren. Mit einer vollständig integrierten und verwalteten Lösung senken Sie die Gesamtbetriebskosten und erzielen in drei Jahren einen ROI von bis zu 196 %.
Die GKE-Standardversion bietet eine vollständig automatisierte Verwaltung des Clusterlebenszyklus, Pod- und Cluster-Autoscaling, Kostentransparenz und automatisierte Optimierung der Infrastrukturkosten. Sie umfasst alle vorhandenen Vorteile von GKE und bietet sowohl den Autopilot- als auch den Standardbetriebsmodus. Die neue GKE Enterprise-Premiumversion bietet alle oben genannten Vorteile sowie Verwaltung, Governance, Sicherheit und Konfiguration für mehrere Teams und Cluster – alles in einer einheitlichen Console mit integriertem Service Mesh.
GKE Autopilot ist ein automatischer Betriebsmodus, mit dem die dem Cluster zugrunde liegenden Rechenressourcen verwaltet werden, ohne dass Sie diese konfigurieren oder überwachen müssen. Gleichzeitig wird eine vollständige Kubernetes-Lösung bereitgestellt. Und mit der Abrechnung pro Pod wird sichergestellt, dass Sie nur für die ausgeführten Pods zahlen und nicht für Systemkomponenten, den Aufwand des Betriebssystems oder nicht zugewiesene Kapazitäten. So lassen sich durch operative Effizienz und effektive Ressourcennutzung bis zu 85 % an Kosten einsparen. Sowohl der Autopilot- als auch der Standardbetriebsmodus sind im Rahmen der GKE Enterprise-Version verfügbar.
Die GKE-Bedrohungserkennung basiert auf Security Command Center (SCC) und zeigt Bedrohungen, die Ihre GKE-Cluster betreffen, nahezu in Echtzeit durch kontinuierliches Monitoring von GKE-Audit-Logs.
Die GKE-Compliance bietet optimierte Echtzeitinformationen, automatisierte Berichte und die Freiheit, mit Google Cloud auf sichere Weise Innovationen voranzutreiben.
GKE implementiert die vollständige Kubernetes API, das Vier-Wege-Autoscaling, Release-Versionen und Multi-Cluster-Unterstützung. Horizontales Pod-Autoscaling kann auf der CPU-Auslastung oder benutzerdefinierten Messwerten basieren. Cluster-Autoscaling funktioniert auf Pro-Knotenpool-Basis. Vertikales Pod-Autoscaling analysiert kontinuierlich die CPU- und Speichernutzung der Pods und passt CPU- und Arbeitsspeicheranfragen automatisch an.
Nutzen Sie Kubernetes und Cloud-Technologie im eigenen Rechenzentrum mit Google Distributed Cloud. GKE bietet schnelle, verwaltete und einfache Installationen sowie Google-geprüfte Upgrades.
Sie können einen IP-Adressbereich für Ihren Cluster reservieren, damit Ihre Cluster-IP-Adressen mit den privaten Netzwerk-IP-Adressen über Google Cloud VPN kommunizieren.
Funktionsweise
Ein GKE-Cluster besteht aus einer Steuerungsebene und Maschinen, die als Knoten bezeichnet werden. Auf den Knoten werden die Dienste für die Container ausgeführt, die die Arbeitslast ausmachen. Die Systemsteuerung entscheidet, was auf diesen Knoten ausgeführt wird, einschließlich Planung und Skalierung. Im Autopilot-Modus wird Ihnen die Verwaltung abgenommen. Sie stellen einfach Ihre Anwendungen bereit und führen sie aus.
Gängige Einsatzmöglichkeiten
Mit Flotten können Sie die Verwaltung von Multi-Cluster-Bereitstellungen vereinfachen und beispielsweise die Produktions- von der Nicht-Produktionsumgebung trennen oder Dienste auf verschiedene Ebenen, Standorte oder Teams aufteilen. Flotten ermöglichen es Ihnen, Kubernetes-Cluster zu gruppieren und zu normalisieren. Damit können Sie die Infrastruktur leichter verwalten und Best Practices von Google besser umsetzen.
Mit Flotten können Sie die Verwaltung von Multi-Cluster-Bereitstellungen vereinfachen und beispielsweise die Produktions- von der Nicht-Produktionsumgebung trennen oder Dienste auf verschiedene Ebenen, Standorte oder Teams aufteilen. Flotten ermöglichen es Ihnen, Kubernetes-Cluster zu gruppieren und zu normalisieren. Damit können Sie die Infrastruktur leichter verwalten und Best Practices von Google besser umsetzen.
Eine robuste KI-/ML-Plattform berücksichtigt die folgenden Ebenen: (i) Infrastrukturorchestrierung, die GPUs zum Trainieren und Bereitstellen von Arbeitslasten in großem Maßstab unterstützt, (ii) Flexible Einbindung in verteiltes Computing und Datenverarbeitungs-Frameworks und (iii) Unterstützung für mehrere Teams in derselben Infrastruktur, um die Ressourcennutzung zu maximieren.
Eine robuste KI-/ML-Plattform berücksichtigt die folgenden Ebenen: (i) Infrastrukturorchestrierung, die GPUs zum Trainieren und Bereitstellen von Arbeitslasten in großem Maßstab unterstützt, (ii) Flexible Einbindung in verteiltes Computing und Datenverarbeitungs-Frameworks und (iii) Unterstützung für mehrere Teams in derselben Infrastruktur, um die Ressourcennutzung zu maximieren.
Erstellen Sie eine containerisierte Webanwendung, testen Sie sie lokal und stellen Sie sie dann in einem GKE-Cluster bereit – alles direkt über den Cloud Shell-Editor. Am Ende dieser kurzen Anleitung werden Sie in der Lage sein, eine Kubernetes-Anwendung zu erstellen, zu bearbeiten und zu debuggen.
Erstellen Sie eine containerisierte Webanwendung, testen Sie sie lokal und stellen Sie sie dann in einem GKE-Cluster bereit – alles direkt über den Cloud Shell-Editor. Am Ende dieser kurzen Anleitung werden Sie in der Lage sein, eine Kubernetes-Anwendung zu erstellen, zu bearbeiten und zu debuggen.
Preise
GKE-Preisgestaltung | Nachdem das Guthaben aufgebraucht wurde, basieren die Gesamtkosten auf der Version, dem Clusterbetriebsmodus, den Clusterverwaltungsgebühren und anwendbaren Gebühren für eingehende Datenübermittlungen. | |
---|---|---|
Dienst | Beschreibung | Preis ($) |
Kostenlose Stufe | Die kostenlose GKE-Stufe umfasst ein monatliches Guthaben von 74,40 $ pro Rechnungskonto, das auf zonale und Autopilot-Cluster angewendet wird. | Kostenlos |
Kubernetes | Enterprise Edition Bietet Features der Standardversion sowie Multi-Team-, Multi-Cluster- und Self-Service-Vorgänge, erweiterte Sicherheit, Service Mesh, Konfiguration und eine einheitliche Konsolenumgebung. | 0,0083 $ pro vCPU und Stunde |
Standard Edition Bietet eine vollständig automatisierte Verwaltung des Clusterlebenszyklus, Pod- und Cluster-Autoscaling, Kostentransparenz und automatisierte Optimierung der Infrastrukturkosten. | 0,10 $ pro Cluster und Stunde | |
Compute | Autopilot-Modus: CPU-, Arbeitsspeicher- und Rechenressourcen, die für Ihre Pods bereitgestellt werden. Standardmodus: Jede Instanz wird gemäß den Compute Engine-Preisen in Rechnung gestellt. | Siehe Compute Engine-Preise |
Mehr zu den Preisen von GKE: Vollständige Preisinformationen
GKE-Preisgestaltung
Nachdem das Guthaben aufgebraucht wurde, basieren die Gesamtkosten auf der Version, dem Clusterbetriebsmodus, den Clusterverwaltungsgebühren und anwendbaren Gebühren für eingehende Datenübermittlungen.
Die kostenlose GKE-Stufe umfasst ein monatliches Guthaben von 74,40 $ pro Rechnungskonto, das auf zonale und Autopilot-Cluster angewendet wird.
Kostenlos
Enterprise Edition
Bietet Features der Standardversion sowie Multi-Team-, Multi-Cluster- und Self-Service-Vorgänge, erweiterte Sicherheit, Service Mesh, Konfiguration und eine einheitliche Konsolenumgebung.
0,0083 $
pro vCPU und Stunde
Standard Edition
Bietet eine vollständig automatisierte Verwaltung des Clusterlebenszyklus, Pod- und Cluster-Autoscaling, Kostentransparenz und automatisierte Optimierung der Infrastrukturkosten.
0,10 $
pro Cluster und Stunde
Autopilot-Modus: CPU-, Arbeitsspeicher- und Rechenressourcen, die für Ihre Pods bereitgestellt werden.
Standardmodus: Jede Instanz wird gemäß den Compute Engine-Preisen in Rechnung gestellt.
Siehe Compute Engine-Preise
Mehr zu den Preisen von GKE: Vollständige Preisinformationen
Anwendungsszenario
Moloco: 10-mal schnellere Modelltrainingszeiten mit TPUs in der Google Kubernetes Engine
„Die Skalierung unserer Infrastruktur, als das Anzeigengeschäft von Moloco exponentiell wuchs, war eine enorme Herausforderung. Dank der Autoscaling-Funktionen von GKE konnte sich unser Entwicklungsteam auf die Entwicklung konzentrieren, ohne viel Zeit für den Betrieb aufwenden zu müssen.“ – Sechan Oh, Director of Machine Learning, Moloco
Durch die Kombination der Leistungsfähigkeit von NVIDIA NIM mit der Google Kubernetes Engine konnten wir die durchschnittliche Token-Geschwindigkeit um das 6,1-Fache steigern. Das bedeutet, dass LiveX AI personalisierte Erlebnisse für Kunden in Echtzeit bieten kann, einschließlich nahtlosem Kundensupport, sofortigen Produktempfehlungen und weniger Retouren.
– Jia Li, Mitgründerin, Chief AI Officer, LiveX AI
„Durch die Verwendung von TPUs in GKE, insbesondere des neuen Trillium für Inferenzen, insbesondere für die Bilderzeugung, konnte die Latenz um bis zu 66 % reduziert werden. Das führt zu einer besseren Nutzererfahrung und höheren Conversion-Raten. Nutzer erhalten Antworten in weniger als 10 Sekunden, anstatt bis zu 30 Sekunden warten zu müssen. Das ist entscheidend für die Nutzerbindung und das Nutzer-Engagement.“
- Cem Ortabas, Mitgründer, HubX
„Die Preis-Leistungs-Optimierung für generative KI-Inferenz ist für unsere Kunden von entscheidender Bedeutung. Wir freuen uns auf das GKE Inference Gateway mit seinem optimierten Load-Balancing und der Open-Source-Erweiterbarkeit. Die neuen Funktionen des GKE Inference Gateways könnten uns dabei helfen, die Leistung der Inferenzarbeitslasten unserer Kunden weiter zu verbessern.“
– Chaoyu Yang, CEO und Gründer, BentoML
GKE bietet branchenführende Skalierung und kosteneffiziente Inferenz
„Wir haben festgestellt, dass das Container-Image-Streaming in GKE einen erheblichen Einfluss auf die Beschleunigung der Anwendungsstartzeit hat. Image-Streaming hilft uns, die Startzeit für einen Trainingsjob nach der Einreichung um 20 % zu beschleunigen.“
– Juho Kallio, CTO und Mitgründer, IPRally
„Die neue Unterstützung von GKE für größere Cluster bietet die Skalierung, die wir brauchen, um unsere KI-Innovationen zu beschleunigen.“
– James Bradbury, Head of Compute, Anthropic
„Compute Classes haben Shopify bei der Skalierung während unserer anspruchsvollsten Veranstaltungen entscheidend geholfen.“
- Justin Reid, Principal Engineer, Shopify