Pon tus contenedores en modo Autopilot y ejecuta de forma segura tus cargas de trabajo empresariales a escala sin necesidad de tener experiencia con Kubernetes.
Consigue un clúster de zona o de Autopilot gratis al mes. Los nuevos clientes reciben 300 USD en crédito gratis para probar GKE y otros productos de Google Cloud.
Mayor velocidad, menor riesgo y un coste total de propiedad más bajo
Posición de seguridad y herramientas de observación integradas
Creemos que,con su compatibilidad con hasta 65.000 nodos, GKE ofrece una escala más de 10 veces mayor que la de los otros dos proveedores de nube pública más grandes.
Características
Como esperamos que se usen modelos aún más grandes,vamos a incluir compatibilidad con clústeres de 65.000 nodos. Para desarrollar modelos de IA vanguardistas, los equipos deben poder asignar recursos de computación a diversas cargas de trabajo. Esto incluye no solo el entrenamiento de modelos, sino también el servicio, la inferencia, la realización de investigaciones ad hoc y la gestión de tareas auxiliares. Al centralizar la potencia de computación en el menor número de clústeres, se consigue la flexibilidad necesaria para adaptarse rápidamente a los cambios en la demanda de las cargas de trabajo de servicio de inferencia, investigación y entrenamiento.
Las funciones de inferencia de GKE con técnicas de escalado y balanceo de carga compatibles con la IA generativa ofrecen un rendimiento diferenciado para las aplicaciones de IA generativa. Estas funciones ayudan a reducir los costes de servicio en más de un 30 %, la latencia de cola en un 60 % y el rendimiento en hasta un 40 % en comparación con otras ofertas de Kubernetes gestionadas y de código abierto.
Con la nueva edición premium GKE Enterprise, los equipos que emplean la plataforma disfrutan de una mayor velocidad, ya que pueden configurar y observar varios clústeres desde un mismo lugar, definir la configuración a nivel de equipo en lugar de a nivel de clúster y ofrecer a los desarrolladores opciones de autoservicio para desplegar y gestionar aplicaciones. Limita los riesgos gracias a una seguridad avanzada y una gestión de configuraciones basada en GitOps. Reduce el coste total de propiedad (CTP) con una solución totalmente integrada y gestionada que puede ofrecer un retorno de inversión del 196 % en tres años.
La edición GKE Standard ofrece una gestión totalmente automatizada del ciclo de vida de los clústeres, autoescalado de pods y clústeres, visibilidad de los costes y optimización automatizada de los costes de infraestructuras. Incluye todas las ventajas de GKE y ofrece los modos de funcionamiento Autopilot y Standard. La nueva edición premium GKE Enterprise ofrece todo lo anterior e incluye también funciones de gestión, gobierno, seguridad y configuración para varios equipos y clústeres, todo ello con una consola unificada y una malla de servicios integrada.
Autopilot de GKE es un modo de funcionamiento sin intervención que te permite gestionar la computación subyacente de tu clúster sin necesidad de configurarla ni monitorizarla, al tiempo que ofrece una experiencia de Kubernetes completa. Además, gracias al sistema de facturación por pods, con Autopilot solo pagas por los pods en ejecución, no por los componentes del sistema, la sobrecarga del sistema operativo ni la capacidad sin asignar, lo que supone un ahorro de hasta el 85 % gracias a la eficiencia operativa y de recursos. Los modos de funcionamiento Autopilot y Standard están disponibles en la edición GKE Enterprise.
La detección de amenazas de GKE utiliza la tecnología de Security Command Center (SCC) y monitoriza continuamente los registros de auditoría de GKE casi en tiempo real para detectar amenazas que afectan a tus clústeres de GKE.
El cumplimiento de GKE proporciona estadísticas optimizadas en tiempo real, informes automatizados y la libertad de innovar de forma segura en Google Cloud.
GKE implementa la API completa de Kubernetes, el autoescalado en cuatro vías, los canales de lanzamiento y la gestión de varios clústeres. El autoescalado de pods horizontal se puede regir por el uso de CPU o por otras métricas personalizadas. El autoescalado de clústeres funciona por grupo de nodos, mientras que el autoescalado de pods vertical analiza continuamente el uso de CPU y de memoria de los pods para ajustar automáticamente y en consecuencia las solicitudes de CPU y de memoria.
Aprovecha las ventajas que ofrecen Kubernetes y la tecnología de la nube en tu centro de datos a través de Google Distributed Cloud. Disfruta de la experiencia de GKE con instalaciones rápidas, gestionadas y sencillas, así como de actualizaciones validadas por Google.
Reserva un intervalo de direcciones IP para tu clúster. De esta forma, las IPs del clúster pueden coexistir con las de redes privadas mediante Google Cloud VPN.
Cómo funciona
Un clúster de GKE consta de un plano de control y máquinas llamadas nodos. Los nodos ejecutan los servicios que respaldan los contenedores que conforman tus cargas de trabajo. A continuación, el plano de control determina qué elementos se ejecutan en esos nodos, incluyendo la programación y el escalado. El modo Autopilot se encarga de gestionar esta dificultad para que tu solo tengas que desplegar y ejecutar tus aplicaciones.
Usos habituales
Usa flotas para simplificar la gestión de los despliegues de varios clústeres. Por ejemplo, puedes separar los entornos de producción de los que no lo son o separar los servicios en distintos niveles, ubicaciones o equipos. Las flotas te permiten agrupar y normalizar clústeres de Kubernetes para que te resulte más fácil gestionar la infraestructura y adoptar las prácticas recomendadas de Google.
Usa flotas para simplificar la gestión de los despliegues de varios clústeres. Por ejemplo, puedes separar los entornos de producción de los que no lo son o separar los servicios en distintos niveles, ubicaciones o equipos. Las flotas te permiten agrupar y normalizar clústeres de Kubernetes para que te resulte más fácil gestionar la infraestructura y adoptar las prácticas recomendadas de Google.
Una plataforma sólida de IA y aprendizaje automático comprende las siguientes capas: (i) orquestación de infraestructuras que admiten GPUs para entrenar y servir cargas de trabajo a escala, (ii) integración flexible con frameworks de computación distribuida y tratamiento de datos, y (iii) asistencia a varios equipos dentro de la misma infraestructura para maximizar el uso de los recursos.
Una plataforma sólida de IA y aprendizaje automático comprende las siguientes capas: (i) orquestación de infraestructuras que admiten GPUs para entrenar y servir cargas de trabajo a escala, (ii) integración flexible con frameworks de computación distribuida y tratamiento de datos, y (iii) asistencia a varios equipos dentro de la misma infraestructura para maximizar el uso de los recursos.
Crea una aplicación web en contenedores, pruébala localmente y a continuación impleméntala en un clúster de Google Kubernetes Engine (GKE) directamente en el editor de Cloud Shell. Al terminar este breve tutorial, sabrás crear, editar y depurar aplicaciones de Kubernetes.
Crea una aplicación web en contenedores, pruébala localmente y a continuación impleméntala en un clúster de Google Kubernetes Engine (GKE) directamente en el editor de Cloud Shell. Al terminar este breve tutorial, sabrás crear, editar y depurar aplicaciones de Kubernetes.
Precios
Cómo funcionan los precios de GKE | Una vez que se ha usado el crédito gratuito, el coste total se basa en la edición, el modo de funcionamiento del clúster, las tarifas de gestión de clústeres y las tarifas de transferencia de datos entrantes correspondientes. | |
---|---|---|
Servicio | Descripción | Precio (USD) |
Nivel gratuito | El nivel gratuito de GKE proporciona 74,40 USD en crédito mensual por cuenta de facturación que se aplican a los clústeres de zona y Autopilot. | Gratis |
Kubernetes | Edición Enterprise Incluye funciones de la edición Standard y operaciones de autoservicio y multiequipo, con varios clústeres, seguridad avanzada, malla de servicios, configuración y una experiencia de consola unificada. | 0,0083 USD Por vCPU y hora |
Edición Estándar Ofrece una gestión totalmente automatizada del ciclo de vida de los clústeres, autoescalado de pods y clústeres, visibilidad de los costes y optimización automatizada de los costes de la infraestructura. | 0,10 USD Por clúster y hora | |
Computación | Modo Autopilot: recursos de CPU, memoria y computación que se aprovisionan para tus pods. Modo Standard: se te factura cada instancia de acuerdo con los precios de Compute Engine. | Consulta los precios de Compute Engine |
Consulta más información sobre los precios de GKE. Ver toda la información sobre los precios
Cómo funcionan los precios de GKE
Una vez que se ha usado el crédito gratuito, el coste total se basa en la edición, el modo de funcionamiento del clúster, las tarifas de gestión de clústeres y las tarifas de transferencia de datos entrantes correspondientes.
El nivel gratuito de GKE proporciona 74,40 USD en crédito mensual por cuenta de facturación que se aplican a los clústeres de zona y Autopilot.
Gratis
Edición Enterprise
Incluye funciones de la edición Standard y operaciones de autoservicio y multiequipo, con varios clústeres, seguridad avanzada, malla de servicios, configuración y una experiencia de consola unificada.
0,0083 USD
Por vCPU y hora
Edición Estándar
Ofrece una gestión totalmente automatizada del ciclo de vida de los clústeres, autoescalado de pods y clústeres, visibilidad de los costes y optimización automatizada de los costes de la infraestructura.
0,10 USD
Por clúster y hora
Modo Autopilot: recursos de CPU, memoria y computación que se aprovisionan para tus pods.
Modo Standard: se te factura cada instancia de acuerdo con los precios de Compute Engine.
Consulta los precios de Compute Engine
Consulta más información sobre los precios de GKE. Ver toda la información sobre los precios
Caso de negocio
Moloco: tiempos de entrenamiento de modelos 10 veces más rápidos con TPUs en Google Kubernetes Engine
"A medida que el negocio de anuncios de Moloco crecía de forma exponencial, escalar nuestra infraestructura se convirtió en un gran reto. Las funciones de autoescalado de GKE permitieron al equipo de ingeniería centrarse en el desarrollo sin tener que dedicar un esfuerzo excesivo a las operaciones". - Sechan Oh, Director de aprendizaje automático de Moloco
Al combinar la potencia de NVIDIA NIM con Google Kubernetes Engine, hemos conseguido multiplicar por 6,1 la velocidad media de los tokens. Esto significa que la IA de LiveX puede ofrecer experiencias personalizadas a los clientes en tiempo real, como asistencia fluida, recomendaciones de productos instantáneas y devoluciones reducidas.
Jia Li, cofundadora y directora de IA de LiveX AI
"El uso de TPUs en GKE, especialmente el nuevo Trillium para la inferencia, especialmente para la generación de imágenes, ha reducido la latencia hasta en un 66 %, lo que ha mejorado la experiencia de usuario y ha aumentado las tasas de conversión. Los usuarios reciben respuestas en menos de 10 segundos en lugar de esperar hasta 30 segundos. Esto es fundamental para fomentar la interacción y la retención de los usuarios".
- Cem Ortabas, cofundador de HubX
"Optimizar la relación precio-rendimiento de la inferencia de IA generativa es fundamental para nuestros clientes. Nos entusiasma ver GKE Inference Gateway con su equilibrio de carga optimizado y su capacidad de ampliación de código abierto. Las nuevas funciones de GKE Inference Gateway nos pueden ayudar a mejorar aún más el rendimiento de las cargas de trabajo de inferencia de nuestros clientes".
- Chaoyu Yang, CEO y fundador de BentoML
GKE ofrece una inferencia rentable y de escalabilidad líder en el sector
"Hemos observado que el streaming de imágenes de contenedores en GKE tiene un efecto significativo en la rapidez con la que se inician nuestras aplicaciones. La transmisión de imágenes nos ayuda a acelerar el tiempo de inicio de una tarea de entrenamiento después de enviarla en un 20 %".
- Juho Kallio, director de tecnología y cofundador de IPRally
"La nueva compatibilidad de GKE con clústeres más grandes nos proporciona la escalabilidad que necesitamos para acelerar el ritmo de nuestra innovación en IA".
- James Bradbury, director de Computación de Anthropic
"Compute Classes ha sido fundamental para que Shopify pueda escalar durante nuestros eventos más exigentes".
- Justin Reid, ingeniero principal de Shopify