Ir a
AI Infrastructure

AI Infrastructure

Infraestructura escalable, de alto rendimiento y rentable para todas las cargas de trabajo de IA.

  • Aceleradores de IA para cada caso práctico, desde entrenamiento de alto rendimiento hasta inferencias de bajo coste

  • Escala más rápidamente con GPUs y TPUs en Google Kubernetes Engine o en Google Compute Engine

  • Soluciones desplegables para Vertex AI, Google Kubernetes Engine y el kit de herramientas de HPC de Cloud

  • Saca el máximo partido a nuestra infraestructura de IA desplegando la arquitectura hiperordenador de IA

Ventajas

Optimiza el rendimiento y el coste a escala

Con Google Cloud, puedes elegir GPUs, TPUs o CPUs para cubrir distintos casos prácticos, como entrenamiento de alto rendimiento, inferencias de bajo coste y procesamiento de datos a gran escala.

Obtén resultados más rápido con una infraestructura gestionada

Escala de forma más rápida y eficiente con la infraestructura gestionada proporcionada por Vertex AI. Permite configurar rápidamente entornos de aprendizaje automático, automatizar la orquestación, gestionar clústeres grandes y configurar aplicaciones de baja latencia.

Desarrolla con software diseñado específicamente para la IA

Mejora la productividad del desarrollo de IA usando GKE para gestionar cargas de trabajo a gran escala. Entrena y sirve los modelos básicos con compatibilidad para el autoescalado, la orquestación de cargas de trabajo y las actualizaciones automáticas. 

Características principales

Características principales

Hardware flexible y escalable para cualquier caso práctico

No hay una solución universal en lo que respecta a las cargas de trabajo de IA. Por eso, junto con nuestros partners de hardware del sector, como NVIDIA, Intel, AMD, Arm y otros, ofrecemos a los clientes la mayor variedad de opciones de computación optimizadas para IA de TPUs,GPUs y CPUs para entrenar y servir los modelos que más datos consumen. 

Fácil de usar, gestionar y escalable

Orquestar cargas de trabajo de IA a gran escala con TPUs y GPUs de Cloud siempre ha requerido un esfuerzo manual para gestionar los fallos, el almacenamiento de registros, la monitorización y otras operaciones básicas. Google Kubernetes Engine (GKE), el servicio de Kubernetes más escalable y totalmente gestionado, simplifica considerablemente el trabajo necesario para operar con TPUs y GPUs. Usar GKE para gestionar la orquestación de cargas de trabajo de IA a gran escala en las TPU de Cloud y la GPU de Cloud mejora la productividad del desarrollo de IA.

Además, para las empresas que prefieran la sencillez de abstraerse de la infraestructura mediante servicios gestionados, ahora Vertex AI permite el entrenamiento con diversos frameworks y bibliotecas que usan las TPUs y las GPUs de Cloud.

Escala tus modelos de IA de forma exponencial

Nuestra infraestructura optimizada con inteligencia artificial está diseñada para ofrecer el rendimiento y la escala mundial que exigen productos de Google como YouTube, Gmail, Google Maps, Google Play y Android, que dan servicio a miles de millones de usuarios. Todas nuestras soluciones de infraestructura de IA se basan en la red de centros de datos de Jupiter de Google Cloud, que admite la mejor capacidad del sector de escalado horizontal para los servicios básicos y las cargas de trabajo de IA de alta intensidad.

Plataforma muy flexible y abierta

Durante décadas, hemos colaborado en proyectos de IA tan importantes como TensorFlow y JAX. Durante décadas, hemos colaborado en proyectos de IA tan importantes como TensorFlow y JAX. Además, Google es el principal colaborador de software libre de CNCF y lleva más de 20 años aportando contribuciones a software libre, como TFX, MLIR, OpenXLA, KubeFlow y Kubernetes, además de patrocinio de proyectos de software libre de gran importancia para la comunidad de la ciencia de los datos, como Project Jupyter y NumFOCverteUS.

Además, nuestros servicios de infraestructura de IA están integrados con los frameworks de IA más populares, como TensorFlow, PyTorch y MXNet, lo que permite a los clientes seguir usando el framework que prefieran y no verse limitados a un framework ni una arquitectura de hardware específicos.

Documentación

Documentación

Google Cloud Basics

Herramientas de AI Infrastructure en GKE

Ejecuta cargas de trabajo de IA y aprendizaje automático optimizadas con las funciones de orquestación de la plataforma Google Kubernetes Engine (GKE).
Google Cloud Basics

Imágenes de máquinas virtuales de aprendizaje profundo

Las imágenes de máquina virtual de aprendizaje profundo están optimizadas para las tareas de ciencia de datos y aprendizaje automático. Las imágenes de máquina virtual de aprendizaje profundo están optimizadas para las tareas de ciencia de datos y aprendizaje automático.
Google Cloud Basics

Contenedores de aprendizaje profundo

Los contenedores de aprendizaje profundo son entornos coherentes y con rendimiento optimizado que permiten crear prototipos e implementar flujos de trabajo rápidamente en CPUs o GPUs.
Tutorial

¿Cómo se optimizan las unidades de procesamiento de tensor para la IA y el aprendizaje automático?

Descubre los requisitos de computación del aprendizaje automático y cómo se han diseñado las TPUs para gestionar esta tarea.
Google Cloud Basics

Arquitectura del sistema de TPU

Las TPUs son circuitos integrados de aprendizaje automático (ASIC) desarrollados a medida por Google que agilizan las cargas de trabajo de aprendizaje automático. Conoce la arquitectura del sistema subyacente de las TPUs desde el principio.

¿No encuentras lo que buscas?

Casos prácticos

Arquitectura de hiperordenador de IA

Caso práctico
Maximiza la relación precio-rendimiento para servir IA a gran escala

Las GPUs v5e de Cloud TPU y NVIDIA L4 permiten obtener inferencias de alto rendimiento y rentables en una amplia gama de cargas de trabajo de IA, incluidos los modelos de LLMs y los modelos de IA generativa más recientes. Ambos ofrecen importantes mejoras en el rendimiento de los precios con respecto a modelos anteriores, y la arquitectura hiperordenador de IA de Google Cloud permite a los clientes escalar sus despliegues a niveles líderes del sector.

Rendimiento hasta 2,7 veces superior de la inferencia de IA por gráfico

Precios

Precios

Los precios de AI Infrastructure dependen del producto que selecciones. Puedes empezar a utilizar AI Infrastructure de Google de forma gratuita con Colab o con el nivel gratuito de Google Cloud.

TPU de Cloud
GPU de Cloud
Para saber cuánto cuestan los tipos de TPUs de dispositivo único y los tipos de pods de TPUs, consulta los precios de las TPU.
Para saber cuánto cuestan los distintos tipos de GPUs que están disponibles en las diversas regiones, consulta los precios de las GPUs.

Los productos de inteligencia artificial de Cloud cumplen las políticas del acuerdo de nivel de servicio. Pueden ofrecer garantías de latencia o disponibilidad diferentes respecto a otros servicios de Google Cloud.

Ve un paso más allá

Empieza a crear en Google Cloud con 300 USD en crédito gratis y más de 20 productos Always Free.

Google Cloud
  • ‪English‬
  • ‪Deutsch‬
  • ‪Español‬
  • ‪Español (Latinoamérica)‬
  • ‪Français‬
  • ‪Indonesia‬
  • ‪Italiano‬
  • ‪Português (Brasil)‬
  • ‪简体中文‬
  • ‪繁體中文‬
  • ‪日本語‬
  • ‪한국어‬
Consola
Google Cloud
  翻译: