Quote e limiti


Questo documento elenca le quote e i limiti che si applicano Google Kubernetes Engine.

Google Cloud utilizza le quote per contribuire a garantire equità e ridurre dei picchi di utilizzo e disponibilità delle risorse. Una quota limita la quantità di dati Risorsa Google Cloud utilizzabile dal progetto Google Cloud. Quote si applicano a una serie di tipi di risorse, tra cui hardware, software e componenti. Ad esempio, le quote possono limitare il numero di chiamate API a un servizio, il numero di bilanciatori del carico utilizzati contemporaneamente dal tuo progetto o di progetti che puoi creare. Le quote proteggono la community per gli utenti di Google Cloud evitando il sovraccarico dei servizi. Anche le quote sono utili per gestire le tue risorse Google Cloud.

Il sistema Cloud Quotas esegue le seguenti operazioni:

  • Monitora il tuo consumo dei prodotti e dei servizi Google Cloud
  • Limita il tuo consumo di queste risorse
  • Fornisce un mezzo per richiedere modifiche al valore della quota

Nella maggior parte dei casi, quando tenti di consumare una risorsa superiore alla sua quota lo consente, il sistema blocca l'accesso alla risorsa e l'attività che stai tentando di eseguire.

In genere le quote si applicano al progetto Google Cloud livello. L'utilizzo di una risorsa in un progetto non influisce la quota disponibile in un altro progetto. All'interno di un progetto Google Cloud, le quote vengono condivise tra tutte le applicazioni e gli indirizzi IP.

Per aumentare o diminuire la maggior parte delle quote, utilizza la console Google Cloud. Per ulteriori informazioni, consulta Richiedere una quota superiore.

Esistono anche dei limiti per le risorse GKE. Questi non sono correlati al sistema delle quote. I limiti non possono essere modificati se non diversamente specificato.

Limiti per progetto

In un singolo progetto, puoi creare un massimo di 100 cluster di zona per zona, più 100 cluster regionali per regione.

Nota: i cluster creati in modalità Autopilot sono preconfigurati come cluster a livello di regione.

Limiti per cluster

Le tabelle seguenti descrivono i limiti per cluster GKE.

Qualsiasi versione GKE specificata nella tabella seguente si applica a entrambi dai nodi dei cluster e dal piano di controllo.

Limiti Cluster GKE Standard Cluster GKE Autopilot
Nodi per cluster 15.000 nodi

Nota: se prevedi di eseguire più di 2000 nodi, utilizza una cluster regionale.

Nota : l'esecuzione di più di 5000 nodi è disponibile solo per i cluster a livello di regione, private o con Private Service Connect, e con GKE Dataplane V2 disabilitato. Contatta l'assistenza per aumentare questo limite di quota.

5000 nodi

Nota : se prevedi di eseguire più di 1000 nodi, usa GKE Autopilot versione 1.23 o successive.

Nota : l'esecuzione di più di 400 nodi potrebbe richiedere il lifting di un cluster per i cluster creati in versioni precedenti. Contatta l'assistenza per ricevere aiuto.

Nodi per pool di nodi 1000 nodi per zona Non applicabile
Nodi in una zona
  • Nessuna limitazione di nodi per il bilanciamento del carico nativo del container con Ingress basato su NEG, che è consigliato quando possibile. In GKE 1.17 e versioni successive, l'Ingress basato su NEG è la modalità predefinita.
  • 1000 nodi se utilizzi un Ingress basato su gruppi di istanze.
Non applicabile
Pod per nodo1 256 pod

Nota: per le versioni di GKE precedenti alla 1.23.5-gke.1300, il limite è di 110 pod.

Imposta dinamicamente su qualsiasi valore compreso tra 8 e 256. GKE considera le dimensioni del cluster e il numero di carichi di lavoro di eseguire il provisioning del numero massimo di pod per nodo.

  • Per le versioni di GKE precedenti alla 1.28, il limite è di 32 pod.
  • Per i pod della classe Accelerator e i pod della classe Performance, il limite è di un pod per nodo.
Pod per cluster2 200.000 pod1 200.000 pod
Container per cluster 400.000 container 400.000 container
Dimensione del database Etcd 6 GB 6 GB

In qualità di amministratore di piattaforma, ti consigliamo di acquisire familiarità con l'effetto delle quote sui carichi di lavoro di grandi dimensioni eseguiti su GKE. Per ulteriori suggerimenti, best practice, limiti e quote per carichi di lavoro di grandi dimensioni, consulta le linee guida per la creazione di cluster scalabili.

Limite per le richieste API

Il limite di frequenza predefinito per l'API Kubernetes Engine è di 3000 richieste al minuto, applicato a intervalli di ogni 100 secondi.

Quote delle risorse

Per i cluster con meno di 100 nodi, si applica GKE Quota di risorse Kubernetes per ogni spazio dei nomi. Queste quote proteggono il controllo del cluster dall'instabilità causata da potenziali bug nelle applicazioni distribuite in un cluster Kubernetes. Non puoi rimuovere queste quote perché sono applicate da con GKE.

GKE aggiorna automaticamente i valori della quota delle risorse in proporzione il numero di nodi. Per i cluster con più di 100 nodi, la quota di risorse.

Per esaminare le quote delle risorse, utilizza il seguente comando:

kubectl get resourcequota gke-resource-quotas -o yaml

Per visualizzare i valori per un determinato spazio dei nomi, specificalo aggiungendo Opzione --namespace.

Controlla la tua quota

Console

  1. Nella console Google Cloud, vai alla pagina Quote.

    Vai a Quote

  2. La pagina Quote mostra l'elenco delle quote precedentemente filtrate in base alle quote di GKE.
  3. Per cercare la quota esatta, utilizza Filtra tabella. Se non conosci il nome della quota, puoi utilizzare i link presenti nella pagina Quote.

gcloud

  1. Per verificare le quote, esegui questo comando:
    gcloud compute project-info describe --project PROJECT_ID

    Sostituisci PROJECT_ID con l'ID del tuo progetto.

  2. Per verificare la quota utilizzata in un'area geografica, esegui questo comando:
    gcloud compute regions describe example-region

Note

  1. Il numero massimo di pod per cluster GKE Standard include i pod di sistema. Il numero di pod di sistema varia in base alla configurazione del cluster e alle funzionalità abilitate.

  2. Il numero massimo di pod che possono rientrare in un nodo dipende la dimensione delle richieste di risorse pod e la capacità del nodo. Tu potrebbero non raggiungere tutti i limiti nello stesso momento. Come best practice, è consigliabile caricare i test di deployment di grandi dimensioni.