Dataproc em pools de nós do GKE

Quando você create ou atualizar em um cluster virtual do Dataproc no GKE, especifique um ou mais pools de nós que que o cluster virtual usará para executar jobs. Esse cluster é chamado de cluster "usado por" ou "associado" com os pools de nós especificados). Se um pool de nós especificado não existe no seu cluster do GKE, o Dataproc no GKE vai criar o pool de nós no cluster do GKE com as configurações que você especificar. Se o pool de nós existir e tiver sido criado pelo Dataproc, ele será validado para confirmar se as configurações correspondem às especificadas.

Configurações do pool de nós do Dataproc no GKE

É possível especificar as seguintes configurações em pools de nós usados pelos clusters virtuais do Dataproc on GKE (esses são um subconjunto Configurações do pool de nós do GKE):

  • accelerators
  • acceleratorCount
  • acceleratorType
  • gpuPartitionSize*
  • localSsdCount
  • machineType
  • minCpuPlatform
  • minNodeCount
  • maxNodeCount
  • preemptible
  • spot*

Observações:

Exclusão do pool de nós

Quando um cluster do Dataproc no GKE é excluído, os pools de nós usados por ele não são excluídos. Consulte Excluir um pool de nós para excluir pools de nós que não estão mais em uso pelo Dataproc em clusters do GKE.

Local do pool de nós

É possível especificar o local da zona de pools de nós associados ao Dataproc no cluster virtual do GKE ao criar ou atualizar o cluster virtual. As zonas do pool de nós precisam ser localizados na região do cluster virtual associado.

Papel para mapeamento do pool de nós

Papéis do pool de nós são definidos para o trabalho do driver e do executor do Spark, com um papel padrão definida para todos os tipos de trabalho por um pool de nós. O Dataproc em clusters do GKE precisa ter pelo menos um pool de nós atribuído ao papel default. A atribuição de outros papéis é opcional.

Recomendação: crie pools de nós separados para cada tipo de função, com o tipo e o tamanho do nó com base nos requisitos da função.

Exemplo de criação de cluster virtual da CLI gcloud:

gcloud dataproc clusters gke create "${DP_CLUSTER}" \
  --region=${REGION} \
  --gke-cluster=${GKE_CLUSTER} \
  --spark-engine-version=latest \
  --staging-bucket=${BUCKET} \
  --pools="name=${DP_POOLNAME},roles=default \
  --setup-workload-identity
  --pools="name=${DP_CTRL_POOLNAME},roles=default,machineType=e2-standard-4" \
  --pools="name=${DP_DRIVER_POOLNAME},min=1,max=3,roles=spark-driver,machineType=n2-standard-4" \
  --pools="name=${DP_EXEC_POOLNAME},min=1,max=10,roles=spark-executor,machineType=n2-standard-8"