BigQuery

Le connecteur BigQuery vous permet d'effectuer des opérations d'insertion, de suppression, de mise à jour et de lecture des données Google BigQuery.

Avant de commencer

Avant d'utiliser le connecteur BigQuery, effectuez les tâches suivantes :

  • Dans votre projet Google Cloud :
    • Accorder à l'utilisateur le rôle IAM roles/connectors.admin configuration du connecteur.
    • Attribuez les rôles IAM suivants au compte de service que vous souhaitez utiliser pour le connecteur :
      • roles/bigquery.dataEditor

      Un compte de service est un compte Google spécial destiné à représenter un utilisateur non humain qui doit s'authentifier et obtenir les autorisations permettant d'accéder aux données des API Google. Si vous ne possédez pas de compte de service, vous devez en créer un. Pour plus d'informations, consultez la section Créer un compte de service.

    • Activez les services suivants :
      • secretmanager.googleapis.com (API Secret Manager)
      • connectors.googleapis.com (API Connectors)

      Pour savoir comment activer des services, consultez la page Activer des services.

    Si ces services ou autorisations n'ont pas encore été activés pour votre projet, vous êtes invité à les activer lors de la configuration du connecteur.

Configurer le connecteur

Pour configurer le connecteur, vous devez créer une connexion à votre source de données (système backend). Une connexion est spécifique à une source de données. Cela signifie que si vous disposez de nombreuses sources de données, vous devez créer une connexion distincte pour chacune d'elles. Pour créer une connexion, procédez comme suit :

  1. Dans la console Cloud, accédez à la page Integration Connectors > Connections (Connecteurs d'intégration > Connexions), puis sélectionnez ou créez un projet Google Cloud.

    Accéder à la page "Connexions"

  2. Cliquez sur + CRÉER pour ouvrir la page Créer une connexion.
  3. Dans la section Emplacement, choisissez l'emplacement de la connexion.
    1. Région : sélectionnez un emplacement dans la liste déroulante.

      Pour obtenir la liste de toutes les régions disponibles, consultez la page Emplacements.

    2. Cliquez sur NEXT (Suivant).
  4. Dans la section Informations de connexion, procédez comme suit :
    1. Connecteur : sélectionnez BigQuery dans la liste déroulante des connecteurs disponibles.
    2. Version du connecteur : sélectionnez la version du connecteur dans la liste déroulante des versions disponibles.
    3. Dans le champ Nom de connexion, saisissez un nom pour l'instance de connexion.

      Les noms de connexion doivent répondre aux critères suivants :

      • Les noms de connexion peuvent contenir des lettres, des chiffres ou des traits d'union.
      • Les lettres doivent être en minuscules.
      • Les noms de connexion doivent commencer par une lettre et se terminer par une lettre ou un chiffre.
      • Les noms de connexion ne peuvent pas dépasser 63 caractères.
    4. Saisissez éventuellement une Description pour l'instance de connexion.
    5. Compte de service : sélectionnez un compte de service disposant des rôles requis.
    6. Vous pouvez également configurer les paramètres du nœud de connexion :

      • Nombre minimal de nœuds : saisissez le nombre minimal de nœuds de connexion.
      • Nombre maximal de nœuds : saisissez le nombre maximal de nœuds de connexion.

      Un nœud est une unité (ou instance répliquée) de connexion qui traite des transactions. Pour traiter plus de transactions pour une connexion, plus de nœuds sont nécessaires. À l'inverse, moins de nœuds sont nécessaires pour traiter moins de transactions. Pour comprendre comment les nœuds affectent la tarification de votre connecteur, consultez la section Tarifs des nœuds de connexion. Si vous ne saisissez aucune valeur, le nombre minimal de nœuds est défini par défaut sur 2 (pour une meilleure disponibilité) et le nombre maximal sur 50.

    7. ID du projet : saisissez l'ID du projet Google Cloud dans lequel se trouvent les données.
    8. ID de l'ensemble de données : l'ID de l'ensemble de données BigQuery.
    9. Utiliser un proxy : cochez cette case pour configurer un serveur proxy pour la connexion, et spécifiez les valeurs suivantes :
      • Schéma d'authentification du proxy : sélectionnez le type d'authentification pour l'authentification auprès du serveur proxy. Les types d'authentification suivants sont compatibles :
        • Basique : authentification HTTP de base.
        • Condensé : authentification HTTP par condensé.
      • Utilisateur du proxy : nom d'utilisateur à utiliser pour l'authentification auprès du serveur proxy.
      • Mot de passe du proxy : secret Secret Manager du mot de passe de l'utilisateur.
      • Type SSL du proxy : type SSL à utiliser lors de la connexion au serveur proxy. Les types d'authentification suivants sont compatibles :
        • Auto : paramètre par défaut. Dans le cas d'une URL HTTPS, l'option "Tunnel" est utilisée. Dans le cas d'une URL HTTP, l'option "JAMAIS" est utilisée.
        • Toujours : la connexion SSL est toujours activée.
        • Jamais : la connexion n'est pas activée pour SSL.
        • Tunnel : la connexion s'effectue via un proxy de tunnelisation. Le serveur proxy ouvre une connexion à l'hôte distant et le trafic transite par le proxy.
      • Dans la section Serveur proxy, saisissez les détails du serveur proxy.
        1. Cliquez sur + Ajouter une destination.
        2. Sélectionnez un type de destination.
          • Adresse de l'hôte : spécifiez le nom d'hôte ou l'adresse IP de la destination.

            Si vous souhaitez établir une connexion privée à votre système backend, procédez comme suit :

    10. Vous pouvez également cliquer sur + AJOUTER UN LIBELLÉ pour ajouter un libellé à la connexion sous la forme d'une paire clé/valeur.
    11. Cliquez sur NEXT (Suivant).
  5. Dans la section Authentification, saisissez les informations d'authentification.
    1. La connexion BigQuery ne nécessite aucune authentification.
    2. Cliquez sur NEXT (Suivant).
  6. Vérifiez vos informations de connexion et d'authentification.
  7. Cliquez sur Créer.

Entités, opérations et actions

Tous les connecteurs Integration Connectors fournissent une couche d'abstraction pour les objets de l'application connectée. Vous ne pouvez accéder aux objets d'une application que via cette abstraction. L'abstraction vous est présentée en tant qu'entités, opérations et actions.

  • Entité : une entité peut être considérée comme un objet ou un ensemble de propriétés dans l'application ou le service connecté. La définition d'une entité diffère d'un connecteur à l'autre. Par exemple, dans un connecteur de base de données, les tables sont les entités, dans un connecteur de serveur de fichiers, les dossiers sont les entités et, dans un connecteur de système de messagerie, les files d'attente sont les entités.

    Toutefois, il est possible qu'un connecteur ne soit pas compatible ou ne possède aucune entité. Dans ce cas, la liste Entities est vide.

  • Opération : une opération est l'activité que vous pouvez effectuer sur une entité. Vous pouvez effectuer l'une des opérations suivantes sur une entité :

    La sélection d'une entité dans la liste disponible génère une liste d'opérations disponibles pour l'entité. Pour obtenir une description détaillée des opérations, consultez les opérations d'entité de la tâche de connecteur. Toutefois, si un connecteur n'accepte aucune des opérations d'entité, ne sont pas répertoriées dans la liste Operations.

  • Action : une action est une fonction de première classe mise à la disposition de l'intégration via l'interface du connecteur. Une action vous permet de modifier une ou plusieurs entités, et varie d'un connecteur à l'autre. Normalement, une action comporte des paramètres d'entrée et une sortie . Toutefois, il est possible qu'un connecteur ne prenne en charge aucune action, auquel cas la liste Actions est vide.

Limites du système

Le connecteur BigQuery peut traiter jusqu'à huit transactions par seconde, par nœud, et ne limite aucune les transactions au-delà de cette limite. Par défaut, Integration Connectors alloue deux nœuds (pour une meilleure disponibilité) à une connexion.

Pour en savoir plus sur les limites applicables à Integration Connectors, consultez Limites.

Types de données acceptés

Les types de données compatibles avec ce connecteur sont les suivants:

  • BIGINT
  • BINARY
  • BIT
  • VALEUR BOOLÉENNE
  • CHAR
  • DATE
  • DÉCIMAL
  • DOUBLE
  • FLOAT
  • INTEGER
  • VARCHAR LONGN
  • VARCHAR LONG
  • NCHAR
  • NUMERIC
  • NVARCHAR
  • REAL
  • PETITE ENTRÉE
  • TIME
  • TIMESTAMP
  • TINY INT
  • VARBINARY
  • VARCHAR

Problèmes connus

Le connecteur BigQuery n'accepte pas la clé primaire d'une table BigQuery. Cela signifie que vous ne pouvez pas exécuter les opérations d'obtention, de mise à jour et de suppression d'une entité à l'aide d'un entityId. Vous pouvez également utiliser la clause de filtre pour filtrer les enregistrements en fonction d'un ID.

Actions

Cette section décrit les actions disponibles dans le connecteur BigQuery.

Action "CancelJob" (Annuler la tâche)

Cette action vous permet d'annuler un job BigQuery en cours d'exécution.

Le tableau suivant décrit les paramètres d'entrée de l'action CancelJob.

Nom du paramètre Type de données Description
JobId Chaîne ID de la tâche que vous souhaitez annuler. Ce champ est obligatoire.
Région Chaîne Région dans laquelle le job est en cours d'exécution. Cette étape n'est pas obligatoire si le poste est situé dans une région des États-Unis ou de l'UE.

Action GetJob

Cette action vous permet de récupérer les informations de configuration et l'état d'exécution d'un job existant.

Le tableau suivant décrit les paramètres d'entrée de l'action GetJob.

Nom du paramètre Type de données Description
JobId Chaîne ID de la tâche pour laquelle vous souhaitez récupérer la configuration. Ce champ est obligatoire.
Région Chaîne Région dans laquelle le job est en cours d'exécution. Cette étape n'est pas obligatoire si le poste est situé dans une région des États-Unis ou de l'UE.

Action InsertJob

Cette action vous permet d'insérer un job BigQuery, qui peut ensuite être sélectionné ultérieurement pour récupérer les résultats de la requête.

Le tableau suivant décrit les paramètres d'entrée de l'action InsertJob.

Nom du paramètre Type de données Description
Requête Chaîne Requête à envoyer à BigQuery. Ce champ est obligatoire.
IsDML Chaîne Doit être défini sur true si la requête est une instruction LMD ou sur false sinon. La valeur par défaut est false.
DestinationTable Chaîne Table de destination de la requête, au format DestProjectId:DestDatasetId.DestTable.
WriteDisposition Chaîne Spécifie comment écrire des données dans la table de destination. telles que tronquer les résultats existants, ajouter des résultats existants ou écrire uniquement lorsque la table est vide. Vous trouverez ci-dessous les :
  • WRITE_TRUNCATE
  • WRITE_APPEND
  • WRITE_EMPTY
La valeur par défaut est WRITE_TRUNCATE.
DryRun Chaîne Indique si l'exécution du job est une simulation.
MaximumBytesBilled Chaîne Spécifie le nombre maximal d'octets pouvant être traités par le job. BigQuery annule job si celui-ci tente de traiter plus d'octets que la valeur spécifiée.
Région Chaîne Spécifie la région dans laquelle la tâche doit être exécutée.

Action InsertLoadJob

Cette action vous permet d'insérer un job de chargement BigQuery qui ajoute des données de Google Cloud Storage à une table existante.

Le tableau suivant décrit les paramètres d'entrée de l'action InsertLoadJob.

Nom du paramètre Type de données Description
SourceURIs Chaîne Liste d'URI Google Cloud Storage séparés par un espace.
SourceFormat Chaîne Format source des fichiers. Voici les valeurs acceptées:
  • AVRO
  • NEWLINE_DELIMITED_JSON
  • DATASTORE_BACKUP
  • PARQUET
  • ORC
  • CSV
DestinationTable Chaîne Table de destination de la requête, au format DestProjectId.DestDatasetId.DestTable.
DestinationTableProperties Chaîne Objet JSON spécifiant le nom descriptif du tableau, la description et la liste des étiquettes.
DestinationTableSchema Chaîne Liste JSON spécifiant les champs utilisés pour créer la table.
DestinationEncryptionConfiguration Chaîne Objet JSON spécifiant les paramètres de chiffrement KMS de la table.
SchemaUpdateOptions Chaîne Liste JSON spécifiant les options à appliquer lors de la mise à jour du schéma de la table de destination.
TimePartitioning Chaîne Objet JSON spécifiant le champ et le type de partitionnement temporel.
RangePartitioning Chaîne Objet JSON spécifiant le champ de partitionnement de la plage et les buckets.
Clustering Chaîne Objet JSON spécifiant les champs à utiliser pour le clustering.
Détection automatique Chaîne Indique si les options et le schéma doivent être déterminés automatiquement pour les fichiers JSON et CSV.
CreateDisposition Chaîne Indique si la table de destination doit être créée si elle n'existe pas déjà. Suivies sont les valeurs acceptées:
  • CREATE_IF_NEEDED
  • CREATE_NEVER
La valeur par défaut est CREATE_IF_NEEDED.
WriteDisposition Chaîne Spécifie comment écrire des données dans la table de destination, par exemple : tronque les résultats existants, ajouter des résultats existants ou n'écrire que lorsque la table est vide. Voici les valeurs acceptées:
  • WRITE_TRUNCATE
  • WRITE_APPEND
  • WRITE_EMPTY
La valeur par défaut est WRITE_APPEND.
Région Chaîne Spécifie la région dans laquelle la tâche doit être exécutée. Les ressources Google Cloud Storage et l'ensemble de données BigQuery doivent se trouver dans la même région.
DryRun Chaîne Indique si l'exécution du job est une simulation. La valeur par défaut est false.
MaximumBadRecords Chaîne Spécifie le nombre d'enregistrements pouvant être non valides avant l'annulation de l'intégralité de la tâche. Par défaut, tous les enregistrements doivent être valides. La valeur par défaut est 0.
IgnoreUnknownValues Chaîne Indique si les champs inconnus doivent être ignorés dans le fichier d'entrée ou les traiter comme des erreurs. Par défaut, elles sont traitées comme des erreurs. La valeur par défaut est false.
AvroUseLogicalTypes Chaîne Indique si les types logiques AVRO doivent être utilisés pour convertir les données AVRO en types BigQuery. La valeur par défaut la valeur est true.
CSVSkipLeadingRows Chaîne Spécifie le nombre de lignes à ignorer au début des fichiers CSV. Il est généralement utilisé pour ignorer les lignes d'en-tête.
CSVEncoding Chaîne Type d'encodage des fichiers CSV. Voici les valeurs acceptées:
  • ISO-8859-1
  • UTF-8
La valeur par défaut est UTF-8.
CSVNullMarker Chaîne Si elle est fournie, cette chaîne est utilisée pour les valeurs NULL dans les fichiers CSV. Par défaut, les fichiers CSV ne peut pas utiliser NULL.
CSVFieldDelimiter Chaîne Caractère utilisé pour séparer les colonnes dans les fichiers CSV. La valeur par défaut est une virgule (,).
CSVQuote Chaîne Caractère utilisé pour les champs entre guillemets dans les fichiers CSV. Peut être vide pour désactiver les devis. La la valeur par défaut est des guillemets doubles (").
CSVAllowQuotedNewlines Chaîne Indique si les fichiers CSV peuvent contenir des sauts de ligne dans des champs entre guillemets. La valeur par défaut est false.
CSVAllowJaggedRows Chaîne Indique si les fichiers CSV peuvent contenir des champs manquants. La valeur par défaut est false.
DSBackupProjectionFields Chaîne Liste JSON de champs à charger à partir d'une sauvegarde Cloud Datastore.
ParquetOptions Chaîne Objet JSON spécifiant les options d'importation spécifiques à Parquet.
DecimalTargetTypes Chaîne Liste JSON indiquant l'ordre de préférence appliqué aux types numériques.
HivePartitioningOptions Chaîne Objet JSON spécifiant les options de partitionnement côté source.

Exécuter une requête SQL personnalisée

Pour créer une requête enregistrée, procédez comme suit :

  1. Suivez les instructions détaillées pour ajouter une tâche de connecteurs.
  2. Lorsque vous configurez la tâche de connecteur, sélectionnez Actions dans le type d'action à effectuer.
  3. Dans la liste Action, sélectionnez Exécuter une requête personnalisée, puis cliquez sur OK.

    image montrant une requête execute-custom-query-action image montrant une requête execute-custom-query-action

  4. Développez la section Entrée de la tâche, puis procédez comme suit :
    1. Dans le champ Délai d'inactivité après, saisissez le nombre de secondes d'attente jusqu'à l'exécution de la requête.

      Valeur par défaut : 180 secondes.

    2. Dans le champ Nombre maximal de lignes, saisissez le nombre maximal de lignes à renvoyer à partir de la base de données.

      Valeur par défaut : 25

    3. Pour mettre à jour la requête personnalisée, cliquez sur Modifier le script personnalisé. La boîte de dialogue Éditeur de script s'affiche.

      image montrant une requête custom-sql-query image montrant une requête custom-sql-query

    4. Dans la boîte de dialogue Éditeur de script, saisissez la requête SQL, puis cliquez sur Enregistrer.

      Vous pouvez utiliser un point d'interrogation (?) dans une instruction SQL pour représenter un seul paramètre devant être spécifié dans la liste des paramètres de requête. Par exemple, la requête SQL suivante sélectionne toutes les lignes de la table Employees correspondant aux valeurs spécifiées pour la colonne LastName :

      SELECT * FROM Employees where LastName=?

    5. Si vous avez utilisé des points d'interrogation dans votre requête SQL, vous devez ajouter le paramètre en cliquant sur + Ajouter un nom de paramètre pour chaque point d'interrogation. Lors de l'exécution de l'intégration, ces paramètres remplacent les points d'interrogation (?) de la requête SQL de manière séquentielle. Par exemple, si vous avez ajouté trois points d'interrogation (?), vous devez ajouter trois paramètres dans l'ordre.

      image montrant un ajout add-query-param image montrant un ajout add-query-param

      Pour ajouter des paramètres de requête, procédez comme suit :

      1. Dans la liste Type, sélectionnez le type de données du paramètre.
      2. Dans le champ Valeur, saisissez la valeur du paramètre.
      3. Pour ajouter plusieurs paramètres, cliquez sur + Ajouter un paramètre de requête.

Utiliser Terraform pour créer des connexions

Vous pouvez utiliser l'outil Terraform ressource pour créer une connexion.

Pour savoir comment appliquer ou supprimer une configuration Terraform, consultez la page Commandes Terraform de base.

Pour afficher un exemple de modèle Terraform pour la création de connexions, consultez cet exemple de modèle.

Lorsque vous créez cette connexion à l'aide de Terraform, vous devez définir les variables suivantes dans votre fichier de configuration Terraform:

Nom du paramètre Type de données Requis Description
project_id STRING Vrai ID du projet contenant l'ensemble de données BigQuery. Ex. : myproject.
dataset_id STRING Faux ID de l'ensemble de données BigQuery sans le nom du projet. Ex. : Ensemble de données
proxy_enabled VALEUR BOOLÉENNE Faux Cochez cette case pour configurer un serveur proxy pour la connexion.
proxy_auth_scheme ENUM Faux Type d'authentification à utiliser pour s'authentifier auprès du proxy ProxyServer. Valeurs acceptées: BASIC, DIGEST, NONE
proxy_user STRING Faux Nom d'utilisateur permettant de s'authentifier auprès du proxy ProxyServer.
proxy_password SECRET Faux Mot de passe à utiliser pour l'authentification auprès du proxy ProxyServer.
proxy_ssltype ENUM Faux Type SSL à utiliser lors de la connexion au proxy ProxyServer. Les valeurs acceptées sont: AUTO, ALWAYS, NEVER et TUNNEL.

Utiliser la connexion BigQuery dans une intégration

Une fois la connexion créée, elle devient disponible à la fois Apigee Integration et Application Integration. Vous pouvez utiliser la connexion lors d'une intégration via la tâche "Connecteurs".

  • Pour comprendre comment créer et utiliser la tâche "Connecteurs" dans Apigee Integration, consultez la section Tâche Connecteurs.
  • Pour découvrir comment créer et utiliser la tâche Connecteurs dans Application Integration, consultez la section Tâche Connecteurs.

Obtenir de l'aide auprès de la communauté Google Cloud

Vous pouvez publier vos questions et discuter de ce connecteur sur les forums Cloud de la communauté Google Cloud.

Étape suivante