Apporta aggiornamenti allo schema

Spanner ti consente di aggiornare lo schema senza tempi di inattività. Puoi aggiornare lo schema di un database esistente in diversi modi:

Aggiornamenti dello schema supportati

Spanner supporta i seguenti aggiornamenti dello schema di un database esistente:

  • Aggiungi o rilascia uno schema denominato.
  • Crea una nuova tabella. Le colonne nelle nuove tabelle possono essere NOT NULL.
  • Eliminare una tabella se non ci sono altre tabelle con interleaving al suo interno e non è presente indici secondari.
  • Crea o elimina una tabella con una chiave esterna.
  • Aggiungi o rimuovi una chiave esterna da una tabella esistente.
  • Aggiungi una colonna non chiave a qualsiasi tabella. Le nuove colonne non chiave non possono essere NOT NULL.
  • Trascina una colonna non chiave da qualsiasi tabella, a meno che non venga utilizzata da un indice secondario, chiave esterna, archiviata generata colonna o verifica il vincolo.
  • Aggiungi NOT NULL a una colonna non chiave, escluse le colonne ARRAY.
  • Rimuovi NOT NULL da una colonna non chiave.
  • Modificare una colonna STRING in una colonna BYTES o una colonna BYTES in una colonna STRING.
  • Modifica una colonna PROTO in una colonna BYTES o una colonna BYTES in una Colonna PROTO.
  • Modifica il tipo di messaggio di protocollo di una colonna PROTO.
  • Aggiungi nuovi valori a una definizione di ENUM e rinomina i valori esistenti utilizzando ALTER PROTO BUNDLE.
  • Modifica i messaggi definiti in un PROTO BUNDLE in modi arbitrari, a condizione che i campi modificati di questi messaggi non vengano utilizzati come chiavi in nessuna tabella e che i dati esistenti soddisfino i nuovi vincoli.
  • Aumenta o riduci il limite di lunghezza per un tipo STRING o BYTES (incluso a MAX), a meno che non è una colonna di chiave primaria ereditata da una o più tabelle figlio.
  • Aumenta o riduci il limite di lunghezza per ARRAY<STRING>, ARRAY<BYTES>, o ARRAY<PROTO> fino al limite massimo consentito.
  • Attiva o disattiva i timestamp di commit in e le colonne di chiave primaria.
  • Aggiungere o rimuovere un indice secondario.
  • Aggiungi o rimuovi una limitazione di controllo da una tabella esistente.
  • Aggiungi o rimuovi da una tabella esistente una colonna generata archiviata.
  • Crea un nuovo pacchetto di statistiche dello strumento di ottimizzazione.
  • Creare e gestire le visualizzazioni.
  • Crea e gestisci le sequenze.
  • Creare ruoli del database e concedere privilegi.
  • Imposta, modifica o elimina il valore predefinito di una colonna.
  • Modifica le opzioni del database (default_leader o version_retention_period ad esempio).
  • Crea e gestisci i flussi di modifiche.
  • Creare e gestire modelli di ML.

Aggiornamenti dello schema non supportati

Spanner non supporta i seguenti aggiornamenti dello schema di un database esistente:

  • Se è presente un campo PROTO di tipo ENUM a cui fa riferimento un tabella o chiave indice, non puoi rimuovere i valori ENUM dal protocollo enum. (Rimozione di ENUM valori dalle enumerazioni utilizzate da ENUM<> colonne sono supportate, anche quando queste colonne vengono utilizzate come chiavi.

Prestazioni dell'aggiornamento dello schema

Gli aggiornamenti dello schema in Spanner non richiedono tempi di inattività. Quando emetti un di istruzioni DDL in un database Spanner, puoi continuare a scrivere e leggere dal database senza interruzioni mentre Spanner applica l'aggiornamento come operazione a lunga esecuzione.

Il tempo necessario per eseguire un'istruzione DDL dipende dal fatto che l'aggiornamento richiede la convalida dei dati esistenti o il backfill di eventuali dati. Ad esempio: Se aggiungi l'annotazione NOT NULL a una colonna esistente, Spanner deve: leggi tutti i valori nella colonna per assicurarti che non contenga qualsiasi valore NULL. Questo passaggio può richiedere tempi lunghi in presenza di grandi quantità di dati da convalidare. Un altro esempio è se aggiungi un indice a un database: Spanner esegue il backfill dell'indice utilizzando i dati esistenti e questo processo può essere molto lungo, a seconda della definizione dell'indice e delle dimensioni della tabella di base corrispondente. Tuttavia, se aggiungi una nuova colonna a una tabella, non esistono dati esistenti da convalidare, quindi Spanner può eseguire l'aggiornamento più rapidamente.

In sintesi, gli aggiornamenti dello schema che non richiedono la convalida dei dati esistenti da parte di Spanner possono essere eseguiti in pochi minuti. Gli aggiornamenti dello schema che richiedono la convalida possono richiedere più tempo, a seconda della quantità di dati esistenti che devono essere convalidati, ma la convalida dei dati avviene in background e con una priorità inferiore rispetto al traffico di produzione. Gli aggiornamenti dello schema che richiedono la convalida dei dati sono discussi in maggiore dettaglio nella sezione successiva.

Aggiornamenti dello schema convalidati in base alle definizioni delle viste

Quando esegui un aggiornamento dello schema, Spanner convalida che l'aggiornamento non invalidi le query utilizzate per definire le viste esistenti. Se la convalida è riuscita, l'aggiornamento dello schema va a buon fine. Se la convalida non va a buon fine, l'aggiornamento dello schema non va a buon fine. Per maggiori dettagli, consulta Best practice per la creazione delle visualizzazioni.

Aggiornamenti dello schema che richiedono la convalida dei dati

Puoi apportare aggiornamenti allo schema che richiedono la convalida del fatto che i dati esistentisoddisfano i nuovi vincoli. Quando un aggiornamento dello schema richiede la convalida dei dati, Spanner non consente gli aggiornamenti dello schema in conflitto nello schema interessato le entità e convalida i dati in background. Se la convalida va a buon fine, l'aggiornamento dello schema va a buon fine. Se la convalida non va a buon fine, l'aggiornamento dello schema non va a buon fine. Le operazioni di convalida vengono eseguite operative a lunga esecuzione. Puoi controlla lo stato di queste operazioni per capire se sono riuscite o non riuscite.

Ad esempio, supponiamo di aver definito il seguente file music.proto con un enumerato RecordLabel e un messaggio di protocollo Songwriter:

  enum RecordLabel {
    COOL_MUSIC_INC = 0;
    PACIFIC_ENTERTAINMENT = 1;
    XYZ_RECORDS = 2;
  }

  message Songwriter {
    required string nationality   = 1;
    optional int64  year_of_birth = 2;
  }

Per aggiungere una tabella Songwriters allo schema:

GoogleSQL

CREATE PROTO BUNDLE (
  googlesql.example.music.Songwriter,
  googlesql.example.music.RecordLabel,
);

CREATE TABLE Songwriters (
  Id         INT64 NOT NULL,
  FirstName  STRING(1024),
  LastName   STRING(1024),
  Nickname   STRING(MAX),
  OpaqueData BYTES(MAX),
  SongWriter googlesql.example.music.Songwriter
) PRIMARY KEY (Id);

CREATE TABLE Albums (
  SongwriterId     INT64 NOT NULL,
  AlbumId          INT64 NOT NULL,
  AlbumTitle       STRING(MAX),
  Label            INT32
) PRIMARY KEY (SongwriterId, AlbumId);

I seguenti aggiornamenti dello schema sono consentiti, ma richiedono la convalida e potrebbero il completamento dell'operazione richiede più tempo, a seconda della quantità di dati esistenti:

  • Aggiunta dell'annotazione NOT NULL a una colonna non chiave. Ad esempio:

    ALTER TABLE Songwriters ALTER COLUMN Nickname STRING(MAX) NOT NULL;
    
  • Ridurre la lunghezza di una colonna. Ad esempio:

    ALTER TABLE Songwriters ALTER COLUMN FirstName STRING(10);
    
  • Modifica in corso da BYTES a STRING. Ad esempio:

    ALTER TABLE Songwriters ALTER COLUMN OpaqueData STRING(MAX);
    
  • Modifica da INT64/INT32 a ENUM. Ad esempio:

    ALTER TABLE Albums ALTER COLUMN Label googlesql.example.music.RecordLabel;
    
  • Rimozione dei valori esistenti dalla definizione dell'enum RecordLabel.

  • Attivazione dei timestamp dei commit in una colonna TIMESTAMP esistente. Ad esempio:

    ALTER TABLE Albums ALTER COLUMN LastUpdateTime SET OPTIONS (allow_commit_timestamp = true);
    
  • Aggiunta di una condizione di controllo a una tabella esistente.

  • Aggiunta di una colonna generata archiviata a una tabella esistente.

  • Creazione di una nuova tabella con una chiave esterna.

  • Aggiunta di una chiave esterna a una tabella esistente.

Questi aggiornamenti dello schema non vanno a buon fine se i dati sottostanti non soddisfano i nuovi vincoli. Ad esempio, l'istruzione ALTER TABLE Songwriters ALTER COLUMN Nickname STRING(MAX) NOT NULL ha esito negativo se viene fornito qualsiasi valore nell'attributo Nickname è NULL, perché i dati esistenti non soddisfano i NOT NULL vincolo della nuova definizione.

La convalida dei dati può richiedere da diversi minuti a molte ore. L'ora di La convalida completa dei dati dipende da:

  • Le dimensioni del set di dati
  • La capacità di calcolo dell'istanza
  • Il carico sull'istanza

Alcuni aggiornamenti dello schema possono modificare il comportamento delle richieste al database prima l'aggiornamento dello schema è stato completato. Ad esempio, se aggiungi NOT NULL a una Spanner inizia quasi immediatamente a rifiutare le scritture per i nuovi richieste che utilizzano NULL per la colonna. Se l'aggiornamento dello schema nuovo non va a buon fine per la convalida dei dati, ci sarà stato un periodo di tempo in cui le scritture sono state bloccate, anche se sarebbero state accettate dallo schema precedente.

Puoi annullare un'operazione di convalida dei dati a lunga esecuzione utilizzando projects.instances.databases.operations.cancel o l'utilizzo di gcloud spanner operations.

Ordine di esecuzione delle istruzioni in batch

Se utilizzi Google Cloud CLI, l'API REST o l'API RPC, puoi emettere un batch di una o più istruzione CREATE, ALTER o DROP.

Spanner applica in ordine le istruzioni dello stesso batch, fermandosi al primo errore. Se l'applicazione di un'istruzione genera un errore, l'istruzione viene ritirata. I risultati di eventuali istruzioni applicate in precedenza nel batch. non vengono sottoposti a rollback.

Spanner potrebbe combinare e riordinare le istruzioni di batch diversi, potenzialmente mescolando le istruzioni di batch diversi in un'unica modifica atomica che viene applicata al database. All'interno di ogni modifica atomica, che avvengono in un ordine arbitrario. Ad esempio, se un gruppo di istruzioni contiene ALTER TABLE MyTable ALTER COLUMN MyColumn STRING(50) e un altro di istruzioni contiene ALTER TABLE MyTable ALTER COLUMN MyColumn STRING(20), Spanner lascerà la colonna in uno di questi due stati, ma non è specificato quale.

Versioni di schema create durante gli aggiornamenti dello schema

Spanner utilizza il controllo delle versioni dello schema per evitare tempi di inattività durante lo schema a un database di grandi dimensioni. Spanner mantiene lo schema precedente per supportare le letture durante l'elaborazione dell'aggiornamento dello schema. Spanner vengono quindi create una o più nuove versioni dello schema per elaborarlo aggiornamento. Ogni versione contiene il risultato di una raccolta di istruzioni in un una singola modifica atomica.

Le versioni dello schema non corrispondono necessariamente una a una ai batch di istruzioni DDL o alle singole istruzioni DDL. Alcune singole istruzioni DDL, come la creazione di indici per tabelle di base esistenti o istruzioni che richiedono la convalida dei dati, generano più versioni dello schema. In altri casi, è possibile raggruppare più istruzioni DDL in un'unica versione. Le versioni precedenti dello schema possono consumano notevoli risorse di server e archiviazione e vengono conservate fino scadono (non sono più necessarie per pubblicare letture delle versioni precedenti dei dati).

La tabella seguente mostra il tempo necessario a Spanner per aggiornare uno schema.

Operazione dello schema Durata stimata
CREATE TABLE Minuti
CREATE INDEX

Da alcuni minuti a diverse ore, se la tabella di base viene creata prima dell'indice.

Minuti, se l'istruzione viene eseguita contemporaneamente all'istruzione CREATE TABLE per la tabella di base.

DROP TABLE Minuti
DROP INDEX Minuti
ALTER TABLE ... ADD COLUMN Minuti
ALTER TABLE ... ALTER COLUMN

Da minuti a ore, se è richiesta la convalida in background.

Minuti, se la convalida dei precedenti non è richiesta.

ALTER TABLE ... DROP COLUMN Minuti
ANALYZE

Da alcuni minuti a diverse ore, a seconda delle dimensioni del database.

Modifiche ai tipi di dati e flussi di modifiche

Se modifichi il tipo di dati di una colonna monitorata da un stream di modifiche, il campo column_types dei record dello stream di modifiche pertinenti successivi riflette il nuovo tipo, così come i dati JSON old_values all'interno del campo mods dei record.

Il valore new_values del campo mods di un record dello stream di modifiche corrisponde sempre al tipo corrente di una colonna. La modifica del tipo di dati di una colonna controllata influire su eventuali record delle modifiche in tempo antecedenti a tale modifica.

Nel caso particolare di una modifica da BYTES a STRING, Spanner convalida i vecchi valori della colonna nell'ambito dell'aggiornamento dello schema. Di conseguenza, Spanner ha decodificato in modo sicuro il vecchio Quando scrive i valori successivi, inseriscili in stringhe con BYTES. record delle modifiche in tempo reale.

Best practice per gli aggiornamenti dello schema

Le seguenti sezioni descrivono le best practice per l'aggiornamento degli schemi.

Procedure precedenti all'aggiornamento dello schema

Prima di eseguire un aggiornamento dello schema:

  • Verifica che tutti i dati esistenti nel database che stai modificando siano conformi ai limiti imposti dall'aggiornamento dello schema. Poiché il successo di alcuni tipi di aggiornamenti dello schema dipendono dai dati nel database e non solo allo schema attuale, un aggiornamento dello schema riuscito di un database di test garantire il corretto aggiornamento dello schema di un database di produzione. Ecco alcuni esempi comuni:

    • Se aggiungi un'annotazione NOT NULL a una colonna esistente, verifica che: la colonna non contiene valori NULL esistenti.
    • Se intendi ridurre la lunghezza consentita di una colonna STRING o BYTES, verifica che tutti i valori esistenti nella colonna corrispondano alla lunghezza di blocco.
  • Se stai scrivendo su una colonna, una tabella o un indice sottoposto a uno schema aggiorna, assicurati che i valori che scrivi soddisfino i nuovi vincoli.

  • Se stai eliminando una colonna, una tabella o un indice, assicurati di non essere ancora leggere o scrivere messaggi.

Limitare la frequenza degli aggiornamenti dello schema

Se esegui troppi aggiornamenti dello schema in un breve periodo di tempo, Spanner potrebbe throttle degli aggiornamenti dello schema in coda. Questo perché Spanner limita per archiviare le versioni dello schema. L'aggiornamento dello schema potrebbe essere limitato se esistono troppe versioni precedenti dello schema nel periodo di conservazione. La la frequenza massima di modifiche allo schema dipende da molti fattori, uno dei quali è il numero totale di colonne nel database. Ad esempio, un con 2000 colonne (circa 2000 righe INFORMATION_SCHEMA.COLUMNS) è in grado di eseguire un massimo di 1500 modifiche allo schema (meno se lo schema richiede più versioni) durante il periodo di conservazione. Per visualizzare lo stato degli aggiornamenti dello schema in corso, utilizza gcloud spanner operations list e filtrarlo per operazioni di tipo DATABASE_UPDATE_DDL. Per annullare un update dello schema in corso, utilizza il comando gcloud spanner operations cancel e specifica l'ID operazione.

Il modo in cui le istruzioni DDL vengono raggruppate e il loro ordine all'interno di ogni batch possono influire sul numero di versioni dello schema risultanti. Per massimizzare il numero di aggiornamenti dello schema che puoi eseguire in un determinato periodo di tempo, devi utilizzare il batching che riduce al minimo il numero di versioni dello schema. Alcune regole empiriche sono descritti negli aggiornamenti di grandi dimensioni.

Come descritto in Versioni dello schema, alcune istruzioni DDL creano più versioni dello schema e sono importanti per la definizione del batching e dell'ordine all'interno di ogni batch. Esistono due tipi principali di istruzioni che potrebbero creare più versioni dello schema:

  • Dichiarazioni che potrebbero richiedere il backfill dei dati dell'indice, ad esempio CREATE INDEX
  • Dichiarazioni che potrebbero richiedere la convalida di dati esistenti, come l'aggiunta di NOT NULL

Questi tipi di istruzioni non creano sempre più versioni dello schema, però. Spanner cercherà di rilevare quando questi tipi di istruzioni possono essere ottimizzati per evitare di utilizzare più versioni dello schema, il che dipende dal batching. Ad esempio, un'istruzione CREATE INDEX presente nello stesso batch di un'istruzione Istruzione CREATE TABLE per la tabella di base dell'indice, senza alcuna istruzione per altre tabelle, evita di dover eseguire il backfill dei dati dell'indice perché Spanner può garantire che la tabella di base sia vuota in quel momento viene creato l'indice. La sezione relativa agli aggiornamenti di grandi dimensioni descrive come di utilizzare questa proprietà per creare molti indici in modo efficiente.

Se non puoi raggruppare le istruzioni DDL per evitare di creare molte versioni dello schema, devi limitare il numero di aggiornamenti dello schema di un singolo database nel periodo di conservazione. Aumenta l'intervallo di tempo in cui esegui gli aggiornamenti dello schema per consentire a Spanner di rimuovere le versioni precedenti dello schema prima che vengano create nuove versioni.

  • Per alcuni sistemi di gestione di database relazionali, esistono pacchetti software che eseguono una lunga serie di aggiornamenti dello schema di upgrade e downgrade al database in ogni deployment di produzione. Questi tipi di processi sono sconsigliati per Spanner.
  • Spanner è ottimizzato per utilizzare le chiavi principali per partizionare i dati per le soluzioni multi-tenancy. Le soluzioni multi-tenancy che utilizzano tabelle separate per ciascun cliente possono in un grande backlog di operazioni di aggiornamento dello schema che richiedono completato.
  • Gli aggiornamenti dello schema che richiedono la convalida o il backfill dell'indice utilizzano più server perché ogni istruzione crea più versioni dello schema internamente.

Opzioni per aggiornamenti dello schema di grandi dimensioni

Il modo migliore per creare una tabella e un numero elevato di indici al suo interno è crearle tutte contemporaneamente, in modo che ci sia un solo schema è stata creata la versione precedente. La best practice prevede di creare gli indici subito dopo la tabella nell'elenco delle istruzioni DDL. Puoi creare la tabella e i relativi quando si crea il database o in un singolo batch di grandi dimensioni di istruzioni. Se devi creare molte tabelle, ognuna con molti indici, puoi includere tutte le istruzioni in un singolo batch. Puoi includere diverse migliaia di istruzioni in in un singolo batch quando tutte le istruzioni possono essere eseguite insieme utilizzando della versione dello schema.

Quando un'istruzione richiede il backfill dei dati dell'indice o l'esecuzione della convalida dei dati, non può essere eseguita in una singola versione dello schema. Questo accade per CREATE INDEX quando la tabella di base dell'indice esiste già (perché era creati in un batch precedente di istruzioni DDL o perché era presente nel batch tra le istruzioni CREATE TABLE e CREATE INDEX che necessarie più versioni dello schema). Spanner richiede che non ci siano più di dieci istruzioni di questo tipo in un singolo batch. La creazione di indici che richiedono il backfill, in particolare, utilizza diverse versioni dello schema per indice, pertanto è buona norma creare non più di tre nuovi indici che richiedono il backfill al giorno (indipendentemente da come vengono raggruppati, a meno che questo raggruppamento non possa evitare il backfill).

Ad esempio, questo batch di istruzioni utilizzerà una singola versione dello schema:

GoogleSQL

CREATE TABLE Singers (
SingerId   INT64 NOT NULL,
FirstName  STRING(1024),
LastName   STRING(1024),
) PRIMARY KEY (SingerId);

CREATE INDEX SingersByFirstName ON Singers(FirstName);

CREATE INDEX SingersByLastName ON Singers(LastName);

CREATE TABLE Albums (
SingerId   INT64 NOT NULL,
AlbumId    INT64 NOT NULL,
AlbumTitle STRING(MAX),
) PRIMARY KEY (SingerId, AlbumId);

CREATE INDEX AlbumsByTitle ON Albums(AlbumTitle);

Al contrario, questo batch utilizzerà molte versioni dello schema, perché UnrelatedIndex richiede il backfill (poiché la tabella di base deve essere già esistita) obbliga tutti i seguenti indici a richiedere anche il backfill (anche se sono nello stesso batch delle loro tabelle di base):

GoogleSQL

CREATE TABLE Singers (
SingerId   INT64 NOT NULL,
FirstName  STRING(1024),
LastName   STRING(1024),
) PRIMARY KEY (SingerId);

CREATE TABLE Albums (
SingerId   INT64 NOT NULL,
AlbumId    INT64 NOT NULL,
AlbumTitle STRING(MAX),
) PRIMARY KEY (SingerId, AlbumId);

CREATE INDEX UnrelatedIndex ON UnrelatedTable(UnrelatedIndexKey);

CREATE INDEX SingersByFirstName ON Singers(FirstName);

CREATE INDEX SingersByLastName ON Singers(LastName);

CREATE INDEX AlbumsByTitle ON Albums(AlbumTitle);

Sarebbe meglio portare alla fine della creazione di UnrelatedIndex batch o in batch diversi, per ridurre al minimo le versioni dello schema.

Attendi il completamento delle richieste API

Quando crei projects.instances.databases.updateDdl (REST API) o UpdateDatabaseDdl (API RPC), utilizza projects.instances.databases.operations.get (API REST) o GetOperation (API RPC), rispettivamente, per attendere ogni richiesta da completare prima di avviarne una nuova. L'attesa del completamento di ogni richiesta consente all'applicazione di monitorare l'avanzamento degli aggiornamenti dello schema. Inoltre, mantiene l'arretrato degli aggiornamenti dello schema in sospeso dimensioni.

Caricamento collettivo

Se esegui il caricamento collettivo dei dati nelle tabelle dopo la loro creazione, di solito è più efficiente creare indici dopo aver caricato i dati. Se stai aggiungendo diversi indici, potrebbe essere più efficiente creare il database con tutte le tabelle e gli indici nello schema iniziale, come descritto nelle opzioni per gli aggiornamenti di grandi dimensioni.