Crea ed esegui il deployment di modelli di AI generativa e machine learning in un'azienda

Last reviewed 2024-03-28 UTC

Man mano che i modelli di AI generativa e di machine learning (ML) diventano più comuni per le aziende le attività e i processi aziendali, le imprese sempre più bisogno di indicazioni sullo sviluppo dei modelli per garantire coerenza, ripetibilità, protezione e sicurezza. Per aiutare le grandi aziende a creare ed eseguire il deployment l'AI generativa e i modelli ML, abbiamo creato l'IA generativa e le di machine learning. Questo progetto fornisce una guida completa l'intero ciclo di vita dello sviluppo dell'AI, dall'esplorazione preliminare dei dati fino la sperimentazione mediante l'addestramento, il deployment e il monitoraggio del modello.

Il progetto di AI generativa e ML a livello aziendale offre molti vantaggi, tra cui:

  • Indicazioni prescrittive: indicazioni chiare su come creare, configurare ed eseguire il deployment di un ambiente di sviluppo ML e AI generativa che è basato su Vertex AI. Puoi utilizzare Vertex AI per sviluppare i tuoi modelli.
  • Maggiore efficienza: ampia automazione per ridurre il lavoro manuale dal deployment dell'infrastruttura e dallo sviluppo di modelli di AI generativa e ML. Automation ti consente di concentrarti su attività a valore aggiunto, come la progettazione del modello e degli esperimenti.
  • Governance e verificabilità migliorate: riproducibilità, tracciabilità e l'implementazione controllata dei modelli è incorporata nella progettazione di questo progetto. Questo vantaggio ti consente di gestire meglio l'AI generativa e l'ML ciclo di vita del modello, oltre a garantire la possibilità di riaddestrare e valutare i modelli in modo coerente, con audit trail chiari.
  • Sicurezza: il progetto è progettato per essere in linea con i requisiti del Framework del National Institute of Standards and Technology (NIST) e ai framework del Cyber Risk Institute (CRI).

Il progetto di AI generativa e ML a livello aziendale include quanto segue:

  • R Repository GitHub che contiene un set di configurazioni Terraform, blocco note Jupyter, un Vertex AI Pipelines definizione, una Cloud Composer Grafico diretto aciclico (DAG), e script accessori. I componenti del repository completano i seguenti passaggi:
    • La configurazione Terraform imposta Vertex AI di sviluppo di modelli in grado di supportare più team di sviluppo dei modelli.
    • Il blocco note Jupyter ti consente di sviluppare un modello in modo interattivo.
    • La definizione di Vertex AI Pipelines traduce il blocco note Jupyter in un pattern riproducibile che può essere utilizzato ambienti di produzione.
    • Il DAG di Cloud Composer fornisce un metodo alternativo a Vertex AI Pipelines.
    • Gli script accessori consentono di eseguire il deployment del codice e delle pipeline Terraform.
  • Una guida all'architettura, alla progettazione, ai controlli di sicurezza e i processi che utilizzi da questo progetto per implementare (questo documento).

Il progetto di AI generativa e ML a livello aziendale è progettato per essere compatibile il progetto base aziendale. Il progetto base aziendale offre una serie di servizi di livello base su cui si basa questo progetto, come Reti VPC. Puoi eseguire il deployment del progetto base di AI generativa e ML a livello aziendale senza eseguire il deployment il progetto di base aziendale se il tuo ambiente Google Cloud fornisce le funzionalità necessarie per supportare i progetti aziendali di ML e AI generativa.

Questo documento è rivolto a cloud architect, data scientist e data scientist tecnici che possano utilizzare il progetto per creare ed eseguire il deployment di nuove AI generativa o ML di accesso a tutti i modelli su Google Cloud. In questo documento si presuppone che tu abbia familiarità con sviluppo di modelli ML e AI generativa e ai Piattaforma di machine learning Vertex AI.

Panoramica dei progetti aziendali di AI generativa e ML

Il progetto di AI generativa e ML a livello aziendale adotta un approccio a più livelli per offrono le funzionalità necessarie per addestrare modelli ML e AI generativa. La il progetto deve essere implementato e controllato attraverso Operazioni ML (MLOps) nel tuo flusso di lavoro. Il seguente diagramma mostra il deployment del livello MLOps da parte di il progetto è collegato ad altri livelli del tuo ambiente.

I livelli dello schema.

Questo diagramma include:

  • La Infrastruttura Google Cloud fornisce funzionalità di sicurezza come crittografia at-rest e crittografia dei dati in transito, nonché componenti di base di base come computing e archiviazione.
  • La base aziendale fornisce una base di risorse come come sistemi di identità, networking, logging, monitoraggio e deployment che per consentirti di adottare Google Cloud per i tuoi carichi di lavoro di AI.
  • Il livello dati è un livello facoltativo dello stack di sviluppo che fornisce con varie funzionalità, come l'importazione e l'archiviazione dei dati, controllo dell'accesso, governance dei dati, monitoraggio e condivisione dei dati.
  • Il livello di AI generativa e ML (questo progetto) consente di creare ed eseguire il deployment di grandi dimensioni. Puoi usare questo livello per l'esplorazione preliminare dei dati e sperimentazione, addestramento del modello, distribuzione del modello e monitoraggio.
  • CI/CD fornisce gli strumenti per automatizzare il provisioning, configurazione, gestione e deployment di infrastruttura, flussi di lavoro componenti software. Questi componenti ti aiutano a garantire e verificabili; ridurre al minimo gli errori manuali; e accelerare nel ciclo di sviluppo complessivo.

Per mostrare come viene utilizzato l'ambiente di AI generativa e ML, include lo sviluppo di un modello ML di esempio. Lo sviluppo del modello di esempio ti guida nella creazione di un modello, pipeline operative, addestramento del modello, test del modello un modello di machine learning.

Architettura

Il progetto base di AI generativa e ML a livello aziendale ti offre la possibilità lavorare direttamente con i dati. Puoi creare modelli in modo interattivo (sviluppo) e promuovere i modelli in un ambiente operativo (di produzione non di produzione).

Nell'ambiente interattivo, i modelli ML vengono sviluppati utilizzando Vertex AI Workbench che è un servizio di blocco note Jupyter gestito da Google. I dati vengono creati da te di estrazione, trasformazione dei dati e ottimizzazione interattivo e di promuoverle nell'ambiente operativo.

Nell'ambiente operativo (non di produzione), utilizzi le pipeline per creare e testare i propri modelli in modo ripetibile e controllabile. Dopo soddisfatto delle prestazioni del modello, puoi eseguirne il deployment operativo (produzione). Il seguente diagramma mostra i vari degli ambienti operativi e interattivi.

L'architettura del progetto base.

Questo diagramma include:

  1. Sistemi di deployment: servizi come Catalogo dei servizi e Cloud Build il deployment delle risorse Google Cloud nell'ambiente interattivo. Cloud Build esegue anche il deployment di risorse Google Cloud i flussi di lavoro per la creazione di modelli nell'ambiente operativo.
  2. Origini dati: servizi come BigQuery Cloud Storage Spanner, e AlloyDB per PostgreSQL ospitare i tuoi dati. Il progetto fornisce dati di esempio in BigQuery e Cloud Storage.
  3. Ambiente interattivo: un ambiente in cui puoi interagire direttamente con i dati, sperimentare modelli e creare pipeline da utilizzare dell'ambiente operativo.
  4. Ambiente operativo: un ambiente in cui puoi creare ed eseguire test dei modelli in modo ripetibile, per poi eseguirne il deployment in produzione.
  5. Servizi modello:i seguenti servizi supportano varie attività MLOps:
  6. Archiviazione degli artefatti: questi servizi archiviano il codice e i container per lo sviluppo del modello e le pipeline. Questi servizi includono:
    • Artifact Registry archivia i container utilizzati dalle pipeline per controllare le varie fasi dello sviluppo del modello.
    • Il repository Git archivia il codebase dei vari componenti utilizzate nello sviluppo del modello.

Utenti tipo della piattaforma

Quando esegui il deployment del progetto base, crei quattro tipi di gruppi di utenti: di tecnici, un gruppo di DevOps Engineer, un gruppo di data scientist e un gruppo di Google Cloud. I gruppi hanno le seguenti responsabilità:

  • Il gruppo MLOps engineer sviluppa i modelli Terraform utilizzati dal del catalogo dei servizi. Questo team fornisce i modelli utilizzati molti modelli.
  • Il gruppo DevOps Engineer approva i modelli Terraform che creato dal gruppo di sviluppatori MLOps.
  • Il gruppo di data scientist sviluppa modelli, pipeline e usati dalle pipeline. Generalmente, un singolo team dedicato alla creazione di un singolo modello.
  • Il gruppo Data engineer approva l'utilizzo degli artefatti gruppo di data science.

Struttura organizzativa

Questo progetto utilizza la struttura organizzativa della piattaforma aziendale come base per il deployment di carichi di lavoro di AI e ML. Il seguente diagramma mostra i progetti aggiunti alla base per abilitare i carichi di lavoro di AI e ML.

La struttura organizzativa del progetto base.

La tabella seguente descrive i progetti utilizzati dall'IA generativa il progetto base di AI e ML.

Cartella Progetto Descrizione

common

prj-c-infra-pipeline

Contiene la pipeline di deployment utilizzata per creare i componenti di AI generativa e ML del progetto. Per ulteriori informazioni, vedi la pipeline dell'infrastruttura nella il progetto base aziendale.

prj-c-service-catalog

Contiene l'infrastruttura utilizzata dal catalogo dei servizi per di eseguire il deployment delle risorse nell'ambiente interattivo.

development

prj-d-machine-learning

Contiene i componenti per lo sviluppo di un caso d'uso di AI e ML in un interattivo .

non-production

prj-n-machine-learning

Contiene i componenti per testare e valutare un uso di AI e ML caso di cui puoi eseguire il deployment in produzione.

production

prj-p-machine-learning

Contiene i componenti per il deployment di un caso d'uso di AI e ML in produzione.

Networking

Il progetto utilizza la rete VPC condiviso creata nell'azienda progetto di base. Nell'ambiente interattivo (di sviluppo), Il deployment dei blocchi note di Vertex AI Workbench viene eseguito nei progetti di servizio. Gli utenti on-premise possono accedere ai progetti utilizzando lo spazio di indirizzi IP privati sulla rete VPC condiviso. Gli utenti on-premise possono accedere a Google alle API cloud, come Cloud Storage, Private Service Connect. Ogni rete VPC condivisa (sviluppo, non di produzione e di produzione) ha un oggetto Private Service Connect distinto endpoint.

La rete del progetto.

L'ambiente operativo (non di produzione e di produzione) prevede due Reti VPC condiviso a cui le risorse on-premise possono accedere e i loro indirizzi IP privati. Gli ambienti interattivi e operativi sono protetti utilizzando i Controlli di servizio VPC.

Cloud Logging

Questo progetto utilizza Cloud Logging di base fornite dal progetto base aziendale.

Cloud Monitoring

A monitorare job di addestramento personalizzato, il progetto include una dashboard che ti consente di monitorare metriche:

  • Utilizzo della CPU di ogni nodo di addestramento
  • Utilizzo della memoria di ogni nodo di addestramento
  • Utilizzo della rete

Se un job di addestramento personalizzato ha esito negativo, il progetto utilizza Cloud Monitoring per un meccanismo di avviso via email per notificare l'errore. Per il monitoraggio dei modelli di cui è stato eseguito il deployment che utilizzano l'endpoint Vertex AI, il progetto include una dashboard con le seguenti metriche:

  • Metriche sul rendimento:
    • Previsioni al secondo
    • Latenza del modello
  • Utilizzo delle risorse:
    • Utilizzo CPU
    • Utilizzo memoria

Configurazione dei criteri dell'organizzazione

Oltre alla sezione criteri dell'organizzazione creato dal progetto della piattaforma aziendale, questo progetto aggiunge ai criteri dell'organizzazione elencati in postura predefinita per AI sicura, estesa.

Operazioni

Questa sezione descrive gli ambienti inclusi nel progetto.

Ambiente interattivo

che consente di esplorare i dati e sviluppare modelli mantenendo al contempo della strategia di sicurezza dell'organizzazione, l'ambiente interattivo un insieme controllato di azioni che puoi eseguire. Puoi eseguire il deployment Google Cloud con uno dei seguenti metodi:

  • Utilizzando Service Catalog, che è preconfigurato automazione con i modelli di risorse
  • Creazione di artefatti di codice e relativo commit in repository Git utilizzando Blocchi note di Vertex AI Workbench

Il seguente diagramma illustra l'ambiente interattivo.

L'ambiente interattivo del progetto.

Un flusso interattivo tipico ha i seguenti passaggi e componenti associati con cui puoi trovare:

  1. Catalogo dei servizi offre un elenco selezionato di Risorse Google Cloud di cui i data scientist possono eseguire il deployment un ambiente interattivo. Il data scientist esegue il deployment della risorsa blocco note Vertex AI Workbench catalogo dei servizi.
  2. I blocchi note di Vertex AI Workbench sono l'interfaccia principale usano i data scientist per lavorare con le risorse Google Cloud distribuite nell'ambiente interattivo. I blocchi note abilitano i dati per eseguire il pull del codice da Git e aggiornarlo secondo necessità.
  3. I dati di origine vengono archiviati al di fuori dell'ambiente interattivo e gestiti separatamente da questo progetto. L'accesso ai dati è controllato da un proprietario. Dati i data scientist possono richiedere l'accesso in lettura ai dati di origine, ma i data scientist non possono nei dati di origine.
  4. I data scientist possono trasferire i dati di origine nell'ambiente interattivo dell'ambiente in risorse create catalogo dei servizi. Nell'ambiente interattivo, i dati gli scienziati possono leggere, scrivere e manipolare i dati. Tuttavia, i dati gli scienziati non possono trasferire dati dall'ambiente interattivo o concedere e l'accesso alle risorse create da catalogo dei servizi. BigQuery archivia dati strutturati e dati semistrutturati Cloud Storage archivia i dati non strutturati.
  5. Feature Store fornisce ai data scientist l'accesso a bassa latenza caratteristiche per l'addestramento del modello.
  6. I data scientist addestrano i modelli utilizzando Vertex AI job di addestramento personalizzato. Il progetto utilizza anche Vertex AI per ottimizzazione degli iperparametri.

  7. I data scientist valutano i modelli mediante l'uso Esperimenti Vertex AI e Vertex AI TensorBoard Vertex AI Experiments consente di eseguire più addestramento su un modello utilizzando parametri, tecniche di modellazione, architetture e input diversi. Vertex AI TensorBoard consente di monitorare, visualizzare e confrontare vari esperimenti che hai eseguito per poi scegliere il modello con caratteristiche osservate da convalidare.

  8. I data scientist convalidano i propri modelli Valutazione di Vertex AI. Per convalidare i propri modelli, i data scientist suddividono i dati di origine in un set di dati di addestramento e un set di dati di convalida Valutazione di Vertex AI rispetto al modello.

  9. I data scientist creano container utilizzando Cloud Build, archiviano di container in Artifact Registry e li usano nelle pipeline si trovano nell'ambiente operativo.

Ambiente operativo

L'ambiente operativo utilizza un repository Git e pipeline. Questo include l'ambiente di produzione e l'ambiente non di produzione del progetto di base aziendale. Nell'ambiente non di produzione, il data scientist seleziona una pipeline da una delle pipeline che è stata sviluppata nell'ambiente interattivo. Il data scientist può eseguire la pipeline di produzione, valutare i risultati e quindi determinare quale modello da promuovere nell'ambiente di produzione.

Il progetto include una pipeline di esempio creata utilizzando Cloud Composer e una pipeline di esempio creata utilizzando Vertex AI Pipelines. Il diagramma seguente mostra il funzionamento completamente gestito di Google Cloud.

L'ambiente operativo del progetto base.

Un flusso operativo tipico prevede i seguenti passaggi:

  1. Un data scientist integra un ramo di sviluppo in un del deployment.
  2. L'unione nel ramo di deployment attiva una build Cloud Build una pipeline o un blocco note personalizzato.
  3. Si verifica uno dei seguenti problemi:
    • Se un data scientist usa Cloud Composer come agente di orchestrazione, la pipeline di Cloud Build sposta un DAG in di archiviazione ideale in Cloud Storage.
    • Se il data scientist usa Vertex AI Pipelines come agente di orchestrazione, la pipeline sposta un file Python di archiviazione ideale in Cloud Storage.
  4. La pipeline Cloud Build attiva l'agente di orchestrazione (Cloud Composer o Vertex AI Pipelines).
  5. Lo strumento di orchestrazione estrae la definizione della pipeline Cloud Storage e inizia a eseguire la pipeline.
  6. La pipeline estrae da Artifact Registry un container che viene utilizzato tutte le fasi della pipeline per attivare i servizi Vertex AI.
  7. La pipeline, utilizzando il container, attiva un trasferimento di dati di dati di origine nell'ambiente operativo.
  8. I dati vengono trasformati, convalidati, suddivisi e preparati per l'addestramento del modello e convalida da parte della pipeline.
  9. Se necessario, la pipeline sposta i dati Vertex AI Feature Store per accedere facilmente durante l'addestramento del modello.
  10. La pipeline utilizza l'addestramento di modelli personalizzati di Vertex AI addestrare il modello.
  11. La pipeline utilizza la valutazione di Vertex AI per convalidare il modello.
  12. Un modello convalidato è importato nel Registro dei modelli dalla pipeline.
  13. Il modello importato viene quindi utilizzato per generare previsioni previsioni online o previsioni batch.
  14. Una volta eseguito il deployment del modello nell'ambiente di produzione, la pipeline utilizza Vertex AI Model Monitoring per rilevare se le prestazioni del modello peggiorano, monitorando disallineamento addestramento/distribuzione e deviazione della previsione.

Deployment

Il progetto utilizza una serie di pipeline di Cloud Build per eseguire il provisioning l'infrastruttura del progetto base, la pipeline nell'ambiente operativo i container usati per creare modelli di AI generativa e ML. Le pipeline utilizzate e le risorse di cui è stato eseguito il provisioning sono le seguenti:

  • Pipeline dell'infrastruttura: Questa pipeline fa parte del progetto di base aziendale. Questa pipeline esegue il provisioning delle risorse Google Cloud associate ambiente interattivo e ambiente operativo.
  • Pipeline interattiva: la pipeline interattiva fa parte della un ambiente interattivo. Questa pipeline copia i modelli Terraform da un un repository Git in un bucket Cloud Storage Catalogo dei servizi può leggere. La pipeline interattiva è viene attivato quando richiesta di pull per unirsi al ramo principale.
  • Pipeline di container: il progetto include una build di Cloud Build per creare container usati nella pipeline operativa. Container di cui viene eseguito il deployment in diversi ambienti sono immagini container immutabili. Le immagini container immutabili contribuiscono a garantire che venga eseguito il deployment della stessa immagine in tutti gli ambienti e non possono essere modificate mentre sono in esecuzione. Se devi modificare l'applicazione, devi ricreare ed eseguire nuovamente il deployment dell'immagine. Le immagini container utilizzate nel progetto vengono archiviate in Artifact Registry e a cui fanno riferimento i file di configurazione utilizzati nella pipeline operativa.
  • Pipeline operativa: la pipeline operativa fa parte della nel tuo ambiente operativo. Questa pipeline copia i DAG per Cloud Composer o Vertex AI Pipelines, utilizzata per creare, testare ed eseguire il deployment dei modelli.

Catalogo dei servizi

Catalogo dei servizi consente a sviluppatori e amministratori cloud di rendere le loro soluzioni utilizzabili dagli utenti aziendali interni. I moduli Terraform nel catalogo dei servizi vengono creati e pubblicati come artefatti Bucket Cloud Storage con la pipeline CI/CD di Cloud Build. Dopo aver copiato i moduli nel bucket, gli sviluppatori possono utilizzarli per Creare soluzioni Terraform nella pagina Amministrazione di Service Catalog, aggiungere le soluzioni in catalogo dei servizi e condividerle con di progetti di ambiente interattivo in modo che gli utenti possano eseguire il deployment delle risorse.

L'ambiente interattivo utilizza catalogo dei servizi per consentire ai dati gli scienziati eseguono il deployment delle risorse Google Cloud in modo conforme della strategia di sicurezza della propria azienda. Durante lo sviluppo di un modello che richiede alle risorse Google Cloud, ad esempio un bucket Cloud Storage, scienziato seleziona la risorsa dal catalogo dei servizi, configura la risorsa, ne esegue il deployment nell'ambiente interattivo completamente gestito di Google Cloud. Catalogo dei servizi contiene modelli preconfigurati per varie risorse Google Cloud di cui il data scientist può eseguire il deployment per l'ambiente interattivo. Il data scientist non può modificare la risorsa modelli, ma può configurare le risorse tramite le variabili di configurazione esposto dal modello. Il seguente diagramma mostra la struttura del modo in cui Il catalogo dei servizi e l'ambiente interattivo sono correlati.

Il catalogo progetti.

I data scientist eseguono il deployment delle risorse utilizzando il catalogo dei servizi, descritti nei seguenti passaggi:

  1. L'ingegnere MLOps inserisce un modello di risorsa Terraform per Google Cloud in un repository Git.
  2. Il commit a Git attiva una pipeline Cloud Build.
  3. Cloud Build copia il modello e tutti gli eventuali di configurazione in Cloud Storage.
  4. L'ingegnere MLOps configura le soluzioni del catalogo dei servizi e catalogo dei servizi manualmente. L'ingegnere condivide quindi catalogo dei servizi con un progetto di servizio nel completamente gestito di Google Cloud.
  5. Il data scientist seleziona una risorsa catalogo dei servizi.
  6. Catalogo dei servizi esegue il deployment del modello nell'ambiente completamente gestito di Google Cloud.
  7. La risorsa estrae tutti gli script di configurazione necessari.
  8. Il data scientist interagisce con le risorse.

Repository

Le pipeline descritte in Deployment sono attivate da modifiche nel repository corrispondente. Per garantire che nessuno può apportare modifiche indipendenti all'ambiente di produzione, c'è separazione delle responsabilità tra utenti che possono inviare il codice e utenti che possono approvare le modifiche al codice. La tabella seguente descrive il progetto repository e i relativi mittenti e approvatori.

Repository Pipeline Descrizione Richiedente Approvatore

ml-foundation

Infrastruttura
Contiene il codice Terraform per il progetto base di AI generativa e ML che crea gli ambienti interattivi e operativi. Ingegnere MLOps Ingegnere DevOps

service-catalog

Interattiva Contiene i modelli per le risorse che il deployment di catalogo dei servizi. Ingegnere MLOps Ingegnere DevOps

artifact-publish

Container Contiene i container di cui viene eseguita la pipeline nell'ambiente operativo che è possibile usare. Data scientist Data engineer

machine-learning

Operative Contiene il codice sorgente che le pipeline dell'ambiente di rete. Data scientist Data engineer

Strategia di ramificazione

Il progetto utilizza ramificazione permanente per eseguire il deployment del codice nell'ambiente associato. Il progetto utilizza tre rami (sviluppo, non produzione e produzione) che riflettano i corrispondenti ambienti cloud-native.

Controlli di sicurezza

Il progetto di AI generativa e ML a livello aziendale utilizza una difesa in profondità a più livelli di sicurezza che usa le funzionalità predefinite di Google Cloud, i servizi e le funzionalità di sicurezza di Google Cloud configurati attraverso il progetto di base aziendale. Il seguente diagramma mostra dei vari controlli di sicurezza utilizzati per il progetto base.

I controlli di sicurezza del progetto base.

Le funzioni dei livelli sono le seguenti:

  • Interfaccia: fornisce ai data scientist servizi che li consentono di interagire con il progetto in modo controllato.
  • Deployment: fornisce una serie di pipeline che eseguono il deployment dell'infrastruttura, creare container e creare modelli. L'uso delle pipeline consente la verificabilità, la tracciabilità e la ripetibilità.
  • Networking: fornisce protezioni contro esfiltrazione di dati in tutto il mondo delle risorse di progetto a livello API e IP.
  • Gestione degli accessi:controlla chi può accedere a determinate risorse e aiuta impedire usi non autorizzati delle risorse.
  • Crittografia: consente di controllare chiavi di crittografia, segreti e consentono di proteggere i dati attraverso la crittografia at-rest predefinita la crittografia in transito.
  • Rilevante: aiuta a rilevare errori di configurazione e attività dannose.
  • Prevenzione: offre i mezzi per controllare e limitare il modo in cui viene eseguito il deployment dell'infrastruttura.

La tabella seguente descrive i controlli di sicurezza associati a per ogni livello.

incorporato Risorsa Controllo della sicurezza
Interfaccia Vertex AI Workbench Fornisce un'esperienza di blocco note gestita che include controllo dell'accesso degli utenti, controllo dell'accesso alla rete, controllo dell'accesso IAM e download di file disattivati. Questi consentono un'esperienza utente più sicura.
Repository Git Fornisce agli utenti il controllo dell'accesso per proteggere i repository.
Catalogo dei servizi Offre ai data scientist un elenco selezionato di risorse che possono il deployment può essere eseguito solo nelle configurazioni approvate.
Deployment Pipeline dell'infrastruttura Fornisce un flusso sicuro per il deployment dell'infrastruttura del progetto mediante l'uso di Terraform.
Pipeline interattiva Fornisce un flusso sicuro per trasferire modelli da un repository Git in un bucket all'interno della tua organizzazione Google Cloud.
Pipeline di container Fornisce un flusso sicuro per creare container utilizzati operativa.
Pipeline operativa Offre un flusso controllato per addestramento, test, convalida e deployment di grandi dimensioni.
Artifact Registry Archivia le immagini container in modo sicuro utilizzando l'accesso alle risorse controllo
Rete Private Service Connect Ti consente di comunicare con le API Google Cloud utilizzando indirizzi IP privati per evitare di esporre il traffico internet.
VPC con indirizzi IP privati Il progetto utilizza i VPC con indirizzi IP privati per facilitare la rimozione l'esposizione a Internet.
Controlli di servizio VPC Aiuta a proteggere le risorse protette dall'esfiltrazione di dati.
Firewall Contribuisce a proteggere la rete VPC da accessi non autorizzati.
Gestione degli accessi Cloud Identity Fornisce una gestione utenti centralizzata, riducendo e il rischio di accesso.
IAM Fornisce un controllo granulare su chi può fare cosa su quali risorse, consentendo così il privilegio minimo nella gestione degli accessi.
Crittografia Cloud KMS Ti consente di controllare le chiavi di crittografia utilizzate all'interno del tuo dell'organizzazione Google Cloud.
Secret Manager Fornisce un archivio segreto per i tuoi modelli controllato da o IAM.
Crittografia at-rest Per impostazione predefinita, Google Cloud cripta i dati at-rest.
Crittografia in transito Per impostazione predefinita, Google Cloud cripta i dati in transito.
Detective Security Command Center Fornisce rilevatori di minacce che aiutano a proteggere Google Cloud dell'organizzazione.
Architettura continua Controlla continuamente la tua organizzazione Google Cloud a fronte di serie di criteri di Open Policy Agent (OPA) che hai definito.
Motore per suggerimenti IAM Analizza le autorizzazioni degli utenti e fornisce suggerimenti per la riduzione delle autorizzazioni necessarie per applicare il principio del privilegio minimo.
Firewall Insights Analizza le regole firewall, identifica quelle eccessivamente permissive e suggerisce firewall più restrittivi per rafforzare della strategia di sicurezza generale.
Cloud Logging Offre visibilità sull'attività del sistema e consente di il rilevamento di anomalie e attività dannose.
Cloud Monitoring Tiene traccia di indicatori ed eventi chiave che possono aiutare a identificare sospetti attività.
Prevenzione Servizio Criteri dell'organizzazione Ti consente di limitare le azioni all'interno di Google Cloud dell'organizzazione.

Passaggi successivi