Attivare i flussi di lavoro utilizzando Cloud Audit Logs (gcloud CLI)
Questa guida rapida mostra come eseguire un flusso di lavoro utilizzando un trigger Eventarc che riceve eventi Cloud Audit Logs da BigQuery. BigQuery ospita set di dati pubblici a cui puoi accedere e che puoi integrare nelle tue applicazioni. Il trigger esegue il flusso di lavoro ascoltando un job BigQuery che esegue query su un set di dati pubblico. Quindi passa gli eventi come argomenti runtime al flusso di lavoro di destinazione.
Puoi completare questa guida rapida utilizzando Google Cloud CLI.
- Utilizzare Workflows per creare ed eseguire il deployment di un workflow che estrae e restituisce i dati da un evento.
- Creare un trigger Eventarc che collega un job BigQuery a un ricevitore eventi Workflows.
- Genera un evento eseguendo un job BigQuery utilizzando lo strumento a riga di comando bq. Questo evento viene passato come argomento runtime al flusso di lavoro di destinazione.
- Visualizza i dati sugli eventi nell'output di esecuzione del flusso di lavoro.
Prima di iniziare
I vincoli di sicurezza definiti dalla tua organizzazione potrebbero impedirti di completare i passaggi seguenti. Per informazioni sulla risoluzione dei problemi, vedi Sviluppare applicazioni in un ambiente Google Cloud vincolato.
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
Install the Google Cloud CLI.
-
Se utilizzi un provider di identitร (IdP) esterno, devi prima accedere alla gcloud CLI con la tua identitร federata.
-
Per inizializzare gcloud CLI, esegui questo comando:
gcloud init
-
Create or select a Google Cloud project.
-
Create a Google Cloud project:
gcloud projects create PROJECT_ID
Replace
PROJECT_ID
with a name for the Google Cloud project you are creating. -
Select the Google Cloud project that you created:
gcloud config set project PROJECT_ID
Replace
PROJECT_ID
with your Google Cloud project name.
-
-
Verify that billing is enabled for your Google Cloud project.
-
Install the Google Cloud CLI.
-
Se utilizzi un provider di identitร (IdP) esterno, devi prima accedere alla gcloud CLI con la tua identitร federata.
-
Per inizializzare gcloud CLI, esegui questo comando:
gcloud init
-
Create or select a Google Cloud project.
-
Create a Google Cloud project:
gcloud projects create PROJECT_ID
Replace
PROJECT_ID
with a name for the Google Cloud project you are creating. -
Select the Google Cloud project that you created:
gcloud config set project PROJECT_ID
Replace
PROJECT_ID
with your Google Cloud project name.
-
-
Verify that billing is enabled for your Google Cloud project.
- Aggiorna i componenti di
gcloud
:gcloud components update
- Accedi utilizzando il tuo account:
gcloud auth login
- Abilita le API Compute Engine, Eventarc,
Pub/Sub e Workflows.
gcloud services enable \ compute.googleapis.com \ eventarc.googleapis.com \ pubsub.googleapis.com \ workflows.googleapis.com \ workflowexecutions.googleapis.com
- Imposta le variabili di configurazione utilizzate in questa guida rapida:
export WORKFLOW_LOCATION=us-central1 export TRIGGER_LOCATION=us-central1 export PROJECT_ID=PROJECT_ID gcloud config set project ${PROJECT_ID} gcloud config set workflows/location ${WORKFLOW_LOCATION} gcloud config set eventarc/location ${TRIGGER_LOCATION}
-
Se hai creato il progetto, ti viene assegnato il ruolo di base Proprietario (
roles/owner
). Per impostazione predefinita, questo ruolo IAM include le autorizzazioni necessarie per l'accesso completo alla maggior parte delle risorse Google Cloud e puoi saltare questo passaggio.Se non sei il creatore del progetto, le autorizzazioni richieste devono essere concesse al principal appropriato. Ad esempio, un'entitร puรฒ essere un Account Google (per gli utenti finali) o un account di servizio (per applicazioni e carichi di lavoro di calcolo). Per saperne di piรน, consulta la pagina Ruoli e autorizzazioni per la destinazione eventi.
Autorizzazioni obbligatorie
Per ottenere le autorizzazioni necessarie per completare questa guida rapida, chiedi all'amministratore di concederti i seguenti ruoli IAM nel tuo progetto:
-
Amministratore Eventarc (
roles/eventarc.admin
) -
Logs View Accessor (
roles/logging.viewAccessor
) -
Project IAM Admin (
roles/resourcemanager.projectIamAdmin
) -
Amministratore account di servizio (
roles/iam.serviceAccountAdmin
) -
Utente service account (
roles/iam.serviceAccountUser
) -
Service Usage Admin (
roles/serviceusage.serviceUsageAdmin
) -
Workflows Admin (
roles/workflows.admin
)
Per ulteriori informazioni sulla concessione dei ruoli, consulta Gestisci l'accesso a progetti, cartelle e organizzazioni.
Potresti anche riuscire a ottenere le autorizzazioni richieste tramite i ruoli personalizzati o altri ruoli predefiniti.
-
Amministratore Eventarc (
Prendi nota dell'Account di servizio predefinito di Compute Engine, in quanto lo collegherai a un trigger Eventarc per rappresentare l'identitร del trigger a scopo di test. Questo account di servizio viene creato automaticamente dopo l'attivazione o l'utilizzo di un servizio Google Cloud che utilizza Compute Engine e con il seguente formato email:
PROJECT_NUMBER-compute@developer.gserviceaccount.com
Sostituisci
PROJECT_NUMBER
con il numero del tuo progetto Google Cloud. Puoi trovare il numero di progetto nella pagina Benvenuto della console Google Cloud o eseguendo questo comando:gcloud projects describe PROJECT_ID --format='value(projectNumber)'
Per gli ambienti di produzione, ti consigliamo vivamente di creare un nuovo service account e di concedergli uno o piรน ruoli IAM che contengano le autorizzazioni minime richieste e di seguire il principio del privilegio minimo.
- Concedi il
ruolo Destinatario di eventi
Eventarc (
roles/eventarc.eventReceiver
) nel progetto al account di servizio predefinito di Compute Engine in modo che il trigger Eventarc possa ricevere eventi dai provider di eventi.gcloud projects add-iam-policy-binding PROJECT_ID \ --member=serviceAccount:PROJECT_NUMBER-compute@developer.gserviceaccount.com \ --role=roles/eventarc.eventReceiver
- Concedi il
ruolo Invoker di Workflows (
roles/workflows.invoker
) sul progetto al account di servizio Compute Engine predefinito in modo che l'account abbia l'autorizzazione per attivare l'esecuzione del flusso di lavoro.gcloud projects add-iam-policy-binding PROJECT_ID \ --member=serviceAccount:PROJECT_NUMBER-compute@developer.gserviceaccount.com \ --role=roles/workflows.invoker
- Concedi il
ruolo Writer log
Logging (
roles/logging.logWriter
) sul progetto al account di servizio Compute Engine predefinito in modo che il flusso di lavoro possa inviare i log a Cloud Logging.gcloud projects add-iam-policy-binding PROJECT_ID \ --member=serviceAccount:PROJECT_NUMBER-compute@developer.gserviceaccount.com \ --role=roles/logging.logWriter
- Se hai attivato l'agente di servizio Cloud Pub/Sub l'8 aprile 2021 o in una data precedente, per supportare le richieste push Pub/Sub autenticate, concedi
il ruolo Creatore token account di servizio (
roles/iam.serviceAccountTokenCreator
) all'agente di servizio. In caso contrario, questo ruolo viene concesso per impostazione predefinita:gcloud projects add-iam-policy-binding PROJECT_ID \ --member=serviceAccount:service-PROJECT_NUMBER@gcp-sa-pubsub.iam.gserviceaccount.com \ --role=roles/iam.serviceAccountTokenCreator
- Apri un terminale o Cloud Shell.
- Nella tua home directory, crea un nuovo file denominato
myFirstWorkflow.yaml
omyFirstWorkflow.json
. - Copia e incolla quanto segue nel nuovo file e salvalo:
YAML
main: params: [event] steps: - log_event: call: sys.log args: text: ${event} severity: INFO - extract_data: assign: - data: ${event.data.protoPayload} - return_data: return: data: ${data}
JSON
{ "main": { "params": [ "event" ], "steps": [ { "log_event": { "call": "sys.log", "args": { "text": "${event}", "severity": "INFO" } } }, { "extract_data": { "assign": [ { "data": "${event.data.protoPayload}" } ] } }, { "return_data": { "return": { "data": "${data}" } } } ] } }
- Esegui il deployment del workflow:
export MY_WORKFLOW=myFirstWorkflow gcloud workflows deploy ${MY_WORKFLOW} --source=myFirstWorkflow.yaml
Sostituisci
.yaml
con.json
se hai copiato la versione JSON del flusso di lavoro di esempio. Crea un trigger che filtra gli eventi BigQuery:
gcloud eventarc triggers create events-cal-trigger \ --destination-workflow=${MY_WORKFLOW} \ --destination-workflow-location=${WORKFLOW_LOCATION} \ --event-filters="type=google.cloud.audit.log.v1.written" \ --event-filters="serviceName=bigquery.googleapis.com" \ --event-filters="methodName=google.cloud.bigquery.v2.JobService.InsertJob" \ --service-account="PROJECT_NUMBER-compute@developer.gserviceaccount.com"
Viene creato un trigger denominato
events-cal-trigger
.Tieni presente che quando crei un trigger Eventarc per la prima volta in un progetto Google Cloud , potrebbe verificarsi un ritardo nel provisioning dell'agente di servizio Eventarc. Questo problema puรฒ essere risolto di solito provando a creare di nuovo il trigger. Per saperne di piรน, vedi Errori di autorizzazione negata.
Per confermare che
events-cal-trigger
รจ stato creato correttamente, esegui:gcloud eventarc triggers describe events-cal-trigger --location=${TRIGGER_LOCATION}
L'output elenca l'ora e la posizione di creazione del trigger e dovrebbe essere simile a quanto segue:
createTime: '2021-10-14T15:15:43.872360951Z' [...] name: projects/PROJECT_ID/locations/us-central1/triggers/events-cal-trigger
Per attivare il flusso di lavoro, esegui un job BigQuery che accede a un set di dati pubblico e recupera informazioni da questo:
bq query --nouse_legacy_sql \ 'SELECT COUNT(*) FROM `bigquery-public-data`.samples.shakespeare'
Gli eventi generati vengono passati come argomenti runtime al flusso di lavoro che restituisce i dati del payload come risultato dell'esecuzione del flusso di lavoro.
Per verificare che il workflow sia stato attivato, elenca le ultime due esecuzioni:
gcloud workflows executions list ${MY_WORKFLOW} --limit=2
Due esecuzioni del flusso di lavoro vengono attivate dal job BigQuery. Un evento segnala il cambio di lavoro, l'altro l'inserimento del lavoro stesso. L'output elenca un
NAME
e unSTATE
pari aSUCCEEDED
per ogni esecuzione e dovrebbe essere simile al seguente:NAME: projects/218898424763/locations/us-central1/workflows/myFirstWorkflow/executions/a073ad6a-c76b-4437-8d39-2ab3ade289d2 STATE: SUCCEEDED START_TIME: 2024-02-06T14:16:14.390549813Z END_TIME: 2024-02-06T14:16:14.870102511Z NAME: projects/218898424763/locations/us-central1/workflows/myFirstWorkflow/executions/35d7c730-7ba5-4055-afee-c04ed706b179 STATE: SUCCEEDED START_TIME: 2024-02-06T14:16:14.389882601Z END_TIME: 2024-02-06T14:16:14.829942525Z
Tieni presente che nell'output,
a073ad6a-c76b-4437-8d39-2ab3ade289d2
del campoNAME
รจ l'ID dell'esecuzione del flusso di lavoro. Copia l'ID esecuzione da utilizzare nel passaggio successivo.Per visualizzare lo stato di esecuzione, esegui questo comando:
gcloud workflows executions describe WORKFLOW_EXECUTION_ID --workflow=${MY_WORKFLOW}
Sostituisci
WORKFLOW_EXECUTION_ID
con l'ID dell'esecuzione del flusso di lavoro che corrisponde all'ora in cui รจ stato completato il job BigQuery.L'output dovrebbe essere simile al seguente:
argument: [...] duration: 0.277917625s endTime: '2024-02-06T14:16:14.870102511Z' name: projects/218898424763/locations/us-central1/workflows/myFirstWorkflow/executions/a073ad6a-c76b-4437-8d39-2ab3ade289d2 result: '{"data": [...]}' startTime: '2024-02-06T14:16:14.390549813Z' state: SUCCEEDED
Verifica che il
startTime
in cui รจ stato completato il job BigQuery e ilSTART_TIME
dell'esecuzione del workflow corrispondano.- Elimina il flusso di lavoro creato:
Quando ti viene chiesto se vuoi continuare, digitagcloud workflows delete ${MY_WORKFLOW}
y
. - Elimina il trigger che hai creato:
gcloud eventarc triggers delete events-cal-trigger
- In alternativa, puoi eliminare il tuo progetto Google Cloud per evitare addebiti. L'eliminazione del tuo progetto Google Cloud interrompe la fatturazione per tutte le risorse utilizzate al suo interno.
Delete a Google Cloud project:
gcloud projects delete PROJECT_ID
Crea ed esegui il deployment di un flusso di lavoro
Crea e implementa un flusso di lavoro eseguito quando il completamento di un job BigQuery attiva il flusso di lavoro con una richiesta HTTP.
Crea un trigger Eventarc
Per creare un trigger Eventarc che esegue il routing degli eventi da BigQuery a una destinazione Workflows, esegui il comando gcloud eventarc triggers create
.
Generare e visualizzare un evento
Esegui un job BigQuery utilizzando lo strumento a riga di comando bq per generare eventi e attivare il flusso di lavoro.
Hai generato correttamente un evento BigQuery che ha attivato un destinatario di eventi Workflows utilizzando Eventarc.