Il flusso di lavoro tabulare per la previsione è la pipeline completa per
le attività di previsione. È simile all'API AutoML, ma ti consente di scegliere cosa controllare e cosa automatizzare. Anziché avere
controlli per l'intera pipeline, hai controlli per ogni passaggio della
pipeline. Questi controlli della pipeline includono:
Suddivisione dei dati
Feature engineering
Ricerca dell'architettura
Addestramento del modello
Combinazione di modelli
Vantaggi
Di seguito sono riportati alcuni vantaggi del flusso di lavoro tabulare per la previsione:
Supporta set di dati di grandi dimensioni fino a 1 TB e con un massimo di 200 colonne.
Ti consente di migliorare la stabilità e ridurre i tempi di addestramento limitando lo spazio di ricerca dei tipi di architettura o saltando la ricerca dell'architettura.
Consente di migliorare la velocità di addestramento selezionando manualmente l'hardware utilizzato per l'addestramento e la ricerca dell'architettura.
Consente di ridurre le dimensioni del modello e migliorare la latenza modificando le dimensioni dell'ensemble.
Ogni componente può essere esaminato in una potente interfaccia grafica delle pipeline che consente di visualizzare le tabelle di dati trasformate, le architetture dei modelli valutate e molti altri dettagli.
Ogni componente offre maggiore flessibilità e trasparenza, ad esempio la possibilità di personalizzare parametri e hardware, visualizzare lo stato del processo, i log e altro ancora.
Previsione su Vertex AI Pipelines
Tabular Workflow for Forecasting
è un'istanza gestita di Vertex AI Pipelines.
Vertex AI Pipelines è un servizio serverless
che esegue pipeline Kubeflow. Puoi utilizzare le pipeline per automatizzare
e monitorare le attività di machine learning e preparazione dei dati. Ogni passaggio di una
pipeline esegue una parte del flusso di lavoro della pipeline. Ad esempio,
una pipeline può includere passaggi per dividere i dati, trasformare i tipi di dati e addestrare un modello. Poiché i passaggi
sono istanze di componenti della pipeline, hanno input, output e un'immagine container. Gli input dei passaggi possono essere impostati dagli input della pipeline o possono
dipendere dall'output di altri passaggi all'interno di questa pipeline. Queste dipendenze
definiscono il flusso di lavoro della pipeline come un grafo diretto aciclico.
Panoramica della pipeline e dei componenti
Il seguente diagramma mostra la pipeline di modellazione per il flusso di lavoro tabulare per la previsione:
I componenti della pipeline sono:
feature-transform-engine: esegue il feature engineering. Per maggiori dettagli, vedi
Feature Transform Engine.
training-configurator-and-validator: convalida la configurazione dell'addestramento e genera i metadati di addestramento.
Input:
instance_schema: schema dell'istanza nella specifica OpenAPI, che descrive i tipi di dati dei dati di inferenza.
dataset_stats: statistiche che descrivono il set di dati non elaborato. Ad esempio, dataset_stats indica il numero di righe nel set di dati.
training_schema: Schema dei dati di addestramento nella specifica OpenAPI, che
descrive i tipi di dati dei dati di addestramento.
split-materialized-data: suddivide i dati materializzati in un set di addestramento, un set di valutazione e un set di test.
materialized_eval_split: Suddivisione della valutazione materializzata.
materialized_test_split: Set di test materializzato.
calculate-training-parameters-2: calcola la durata prevista del runtime
per automl-forecasting-stage-1-tuner.
get-hyperparameter-tuning-results - Facoltativo: se configuri la pipeline in modo da ignorare la ricerca dell'architettura, carica i risultati dell'ottimizzazione degli iperparametri da un'esecuzione precedente della pipeline.
Esegui la ricerca dell'architettura del modello e ottimizza gli iperparametri (automl-forecasting-stage-1-tuner) o utilizza i risultati dell'ottimizzazione degli iperparametri
di un'esecuzione della pipeline precedente (automl-forecasting-stage-2-tuner).
Un'architettura è definita da un insieme di iperparametri.
Gli iperparametri includono il tipo di modello e i parametri del modello.
I tipi di modelli presi in considerazione sono le reti neurali e gli alberi potenziati.
Viene addestrato un modello per ogni architettura considerata.
materialized_eval_split: Suddivisione della valutazione materializzata.
artifact - Risultati dell'ottimizzazione degli iperparametri di un'esecuzione della pipeline precedente.
Questo artefatto è un input solo se configuri la pipeline in modo da ignorare la
ricerca dell'architettura.
Output:
tuning_result_output: Output dell'ottimizzazione.
get-prediction-image-uri-2: genera l'URI dell'immagine di inferenza corretta in base al tipo di modello.
automl-forecasting-ensemble-2: combina le migliori architetture per produrre un modello finale.
Input:
tuning_result_output: Output dell'ottimizzazione.
Output:
unmanaged_container_model: modello di output.
model-upload-2: carica il modello.
Input:
unmanaged_container_model: modello di output.
Output:
model: Modello Vertex AI.
should_run_model_evaluation - Facoltativo: utilizza il set di test per calcolare le metriche di valutazione.
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Difficile da capire","hardToUnderstand","thumb-down"],["Informazioni o codice di esempio errati","incorrectInformationOrSampleCode","thumb-down"],["Mancano le informazioni o gli esempi di cui ho bisogno","missingTheInformationSamplesINeed","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2025-09-02 UTC."],[],[],null,["# Tabular Workflow for Forecasting\n\n| **Preview**\n|\n|\n| This feature is subject to the \"Pre-GA Offerings Terms\" in the General Service Terms section\n| of the [Service Specific Terms](/terms/service-terms#1).\n|\n| Pre-GA features are available \"as is\" and might have limited support.\n|\n| For more information, see the\n| [launch stage descriptions](/products#product-launch-stages).\n\nThis document provides an overview of\nTabular Workflow for Forecasting\n\n[pipeline and components](#components). To learn how to train a model, see\n[Train a model with\nTabular Workflow for Forecasting](/vertex-ai/docs/tabular-data/tabular-workflows/forecasting-train).\n\n\nTabular Workflow for Forecasting is the complete pipeline for\nforecasting tasks. It is similar to the\n[AutoML API](/vertex-ai/docs/tabular-data/forecasting/overview),\nbut lets you to choose what to control and what to automate. Instead of having\ncontrols for the *whole* pipeline, you have controls for *every step* in the\npipeline. These pipeline controls include:\n\n- Data splitting\n- Feature engineering\n- Architecture search\n- Model training\n- Model ensembling\n\n\u003cbr /\u003e\n\nBenefits\n--------\n\nThe following are some of the benefits of\nTabular Workflow for Forecasting\n:\n\n\n- Supports **large datasets** that are up to 1TB in size and have up to 200 columns.\n- Lets you **improve stability and lower training time** by limiting the search space of architecture types or skipping architecture search.\n- Lets you **improve training speed** by manually selecting the hardware used for training and architecture search.\n- Lets you **reduce model size and improve latency** by changing the ensemble size.\n- Each component can be inspected in a powerful pipelines graph interface that lets you see the transformed data tables, evaluated model architectures and many more details.\n- Each component gets extended flexibility and transparency, such as being able to customize parameters, hardware, view process status, logs and more.\n\n\u003cbr /\u003e\n\nForecasting on Vertex AI Pipelines\n----------------------------------\n\n\nTabular Workflow for Forecasting\nis a managed instance of Vertex AI Pipelines.\n\n\n[Vertex AI Pipelines](/vertex-ai/docs/pipelines/introduction) is a serverless\nservice that runs Kubeflow pipelines. You can use pipelines to automate\nand monitor your machine learning and data preparation tasks. Each step in a\npipeline performs part of the pipeline's workflow. For example,\na pipeline can include steps to split data, transform data types, and train a model. Since steps\nare instances of pipeline components, steps have inputs, outputs, and a\ncontainer image. Step inputs can be set from the pipeline's inputs or they can\ndepend on the output of other steps within this pipeline. These dependencies\ndefine the pipeline's workflow as a directed acyclic graph.\n\nOverview of pipeline and components\n-----------------------------------\n\nThe following diagram shows the modeling pipeline for\nTabular Workflow for Forecasting\n:\n\n\u003cbr /\u003e\n\nThe pipeline components are:\n\n1. **feature-transform-engine** : Performs feature engineering. See [Feature Transform Engine](/vertex-ai/docs/tabular-data/tabular-workflows/feature-engineering) for details.\n2. **training-configurator-and-validator**: Validates the training configuration and generates the training metadata.\n\n Input:\n - `instance_schema`: Instance schema in OpenAPI specification, which describes the data types of the inference data.\n - `dataset_stats`: Statistics that describe the raw dataset. For example, `dataset_stats` gives the number of rows in the dataset.\n - `training_schema`: Training data schema in OpenAPI specification, which describes the data types of the training data.\n3. **split-materialized-data**: Splits the materialized data into a training set, an evaluation set, and a test set.\n\n Input:\n - `materialized_data`: Materialized data.\n\n Output:\n - `materialized_train_split`: Materialized training split.\n - `materialized_eval_split`: Materialized evaluation split.\n - `materialized_test_split`: Materialized test set.\n4. **calculate-training-parameters-2** : Calculates the expected runtime duration\n for **automl-forecasting-stage-1-tuner**.\n\n5. **get-hyperparameter-tuning-results** - **Optional**: If you configure the\n pipeline to skip the architecture search, load the hyperparameter tuning\n results from a previous pipeline run.\n\n6. Perform model architecture search and tune hyperparameters (**automl-forecasting-stage-1-tuner** ) or use the hyperparameter tuning results\n from a previous pipeline run (**automl-forecasting-stage-2-tuner**).\n\n - An architecture is defined by a set of hyperparameters.\n - Hyperparameters include the model type and the model parameters.\n - Model types considered are neural networks and boosted trees.\n - A model is trained for each architecture considered.\n\n Input:\n - `materialized_train_split`: Materialized training split.\n - `materialized_eval_split`: Materialized evaluation split.\n - `artifact` - Hyperparameter tuning results from a previous pipeline run. This artifact is an input only if you configure the pipeline to skip the architecture search.\n\n Output:\n - `tuning_result_output`: Tuning output.\n7. **get-prediction-image-uri-2** : Produces the correct inference image URI based on the [model type](/vertex-ai/docs/tabular-data/forecasting/train-model#training-methods).\n\n8. **automl-forecasting-ensemble-2**: Ensembles the best architectures to produce a final model.\n\n Input:\n - `tuning_result_output`: Tuning output.\n\n Output:\n - `unmanaged_container_model`: Output model.\n9. **model-upload-2** - Uploads the model.\n\n Input:\n - `unmanaged_container_model`: Output model.\n\n Output:\n - `model`: Vertex AI model.\n10. **should_run_model_evaluation** - **Optional**: Use the test set to calculate evaluation metrics.\n\nWhat's next\n-----------\n\n- [Train a model using Tabular Workflow for Forecasting](/vertex-ai/docs/tabular-data/tabular-workflows/forecasting-train)."]]