Le workflow tabulaire pour les prévisions est le pipeline complet pour les tâches de prévision. Il est semblable à l'API AutoML, mais vous permet de choisir les éléments à contrôler et les éléments à automatiser. Au lieu de disposer de contrôles pour la totalité du pipeline, vous disposez de contrôles pour chaque étape du pipeline. Ces contrôles du pipeline incluent les éléments suivants :
Division des données
Ingénierie des caractéristiques
Recherche d'architecture
Entraînement du modèle
Assemblage du modèle
Avantages
Voici quelques avantages du workflow tabulaire pour les prévisions :
Il accepte les ensembles de données volumineux d'une taille maximale de 1 To et comportant jusqu'à 200 colonnes.
Permet d'améliorer la stabilité et de réduire le temps d'entraînement en limitant l'espace de recherche des types d'architecture ou en ignorant la recherche d'architecture.
Il vous permet d'améliorer la vitesse d'entraînement en sélectionnant manuellement le matériel utilisé pour l'entraînement et la recherche d'architecture.
Il vous permet de réduire la taille du modèle et d'améliorer la latence en modifiant la taille de l'ensemble.
Chaque composant peut être inspecté dans une interface graphique de pipelines puissante qui vous permet de voir les tables de données transformées, les architectures de modèle évaluées et bien d'autres détails.
Chaque composant offre une flexibilité et une transparence accrues, telles que la possibilité de personnaliser les paramètres et le matériel, d'afficher l'état des processus et les journaux, etc.
Prévisions sur Vertex AI Pipelines
Le workflow tabulaire pour les prévisions est une instance gérée de Vertex AI Pipelines.
Vertex AI Pipelines est un service sans serveur qui exécute des pipelines Kubeflow. Vous pouvez utiliser des pipelines pour automatiser et surveiller vos tâches de machine learning et de préparation des données. Chaque étape d'un pipeline effectue une partie du workflow du pipeline. Par exemple, un pipeline peut inclure des étapes permettant de diviser les données, de transformer les types de données et d'entraîner un modèle. Comme les étapes sont des instances de composants du pipeline, elles comportent des entrées, des sorties et une image de conteneur. Les entrées d'étape peuvent être définies à partir des entrées du pipeline ou elles peuvent dépendre de la sortie d'autres étapes dans ce pipeline. Ces dépendances définissent le workflow du pipeline en tant que graphe orienté acyclique.
Présentation du pipeline et des composants
Le diagramme suivant illustre le pipeline de modélisation du workflow tabulaire pour les prévisions :
Les composants du pipeline sont les suivants :
feature-transform-engine : effectue extraction de caractéristiques. Pour en savoir plus, consultez la page Feature Transform Engine.
training-configurator-and-validator : valide la configuration d'entraînement et génère les métadonnées d'entraînement.
Entrée :
instance_schema : schéma d'instance dans la spécification OpenAPI, qui décrit les types de données des données d'inférence.
dataset_stats : statistiques décrivant l'ensemble de données brut. Par exemple, dataset_stats indique le nombre de lignes dans l'ensemble de données.
training_schema : schéma de données d'entraînement dans la spécification OpenAPI, qui décrit les types de données d'entraînement.
split-materialized-data : divise les données matérialisées en un ensemble d'entraînement, un ensemble d'évaluation et un ensemble de test.
materialized_test_split : ensemble de test matérialisé
calculate-training-parameters-2 : calcule la durée d'exécution attendue pour automl-forecasting-stage-1-tuner.
get-hyperparameter-tuning-results : facultatif. Si vous configurez le pipeline pour qu'il ignore la recherche d'architecture, chargez les résultats du réglage des hyperparamètres d'une exécution de pipeline précédente.
Effectuez une recherche d'architecture du modèle et ajustez les hyperparamètres (automl-forecasting-stage-1-tuner) ou utilisez les résultats du réglage des hyperparamètres d'une exécution de pipeline précédente (automl-forecasting-stage-2-tuner).
Une architecture est définie par un ensemble d'hyperparamètres.
Les hyperparamètres incluent le type de modèle et les paramètres du modèle.
Les types de modèles pris en compte sont les réseaux de neurones et les arbres de décision à boosting.
Un modèle est entraîné pour chaque architecture prise en compte.
artifact : résultats du réglage des hyperparamètres d'une exécution de pipeline précédente.
Cet artefact n'est une entrée que si vous configurez le pipeline pour ignorer la recherche d'architecture.
Sortie :
tuning_result_output : résultat de réglage
get-prediction-image-uri-2 : génère l'URI d'image d'inférence correcte en fonction du type de modèle.
automl-forecasting-ensemble-2 : assemble les meilleures architectures pour produire un modèle final.
Entrée :
tuning_result_output : résultat de réglage
Sortie :
unmanaged_container_model : modèle de sortie
model-upload-2 : importe le modèle.
Entrée :
unmanaged_container_model : modèle de sortie
Sortie :
model : modèle Vertex AI
should_run_model_evaluation - Facultatif : utilise l'ensemble de test pour calculer les métriques d'évaluation.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/09/02 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Difficile à comprendre","hardToUnderstand","thumb-down"],["Informations ou exemple de code incorrects","incorrectInformationOrSampleCode","thumb-down"],["Il n'y a pas l'information/les exemples dont j'ai besoin","missingTheInformationSamplesINeed","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2025/09/02 (UTC)."],[],[],null,["# Tabular Workflow for Forecasting\n\n| **Preview**\n|\n|\n| This feature is subject to the \"Pre-GA Offerings Terms\" in the General Service Terms section\n| of the [Service Specific Terms](/terms/service-terms#1).\n|\n| Pre-GA features are available \"as is\" and might have limited support.\n|\n| For more information, see the\n| [launch stage descriptions](/products#product-launch-stages).\n\nThis document provides an overview of\nTabular Workflow for Forecasting\n\n[pipeline and components](#components). To learn how to train a model, see\n[Train a model with\nTabular Workflow for Forecasting](/vertex-ai/docs/tabular-data/tabular-workflows/forecasting-train).\n\n\nTabular Workflow for Forecasting is the complete pipeline for\nforecasting tasks. It is similar to the\n[AutoML API](/vertex-ai/docs/tabular-data/forecasting/overview),\nbut lets you to choose what to control and what to automate. Instead of having\ncontrols for the *whole* pipeline, you have controls for *every step* in the\npipeline. These pipeline controls include:\n\n- Data splitting\n- Feature engineering\n- Architecture search\n- Model training\n- Model ensembling\n\n\u003cbr /\u003e\n\nBenefits\n--------\n\nThe following are some of the benefits of\nTabular Workflow for Forecasting\n:\n\n\n- Supports **large datasets** that are up to 1TB in size and have up to 200 columns.\n- Lets you **improve stability and lower training time** by limiting the search space of architecture types or skipping architecture search.\n- Lets you **improve training speed** by manually selecting the hardware used for training and architecture search.\n- Lets you **reduce model size and improve latency** by changing the ensemble size.\n- Each component can be inspected in a powerful pipelines graph interface that lets you see the transformed data tables, evaluated model architectures and many more details.\n- Each component gets extended flexibility and transparency, such as being able to customize parameters, hardware, view process status, logs and more.\n\n\u003cbr /\u003e\n\nForecasting on Vertex AI Pipelines\n----------------------------------\n\n\nTabular Workflow for Forecasting\nis a managed instance of Vertex AI Pipelines.\n\n\n[Vertex AI Pipelines](/vertex-ai/docs/pipelines/introduction) is a serverless\nservice that runs Kubeflow pipelines. You can use pipelines to automate\nand monitor your machine learning and data preparation tasks. Each step in a\npipeline performs part of the pipeline's workflow. For example,\na pipeline can include steps to split data, transform data types, and train a model. Since steps\nare instances of pipeline components, steps have inputs, outputs, and a\ncontainer image. Step inputs can be set from the pipeline's inputs or they can\ndepend on the output of other steps within this pipeline. These dependencies\ndefine the pipeline's workflow as a directed acyclic graph.\n\nOverview of pipeline and components\n-----------------------------------\n\nThe following diagram shows the modeling pipeline for\nTabular Workflow for Forecasting\n:\n\n\u003cbr /\u003e\n\nThe pipeline components are:\n\n1. **feature-transform-engine** : Performs feature engineering. See [Feature Transform Engine](/vertex-ai/docs/tabular-data/tabular-workflows/feature-engineering) for details.\n2. **training-configurator-and-validator**: Validates the training configuration and generates the training metadata.\n\n Input:\n - `instance_schema`: Instance schema in OpenAPI specification, which describes the data types of the inference data.\n - `dataset_stats`: Statistics that describe the raw dataset. For example, `dataset_stats` gives the number of rows in the dataset.\n - `training_schema`: Training data schema in OpenAPI specification, which describes the data types of the training data.\n3. **split-materialized-data**: Splits the materialized data into a training set, an evaluation set, and a test set.\n\n Input:\n - `materialized_data`: Materialized data.\n\n Output:\n - `materialized_train_split`: Materialized training split.\n - `materialized_eval_split`: Materialized evaluation split.\n - `materialized_test_split`: Materialized test set.\n4. **calculate-training-parameters-2** : Calculates the expected runtime duration\n for **automl-forecasting-stage-1-tuner**.\n\n5. **get-hyperparameter-tuning-results** - **Optional**: If you configure the\n pipeline to skip the architecture search, load the hyperparameter tuning\n results from a previous pipeline run.\n\n6. Perform model architecture search and tune hyperparameters (**automl-forecasting-stage-1-tuner** ) or use the hyperparameter tuning results\n from a previous pipeline run (**automl-forecasting-stage-2-tuner**).\n\n - An architecture is defined by a set of hyperparameters.\n - Hyperparameters include the model type and the model parameters.\n - Model types considered are neural networks and boosted trees.\n - A model is trained for each architecture considered.\n\n Input:\n - `materialized_train_split`: Materialized training split.\n - `materialized_eval_split`: Materialized evaluation split.\n - `artifact` - Hyperparameter tuning results from a previous pipeline run. This artifact is an input only if you configure the pipeline to skip the architecture search.\n\n Output:\n - `tuning_result_output`: Tuning output.\n7. **get-prediction-image-uri-2** : Produces the correct inference image URI based on the [model type](/vertex-ai/docs/tabular-data/forecasting/train-model#training-methods).\n\n8. **automl-forecasting-ensemble-2**: Ensembles the best architectures to produce a final model.\n\n Input:\n - `tuning_result_output`: Tuning output.\n\n Output:\n - `unmanaged_container_model`: Output model.\n9. **model-upload-2** - Uploads the model.\n\n Input:\n - `unmanaged_container_model`: Output model.\n\n Output:\n - `model`: Vertex AI model.\n10. **should_run_model_evaluation** - **Optional**: Use the test set to calculate evaluation metrics.\n\nWhat's next\n-----------\n\n- [Train a model using Tabular Workflow for Forecasting](/vertex-ai/docs/tabular-data/tabular-workflows/forecasting-train)."]]