Interpreta los resultados de las predicciones de los modelos de clasificación de texto
Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
Después de solicitar una predicción, Vertex AI muestra resultados según el objetivo de tu modelo. Las predicciones de los modelos de clasificación con varias etiquetas muestran una o más etiquetas por cada documento y una puntuación de confianza para cada etiqueta. Para los modelos de clasificación con una sola etiqueta, las predicciones solo muestran una etiqueta y una puntuación de confianza por documento.
La puntuación de confianza comunica cuán fuerte tu modelo asocia cada clase o etiqueta con un elemento de prueba. Cuanto más alto sea el número, mayor será la confianza del modelo de que la etiqueta se debe aplicar a ese elemento. Tú decides qué tan alta debe ser la puntuación de confianza para que aceptes los resultados del modelo.
Control deslizante del umbral de puntuación
En la consola de Google Cloud, Vertex AI proporciona un control deslizante que se usa para ajustar el umbral de confianza de todas las clases o etiquetas, o de una clase o etiqueta individual. El control deslizante está disponible en la página de detalles de un modelo en la pestaña Evaluar. El umbral de confianza es el nivel de confianza que debe tener el modelo para asignar una clase o etiqueta a un elemento de prueba. A medida que ajustes el umbral, puedes ver cómo cambian la precisión y la recuperación del modelo. Los umbrales más altos suelen aumentar la precisión y disminuyen la recuperación.
Ejemplo de resultado de la predicción por lotes
La siguiente muestra es el resultado previsto para un modelo de clasificación de varias etiquetas. El modelo aplicó las etiquetas GreatService, Suggestion y InfoRequest al documento enviado. Los valores de confianza se aplican a cada una de las etiquetas en orden. En este ejemplo, el modelo predijo GreatService como la etiqueta más relevante.
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Información o código de muestra incorrectos","incorrectInformationOrSampleCode","thumb-down"],["Faltan la información o los ejemplos que necesito","missingTheInformationSamplesINeed","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2025-09-03 (UTC)"],[],[],null,["# Interpret prediction results from text classification models\n\n| Starting on September 15, 2024, you can only customize classification, entity extraction, and sentiment analysis objectives by moving to Vertex AI Gemini prompts and tuning. Training or updating models for Vertex AI AutoML for Text classification, entity extraction, and sentiment analysis objectives will no longer be available. You can continue using existing Vertex AI AutoML Text models until June 15, 2025. For a comparison of AutoML text and Gemini, see [Gemini for AutoML text users](/vertex-ai/docs/start/automl-gemini-comparison). For more information about how Gemini offers enhanced user experience through improved prompting capabilities, see [Introduction to tuning](/vertex-ai/generative-ai/docs/models/tune-gemini-overview). To get started with tuning, see [Model tuning for Gemini text models](/vertex-ai/generative-ai/docs/models/tune_gemini/tune-gemini-learn)\n\nAfter requesting a prediction, Vertex AI returns results based on your\nmodel's objective. Predictions from multi-label classification models return one\nor more labels for each document and a confidence score for each label. For\nsingle-label classification models, predictions return only one label and\nconfidence score per document.\n\n\nThe confidence score communicates how strongly your model associates each\nclass or label with a test item. The higher the number, the higher the model's\nconfidence that the label should be applied to that item. You decide how high\nthe confidence score must be for you to accept the model's results.\n\n\u003cbr /\u003e\n\nScore threshold slider\n----------------------\n\n\nIn the Google Cloud console, Vertex AI provides a slider that's\nused to adjust the confidence threshold for all classes or labels, or an\nindividual class or label. The slider is available on a model's detail page in\nthe **Evaluate** tab. The confidence threshold is the confidence level that\nthe model must have for it to assign a class or label to a test item. As you\nadjust the threshold, you can see how your model's precision and recall\nchanges. Higher thresholds typically increase precision and lower recall.\n\n\u003cbr /\u003e\n\nExample batch prediction output\n-------------------------------\n\nThe following sample is the predicted result for a multi-label classification\nmodel. The model applied the `GreatService`, `Suggestion`, and `InfoRequest`\nlabels to the submitted document. The confidence values apply to each of the\nlabels in order. In this example, the model predicted `GreatService` as the most\nrelevant label.\n\n\n| **Note**: The following JSON Lines example includes line breaks for\n| readability. In your JSON Lines files, line breaks are included only after each\n| each JSON object.\n\n\u003cbr /\u003e\n\n\n```\n{\n \"instance\": {\"content\": \"gs://bucket/text.txt\", \"mimeType\": \"text/plain\"},\n \"predictions\": [\n {\n \"ids\": [\n \"1234567890123456789\",\n \"2234567890123456789\",\n \"3234567890123456789\"\n ],\n \"displayNames\": [\n \"GreatService\",\n \"Suggestion\",\n \"InfoRequest\"\n ],\n \"confidences\": [\n 0.8986392080783844,\n 0.81984345316886902,\n 0.7722353458404541\n ]\n }\n ]\n}\n```"]]