Cloud Data Loss Prevention (Cloud DLP) ahora es parte de Sensitive Data Protection. El nombre de la API sigue siendo el mismo: API de Cloud Data Loss Prevention (API de DLP). Para obtener información sobre los servicios que conforman la protección de datos sensibles, consulta la descripción general de la protección de datos sensibles.
Programa la inspección periódica de un bucket de Cloud Storage, una tabla de BigQuery o similares de Datastore. Para obtener instrucciones detalladas, consulta Crea y programa trabajos de inspección.
Guías prácticas
En esta sección, se proporciona una lista categorizada de guías basadas en tareas que demuestran cómo usar la Protección de datos sensibles con Cloud Storage.
Crea y programa un activador de trabajo que busque datos sensibles en un bucket de Cloud Storage, una tabla de BigQuery o similares de Datastore. Un activador de trabajo automatiza la creación de trabajos de Sensitive Data Protection de forma periódica.
Crea una canalización de transformación de datos automatizada para desidentificar datos sensibles, como la información de identificación personal (PII).
Implementa un sistema automatizado de cuarentena y clasificación de datos con la Protección de datos sensibles, Cloud Storage y las funciones de Cloud Run.
Contribuciones de la comunidad
Los siguientes instructivos son de propiedad de miembros de la comunidad y administrados por ellos, y no por el equipo de Protección de datos sensibles. Si tienes preguntas sobre estos elementos, comunícate con sus respectivos propietarios.
Transcribe audio, crea una canalización de datos para los análisis de archivos de audio transcritos y oculta información sensible de las transcripciones de audio.
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Información o código de muestra incorrectos","incorrectInformationOrSampleCode","thumb-down"],["Faltan la información o los ejemplos que necesito","missingTheInformationSamplesINeed","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2025-09-04 (UTC)"],[],[],null,["# Using Sensitive Data Protection with Cloud Storage\n\n\u003cbr /\u003e\n\nThis page contains references to pages that provide information on how\nto use Sensitive Data Protection with [Cloud Storage](/storage).\n\nQuickstart guides\n-----------------\n\n[Quickstart: Scheduling an inspection scan](/sensitive-data-protection/docs/schedule-inspection-scan)\n: Schedule periodic inspection of a\n Cloud Storage bucket, a BigQuery table, or a\n Datastore kind. For detailed instructions, see\n [Creating and scheduling inspection jobs](/sensitive-data-protection/docs/creating-job-triggers).\n\nHow-to guides\n-------------\n\nThis section provides a categorized list of task-based guides that demonstrate\nhow to use Sensitive Data Protection with Cloud Storage.\n\n### Inspection\n\n[Inspecting storage and databases for sensitive data](/sensitive-data-protection/docs/inspecting-storage)\n: Create a one-time job that searches for sensitive data in a Cloud Storage\n bucket, a BigQuery table, or a Datastore kind.\n\n[Creating and scheduling inspection jobs](/sensitive-data-protection/docs/creating-job-triggers)\n: Create and schedule a job trigger that searches for sensitive data in a\n Cloud Storage bucket, a BigQuery table, or a\n Datastore kind. A job trigger automates the creation of\n Sensitive Data Protection jobs on a periodic basis.\n\n### Working with scan results\n\n[Sending Sensitive Data Protection scan results to Security Command Center](/sensitive-data-protection/docs/sending-results-to-scc)\n: Scan a Cloud Storage bucket, a BigQuery table, or a\n Datastore kind, and then send the findings to Security Command Center.\n\n[Analyzing and reporting on Sensitive Data Protection findings](/sensitive-data-protection/docs/analyzing-and-reporting)\n: Use Cloud Storage to run analytics on Sensitive Data Protection\n findings.\n\nTutorials\n---------\n\n[De-identification and re-identification of PII in large-scale datasets using Sensitive Data Protection](/architecture/de-identification-re-identification-pii-using-cloud-dlp)\n: Create an automated data transformation pipeline to de-identify sensitive data\n like personally identifiable information (PII).\n\n[Automating the classification of data uploaded to Cloud Storage](/sensitive-data-protection/docs/automating-classification-of-data-uploaded-to-cloud-storage)\n: Implement an automated data quarantine and classification system using Sensitive Data Protection, Cloud Storage, and Cloud Run functions.\n\nCommunity contributions\n-----------------------\n\nThe following are owned and managed by community members, and not by the\nSensitive Data Protection team. For questions on these items, contact their\nrespective owners.\n\n[GitHub: Speech Redaction Framework](https://github.com/GoogleCloudPlatform/dataflow-speech-redaction)\n: Redact sensitive information from audio files in Cloud Storage.\n\n[GitHub: Speech Analysis Framework](https://github.com/GoogleCloudPlatform/dataflow-contact-center-speech-analysis)\n: Transcribe audio, create a data pipeline for analytics of transcribed audio\n files, and redact sensitive information from audio transcripts.\n\n[GitHub: Real-time anomaly detection using Google Cloud stream analytics and AI services](https://github.com/GoogleCloudPlatform/df-ml-anomaly-detection)\n: Walk through a real-time artificial intelligence (AI) pattern for detecting\n anomalies in log files.\n\nPricing\n-------\n\nWhen you inspect a Cloud Storage bucket, you incur\nSensitive Data Protection costs, according to the [storage inspection job pricing](/sensitive-data-protection/pricing#storage-pricing)."]]