Una porción de TPU v2 se compone de 512 chips interconectados con vínculos de alta velocidad reconfigurables. Para crear una porción de TPU v2, usa la marca --accelerator-type en el comando de creación de TPU (gcloud compute tpus tpu-vm). Para especificar el tipo de acelerador, especifica la versión de TPU y la cantidad de núcleos de TPU. Por ejemplo, para una sola TPU v2, usa --accelerator-type=v2-8. Para una porción v2 con 128 TensorCores, usa --accelerator-type=v2-128.
En el siguiente comando, se muestra cómo crear una porción de TPU v2 con 128 núcleos de TensorCore:
Para obtener más información sobre cómo administrar TPU, consulta Administra TPU.
Para obtener más información sobre la arquitectura del sistema de TPU de Cloud TPU, consulta Arquitectura del sistema.
En la siguiente tabla, se enumeran los tipos de TPU v2 compatibles:
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Información o código de muestra incorrectos","incorrectInformationOrSampleCode","thumb-down"],["Faltan la información o los ejemplos que necesito","missingTheInformationSamplesINeed","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2025-09-02 (UTC)"],[],[],null,["# TPU v2\n======\n\nThis document describes the architecture and supported configurations of\nCloud TPU v2.\n\nSystem architecture\n-------------------\n\nArchitectural details and performance characteristics of TPU v2 are available in\n[A Domain Specific Supercomputer for Training Deep Neural\nNetworks](https://dl.acm.org/doi/pdf/10.1145/3360307).\n\nConfigurations\n--------------\n\nA TPU v2 slice is composed of 512 chips interconnected with reconfigurable\nhigh-speed links. To create a TPU v2 slice, use the `--accelerator-type`\nflag in the TPU creation command (`gcloud compute tpus tpu-vm`). You specify the\naccelerator type by specifying the TPU version and the number of TPU cores. For\nexample, for a single v2 TPU, use `--accelerator-type=v2-8`. For a v2 slice\nwith 128 TensorCores, use `--accelerator-type=v2-128`.\n\nThe following command shows how to create a v2 TPU slice with 128\nTensorCores: \n\n```bash\n $ gcloud compute tpus tpu-vm create tpu-name \\\n --zone=us-central1-a \\\n --accelerator-type=v2-128 \\\n --version=tpu-ubuntu2204-base\n```\n\nFor more information about managing TPUs, see [Manage TPUs](/tpu/docs/managing-tpus-tpu-vm).\nFor more information about the TPU system architecture Cloud TPU, see\n[System architecture](/tpu/docs/system-architecture).\n\nThe following table lists the supported v2 TPU types:"]]