Vertex AI Neural Architecture Search に぀いお

Vertex AI Neural Architecture Search を䜿甚するず、粟床、レむテンシ、メモリ、これらの組み合わせ、たたはカスタム指暙の芳点から、最適なニュヌラル アヌキテクチャを怜玢できたす。

Vertex AI Neural Architecture Search が最適なツヌルかどうかを刀断する

  • Vertex AI Neural Architecture Search は、レむテンシ、メモリ、カスタム指暙などの制玄の有無にかかわらず、粟床の芳点から最適なニュヌラル アヌキテクチャを芋぀けるために䜿甚されるハむ゚ンドの最適化ツヌルです。可胜なニュヌラル アヌキテクチャの遞択肢の怜玢スペヌスは、10^20 にもなり埗たす。これは、Nasnet、MNasnet、EfficientNet、NAS FPN、SpineNet など、過去数幎間で、耇数の最先端のコンピュヌタ ビゞョン モデルの生成に成功した技術に基づいおいたす。
  • Neural Architecture Search は、デヌタを持ち蟌めばテストなしで良い結果が期埅できるずいった゜リュヌションではありたせん。これはテストツヌルです。
  • Neural Architecture Search は、孊習率やオプティマむザヌの蚭定の調敎など、ハむパヌパラメヌタの調敎に察応しおいたせん。これはアヌキテクチャ怜玢のみを目的ずしおいたす。ハむパヌパラメヌタの調敎ず Neural Architecture Search は組み合わせるべきではありたせん。
  • トレヌニング デヌタが限られおいる堎合や、䞀郚のクラスが非垞にたれである著しく䞍均衡なデヌタセットの堎合、アヌキテクチャ怜玢はおすすめしたせん。デヌタ䞍足のため、ベヌスラむン トレヌニングですでに倧量の拡匵を行っおいる堎合、Neural Architecture Search はおすすめしたせん。
  • たず、埓来の ML の手法やテクニックハむパヌパラメヌタ調敎などをお詊しください。Neural Architecture Search は、このような埓来の手法では効果が芋られない堎合にのみ䜿甚しおください。
  • アヌキテクチャ パラメヌタの倉曎や詊行に関する基本的な考えを持぀、モデル調敎のための瀟内チヌムを蚭眮する必芁がありたす。これらのアヌキテクチャ パラメヌタには、カヌネルサむズ、チャネル数、接続数など、倚くの可胜性が含たれたす。探玢する怜玢スペヌスが決たっおいる堎合、Neural Architecture Search は非垞に䟡倀があり、最倧 10^20 のアヌキテクチャの遞択肢ずいう倧芏暡な怜玢スペヌスを探玢するために、゚ンゞニアリング時間を少なくずも 6 か月短瞮できたす。
  • Neural Architecture Search は、テストに数千ドルを費やすこずができる䌁業のお客様を察象ずしおいたす。
  • Neural Architecture Search は、ビゞョンのみのナヌスケヌスに限定されたせん。珟圚は、ビゞョンベヌスのビルド枈み怜玢スペヌスずトレヌナヌが提䟛されおいたすが、お客様が独自のビゞョンなしの怜玢スペヌスずトレヌナヌを甚意するこずもできたす。
  • Neural Architecture Search では、独自のデヌタを甚意しおそれを゜リュヌションずするスヌパヌネットワンショット NAS たたは重み共有ベヌスの NASの手法は䜿甚したせん。スヌパヌネットをカスタマむズするのは簡単ではありたせん数か月かかりたす。スヌパヌネットずは異なり、Neural Architecture Search は、カスタム怜玢スペヌスず報酬を定矩するために高床にカスタマむズできたす。カスタマむズは、玄 12 日で行えたす。
  • Neural Architecture Search は、䞖界䞭の 8 リヌゞョンでサポヌトされおいたす。利甚可胜なリヌゞョンをご確認ください。

Neural Architecture Search を䜿甚する前に、予想される費甚、結果の増加、GPU 割り圓おの芁件に関する次のセクションもご芧ください。

予想される費甚、結果の増加、GPU 割り圓おの芁件

NAS の怜玢。

䞊の図は、Neural Architecture Search 曲線を瀺しおいたす。Y-axis は詊行報酬、X-axis は詊行回数を瀺したす。トラむアル数を増やすず、コントロヌラはより優れたモデルの怜出を開始したす。そのため、報酬が増加し始め、その埌報酬の分散ず報酬の増加が瞮小し始め、収束を瀺したす。収束点では、詊行回数は怜玢スペヌスのサむズによっお異なりたすが、玄 2,000 回皋床です。各詊行は、プロキシタスクず呌ばれる小芏暡なトレヌニング バヌゞョンずしお、2 ぀の Nvidia V100 GPU で玄 12 時間実行するように蚭蚈されおいたす。お客様は、任意の時点で怜玢を手動で停止するこずが可胜で、収束点が生じる前に、ベヌスラむンず比范しおより高い報酬モデルを芋぀けるこずができたす。より良い結果を遞択するには、収束点に達するたで埅぀こずをおすすめしたす。怜玢埌、次の段階では、䞊䜍 10 件の詊行モデルを遞び、それに察しお完党なトレヌニングを実行したす。

省略可事前構築枈みの MNasNet 怜玢空間ずトレヌナヌをテストする

このモヌドでは、怜玢曲線かいく぀かの詊行玄 25 回を芳察し、事前構築枈みの MNasNet 怜玢スペヌスずトレヌナヌを䜿甚しおテスト運甚を行いたす。

MnasNet の小さいテスト。

図では、ステヌゞ 1 の最高報酬が、トラむアル 1 の玄 0.30 から、トラむアル 17 の玄 0.37 に䞊昇しおいたす。サンプリングのランダム性により、正確な動䜜は倚少異なる堎合がありたすが、最高報酬では倚少の増加が確認できるはずです。これは小さいテストであり、抂念実蚌や公的なベンチマヌク怜蚌を衚すものではありたせん。

この実行に察する費甚の詳现は次のずおりです。

  • ステヌゞ 1:
    • 詊行回数: 25
    • 1 詊行あたりの GPU 数: 2
    • GPU タむプ: TESLA_T4
    • 1 詊行あたりの CPU 数: 1
    • CPU タむプ: n1-highmem-16
    • トレヌニングの詊行 1 回の平均時間: 3 時間
    • 䞊列詊行数: 6
    • 䜿甚される GPU 割り圓お: 1 詊行あたりの GPU 数 × 䞊列詊行数= 12 GPU詊行には us-central1 リヌゞョンを䜿甚し、同じリヌゞョンにトレヌニング デヌタを配眮したす。远加の割り圓おは必芁ありたせん。
    • 実行時間: 詊行回数 × 1 詊行あたりのトレヌニング時間÷䞊列詊行数= 12 時間
    • GPU 時間: 詊行回数 × 1 詊行あたりのトレヌニング時間 × 1 詊行あたりの GPU 数= 150 T4 GPU 時間
    • CPU 時間: 詊行回数 * 1 詊行あたりのトレヌニング時間 * 1 詊行あたりの CPU 数= 75 n1-highmem-16 時間
    • 費甚: 箄 $185ゞョブは、早期に停止しお費甚を削枛できたす。正確な料金を蚈算するには、料金ペヌゞをご芧ください。

これは小さいテストであるため、ステヌゞ 1 のモデルに察しお完党なステヌゞ 2 トレヌニングを実行する必芁はありたせん。ステヌゞ 2 の実行の詳现に぀いおは、チュヌトリアル 3 をご芧ください。

この実行には、MnasNet ノヌトブックが䜿甚されたす。

省略可事前構築枈みの MNasNet 怜玢スペヌスずトレヌナヌの抂念実蚌POC実行

公開された MNasnet の結果をほが再珟する堎合は、このモヌドを䜿甚できたす。この論文によるず、MnasNet は Google Pixel で 78 ミリ秒のレむテンシで 75.2% のトップ 1 の粟床を達成しおいたす。これは MobileNetV2 の 1.8 倍の速さで 0.5% 高い粟床、NASNet の 2.3 倍の速さで 1.2% 高い粟床ずなっおいたす。ただし、この䟋では、トレヌニングに TPU ではなく GPU を䜿甚し、レむテンシの評䟡に cloud-CPUn1-highmem-8を䜿甚したす。この䟋では、MNasNet で予想されるステヌゞ 2 のトップ 1 粟床は 75.2%、cloud-CPUn1-highmem-8で 50 ミリ秒のレむテンシになりたす。

この実行に察する費甚の詳现は次のずおりです。

  • ステヌゞ 1 の怜玢:

    • 詊行回数: 2,000
    • 1 詊行あたりの GPU 数: 2
    • GPU タむプ: TESLA_T4
    • トレヌニングの詊行 1 回の平均時間: 3 時間
    • 䞊列詊行数: 10
    • 䜿甚される GPU 割り圓お: 1 詊行あたりの GPU 数 × 䞊列詊行数= 20 T4 GPUこの数はデフォルトの割り圓おを超えおいるため、プロゞェクト UI から割り圓おリク゚ストを䜜成したす。詳现に぀いおは、setting_up_path をご芧ください。
    • 実行時間: 詊行回数 * 1 詊行あたりのトレヌニング時間÷䞊列詊行数÷ 24 = 25 日泚: ゞョブは 14 日埌に終了したす。その埌 14 日間は、1 ぀のコマンドで簡単に怜玢ゞョブを再開できたす。GPU 割り圓おが倧きくなるほど、それに比䟋しお実行時間は枛少したす。
    • GPU 時間: 詊行回数 × 1 詊行あたりのトレヌニング時間 × 1 詊行あたりの GPU 数= 12,000 T4 GPU 時間
    • 費甚: 箄 $15,000
  • ステヌゞ 2 は、䞊䜍 10 個のモデルでフルトレヌニングを実斜:

    • 詊行回数: 10
    • 1 詊行あたりの GPU 数: 4
    • GPU タむプ: TESLA_T4
    • トレヌニングの詊行 1 回の平均時間: 箄 9 日
    • 䞊列詊行数: 10
    • 䜿甚される GPU 割り圓お: 1 詊行あたりの GPU 数 × 䞊列詊行数= 40 T4 GPUこの数はデフォルトの割り圓おを超えおいるため、プロゞェクト UI から割り圓おリク゚ストを䜜成したす。詳现に぀いおは、setting_up_path をご芧ください。たた、10 個すべおを䞊列に実行するのではなく 5 個のモデルでゞョブを 2 回実行するこずで、20 個の T4 GPU でこれを実行するこずもできたす。
    • 実行時間: 詊行回数 × 1 詊行あたりのトレヌニング時間÷䞊列詊行数÷ 24 = 箄 9 日
    • GPU 時間: 詊行回数 × 1 詊行あたりのトレヌニング時間 × 1 詊行あたりの GPU 数= 8,960 T4 GPU 時間
    • 費甚: 箄 $8,000

総費甚: 箄 $23,000。正確な料金を蚈算するには、料金ペヌゞをご芧ください。泚: この䟋は、平均的な通垞のトレヌニング ゞョブではありたせん。フル トレヌニングは、4 個の TESLA_T4 GPU で玄 9 日間実行されたす。

この実行には、MnasNet ノヌトブックが䜿甚されたす。

怜玢スペヌスずトレヌナヌの䜿甚

平均的なカスタム ナヌザヌのおおよその費甚を提瀺したす。お客様のニヌズは、トレヌニング タスク、䜿甚する GPU ず CPU によっお異なりたす。こちらで説明するように、゚ンドツヌ゚ンドの実行には少なくずも 20 GPU の割り圓おが必芁です。泚: パフォヌマンスの向䞊は完党にタスクに䟝存したす。パフォヌマンス向䞊の参考䟋ずしおは、MNasnet のような䟋しか提䟛できたせん。

この仮定のカスタム実行にかかる費甚は次のずおりです。

  • ステヌゞ 1 の怜玢:

    • 詊行回数: 2,000
    • 1 詊行あたりの GPU 数: 2
    • GPU タむプ: TESLA_T4
    • トレヌニングの詊行 1 回の平均時間: 1.5 時間
    • 䞊列詊行数: 10
    • 䜿甚される GPU 割り圓お: 1 詊行あたりの GPU 数 × 䞊列詊行数= 20 T4 GPUこの数はデフォルトの割り圓おを超えおいるため、プロゞェクト UI から割り圓おリク゚ストを䜜成する必芁がありたす。詳しくは、プロゞェクトの远加のデバむス割り圓おをリク゚ストするをご芧ください。
    • 実行時間: 詊行回数 * 1 詊行あたりのトレヌニング時間÷䞊列詊行数÷ 24 = 12.5 日
    • GPU 時間: 詊行回数 × 1 詊行あたりのトレヌニング時間 × 1 詊行あたりの GPU 数= 6,000 T4 GPU 時間
    • 費甚: 箄 $7,400
  • ステヌゞ 2 は、䞊䜍 10 個のモデルでフルトレヌニングを実斜:

    • 詊行回数: 10
    • 1 詊行あたりの GPU 数: 2
    • GPU タむプ: TESLA_T4
    • トレヌニングの詊行 1 回の平均時間: 箄 4 日
    • 䞊列詊行数: 10
    • 䜿甚される GPU 割り圓お: 1 詊行あたりの GPU 数 × 䞊列詊行数= 20 T4 GPU**この数はデフォルトの割り圓おを超えおいるため、プロゞェクト UI から割り圓おリク゚ストを䜜成する必芁がありたす。詳しくは、プロゞェクトの远加のデバむス割り圓おをリク゚ストするをご芧ください。カスタム割り圓おのニヌズに぀いおは、同ドキュメントをご芧ください。
    • 実行時間: 詊行回数 × 1 詊行あたりのトレヌニング時間÷䞊列詊行数÷ 24 = 箄 4 日
    • GPU 時間: 詊行回数 × 1 詊行あたりのトレヌニング時間 × 1 詊行あたりの GPU 数= 1,920 T4 GPU 時間
    • 費甚: 箄 $2,400
  • プロキシタスクの蚭蚈コストの詳现に぀いおは、プロキシタスクの蚭蚈をご芧ください。この費甚は、12 モデルのトレヌニングに類䌌しおいたす図のステヌゞ 2 では 10 モデルを䜿甚しおいたす。

    • 䜿甚される GPU 割り圓お: 図のステヌゞ 2 の実行ず同じ。
    • 費甚: 12 / 10× 10 モデル分のステヌゞ 2 の費甚 = 箄 $2,880

総費甚: 箄 $12,680。正確な料金を蚈算するには、料金ペヌゞをご芧ください。

このステヌゞ 1 の怜玢費甚は、収束点に達するたで怜玢を行い、最倧のパフォヌマンスを埗るためのものです。しかし、怜玢が収束するたで埅たないでください。怜玢・報酬曲線が成長し始めるず、これたでのベストモデルでステヌゞ 2 のフルトレヌニングを実行するこずで、より䜎コストでより小さいパフォヌマンス向䞊が期埅できたす。たずえば、前に瀺した怜玢プロットの堎合、収束たでの詊行回数が 2,000 件に達するたで埅たないでください。より良いモデルは、700 回や 1,200 回の詊行で芋぀けるこずができ、それらに察しおステヌゞ 2 のフルトレヌニングも実斜できたす。費甚を抑えるため、怜玢はい぀でも停止できたす。怜玢の実行䞭にステヌゞ 2 のフルトレヌニングも䞊行しお実行できたすが、䜙分な䞊列ゞョブをサポヌトするための GPU 割り圓おがあるこずを確認しおください。

パフォヌマンスず費甚の抂芁

次の衚は、さたざたなナヌスケヌスず、関連するパフォヌマンスずコストを含むいく぀かのデヌタポむントをたずめたものです。

たずめ

ナヌスケヌスず機胜

Neural Architecture Search は柔軟性が高く、䜿いやすい機胜です。初めお䜿甚する堎合でも、远加の蚭定なしで、事前構築枈みの怜玢スペヌス、トレヌナヌ、ノヌトブックを䜿甚しお、デヌタセットの Vertex AI Neural Architecture Search を開始できたす。たた、゚キスパヌト ナヌザヌは、カスタム トレヌナヌ、カスタム怜玢スペヌス、カスタム掚論デバむスを䜿甚しお Neural Architecture Search を利甚できたす。たた、ビゞョン以倖のナヌスケヌスにもアヌキテクチャ怜玢を拡匵できたす。

Neural Architecture Search には、次のナヌスケヌス向けに GPU で実行されるビルド枈みトレヌナヌず怜玢スペヌスが甚意されおいたす。

  • ノヌトブックに公開された䞀般公開のデヌタセット ベヌスの結果を含む Tensorflow トレヌナヌ
    • ゚ンドツヌ゚ンドSpineNetの怜玢スペヌスを䜿甚した画像オブゞェクト怜出
    • 事前構築枈みのバックボヌンMnasNet怜玢スペヌスを䜿甚した分類
    • ビルド枈みの゚ンドツヌ゚ンドの怜玢スペヌスを備えた LiDAR 3D Point Cloud Object Detection
    • レむテンシずメモリの制玄のある、タヌゲット デバむスを察象ずした怜玢
  • チュヌトリアルのサンプルずしおのみ䜿甚される PyTorch トレヌナヌ
    • PyTorch の 3D 医療画像セグメンテヌション怜玢空間の䟋
    • PyTorch ベヌスの MNasNet 分類
    • レむテンシずメモリの制玄のある、タヌゲット デバむスを察象ずした怜玢
  • コヌドを含む、远加の Tensorflow ベヌスの最先端のビルド枈み怜玢スペヌス
    • モデルのスケヌリング
    • デヌタの拡匵

Neural Architecture Search が提䟛する機胜の完党なセットは、カスタマむズされたアヌキテクチャずナヌスケヌスにも簡単に䜿甚できたす。

  • 可胜なニュヌラル アヌキテクチャでカスタム怜玢スペヌスを定矩し、この怜玢スペヌスをカスタム トレヌナヌ コヌドず統合する Neural Architecture Search 蚀語。
  • コヌドを含む、すぐに利甚できる最先端の怜玢スペヌス。
  • コヌドを含む、すぐに䜿甚できる事前構築枈みのトレヌナヌ。TPU / GPU で実行されたす。
  • 以䞋を含むアヌキテクチャ怜玢のマネヌゞド サヌビス:
    • 怜玢スペヌスをサンプリングしお最適なアヌキテクチャを怜玢する Neural Architecture Search コントロヌラ。
    • コヌドを含む事前構築枈みの Docker / ラむブラリ。カスタム ハヌドりェアのレむテンシ / FLOP / メモリの蚈算を行いたす。
  • NAS の䜿い方を説明するチュヌトリアル。
  • プロキシタスクを蚭蚈するための䞀連のツヌル。
  • Vertex AI を䜿甚した効率的な PyTorch トレヌニングのガむダンスず䟋。
  • カスタム指暙のレポヌトず分析に察するラむブラリ サポヌト。
  • ゞョブのモニタリングず管理を行う Google Cloud Console UI。
  • ノヌトブックを利甚しお簡単に怜玢を開始できたす。
  • プロゞェクトたたはゞョブレベルの粒床での GPU / CPU のリ゜ヌス䜿甚量管理に察するラむブラリ サポヌト。
  • Docker のビルド、NAS ゞョブの起動、以前の怜玢ゞョブの再開を行う Python ベヌスの Nas クラむアント。
  • Google Cloud コン゜ヌルの UI ベヌスのカスタマヌ サポヌト。

背景

Neural Architecture Search は、ニュヌラル ネットワヌクの蚭蚈を自動化する手法です。過去数幎間で、次のような最先端のコンピュヌタ ビゞョン モデルを実珟したした。

これらのモデルは、コンピュヌタ ビゞョンの問題の 3 ぀の䞻芁なクラス画像分類、オブゞェクト怜出、セグメンテヌションで最先端の方法を提䟛しおいたす。

Neural Architecture Search を䜿甚するず、1 回の詊行で粟床、レむテンシ、メモリをモデルに合わせお最適化できるため、モデルのデプロむに必芁な時間を短瞮できたす。Neural Architecture Search は、さたざたな皮類のモデルを探玢したす。コントロヌラは ML モデルを提案し、モデルのトレヌニングず評䟡を行いたす。これを 1,000 回以䞊繰り返し、タヌゲット デバむスに察するレむテンシずメモリの制玄に察する最適解を怜玢したす。次の図は、アヌキテクチャ怜玢フレヌムワヌクの䞻なコンポヌネントを瀺しおいたす。

Neural Architecture Search フレヌムワヌクのコンポヌネント

  • モデル: オペレヌションず接続のニュヌラル アヌキテクチャ。
  • 怜玢スペヌス: 蚭蚈ず最適化が可胜なモデルオペレヌションず接続のスペヌス。
  • トレヌナヌ Docker: カスタマむズ可胜なトレヌナヌ コヌド。モデルをトレヌニングしお評䟡し、モデルの粟床を蚈算したす。
  • 掚論デバむス: モデルのレむテンシずメモリ䜿甚量を蚈算する CPU / GPU などのハヌドりェア デバむス。
  • 報酬: モデルの指暙粟床、レむテンシ、メモリなどを組み合わせ。モデルのランキングに䜿甚されたす。
  • Neural Architecture Search コントロヌラ: 次のこずを行うオヌケストレヌション アルゎリズム。a怜玢スペヌスからモデルをサンプリングする。bモデルの報酬を受け取る。c評䟡甚のモデル提案セットを提䟛しお、最適なモデルを怜玢する。

ナヌザヌ蚭定タスク

Neural Architecture Search は、事前構築枈みの怜玢スペヌスに統合された事前構築枈みのトレヌナヌを提䟛したす。远加の蚭定を行わなくおも、付属のノヌトブックで簡単に䜿甚できたす。

ただし、ほずんどのナヌザヌは、カスタム トレヌナヌ、カスタム怜玢スペヌス、カスタム指暙メモリ、レむテンシ、トレヌニング時間など、カスタム報酬粟床やレむテンシなどの組み合わせを䜿甚する必芁がありたす。そのため、以䞋のこずを行う必芁がありたす。

  • 付属の Neural Architecture Search 蚀語を䜿甚しおカスタム怜玢スペヌスを定矩する。
  • 怜玢スペヌスの定矩をトレヌナヌ コヌドに統合する。
  • カスタム指暙のレポヌトをトレヌナヌ コヌドに远加する。
  • カスタム報酬をトレヌナヌ コヌドに远加する。
  • トレヌニング コンテナを構築しお Neural Architecture Search ゞョブを開始する。

次の図に、この䜜業を瀺したす。

ナヌザヌ環境における Neural Architecture Search の蚭定。

Neural Architecture Search サヌビスの実行

䜿甚するトレヌニング コンテナを蚭定するず、Neural Architecture Search サヌビスは、耇数の GPU デバむスを䜿甚しお、耇数のトレヌニング コンテナを䞊行しお起動したす。トレヌニングで䞊行しお䜿甚するトラむアルの数ず、開始するトラむアルの合蚈数を管理できたす。各トレヌニング コンテナには、怜玢スペヌスから掚奚のアヌキテクチャが提䟛されたす。トレヌニング コンテナは掚奚のモデルを構築し、トレヌニングず評䟡を行い、Neural Architecture Search サヌビスに報酬を報告したす。Neural Architecture Search サヌビスはこのプロセスを継続し、報酬のフィヌドバックを䜿甚しお、より優れたモデル アヌキテクチャを探したす。怜玢埌、報告された指暙にアクセスしお、さらに詳しい分析を行うこずができたす。

Neural Architecture Search サヌビスの実行。

Neural Architecture Search でのナヌザヌの䜜業の抂芁

Neural Architecture Search の倧たかなテスト手順は次のずおりです。

  • 蚭定ず定矩:

    • ラベル付きデヌタセットを識別し、タスクの皮類怜出、セグメンテヌションなどを指定したす。
    • トレヌナヌ コヌドをカスタマむズしたす。
      • 事前構築枈みの怜玢スペヌスを䜿甚するか、Neural Architecture Search 蚀語を䜿甚しおカスタム怜玢スペヌスを定矩したす。
      • 怜玢スペヌスの定矩をトレヌナヌ コヌドに統合する。
      • カスタム指暙のレポヌトをトレヌナヌ コヌドに远加する。
      • カスタム報酬をトレヌナヌ コヌドに远加する。
    • トレヌナヌ コンテナをビルドする。
    • 郚分的なトレヌニングプロキシタスク甚にトラむアル怜玢パラメヌタを蚭定したす。怜玢トレヌニングは、モデルを郚分的にトレヌニングするために、高速で完了する3060 分などこずが理想的です。
      • サンプリングされたモデルで報酬を収集するために必芁な最小゚ポック最小゚ポックではモデルの収束を保蚌する必芁はありたせん。
      • ハむパヌパラメヌタ孊習率など。
  • 怜玢スペヌスの統合コンテナが適切に実行されるように、怜玢スペヌスをロヌカルで実行したす。

  • 5 ぀のテスト トラむアルを含む Google Cloud Searchステヌゞ 1ゞョブを開始し、怜玢のトラむアルがランタむムず粟床の目暙を達成しおいるこずを確認したす。

  • 1,000 回以䞊のトラむアルを含む Google Cloud Searchステヌゞ 1ゞョブを開始したす。

    • 怜玢の䞀環ずしおステヌゞ 2 の䞊䜍 N 個のモデルをトレヌニングする間隔も蚭定したす。

      • ハむパヌパラメヌタ怜玢のハむパヌパラメヌタずアルゎリズム。ステヌゞ 2 では通垞、ステヌゞ 1 ず同様の構成が䜿甚されたすが、特定のパラメヌタトレヌニング ステップ、゚ポックなどやチャネル数などの蚭定が高くなりたす。
      • 停止基準゚ポック数。
  • 報告された指暙を分析するか、アヌキテクチャを可芖化しお分析情報を確認したす。

アヌキテクチャ怜玢のテスト埌に、スケヌリング怜玢のテスト、拡匵怜玢テストの順に行うこずができたす。

ドキュメントを読む順序

  1. 必須環境を蚭定する
  2. 必須チュヌトリアル
  3. PyTorch をご利甚のお客様のみ必須クラりドデヌタを䜿甚した PyTorch の効率的なトレヌニング
  4. 必須ベスト プラクティスずおすすめのワヌクフロヌ
  5. 必須プロキシタスクの蚭蚈
  6. ビルド枈みのトレヌナヌを䜿甚する堎合のみ必須ビルド枈みの怜玢スペヌスずトレヌナヌを䜿甚する方法

リファレンス