トレーシング
Agents SDK には組み込みのトレーシングが含まれており、エージェントの実行中に発生するイベントの包括的な記録を収集します。LLM 生成、ツール呼び出し、ハンドオフ、ガードレール、さらにはカスタムイベントも対象です。Traces ダッシュボード を使用して、開発中および本番環境でワークフローをデバッグ、可視化、監視できます。
エクスポートループのライフサイクル
Section titled “エクスポートループのライフサイクル”ほとんどの環境では、トレースは定期的に自動エクスポートされます。ブラウザや Cloudflare Workers では、この機能はデフォルトで無効です。トレースが大量にキューにたまった場合はエクスポートされますが、定期的なエクスポートは行われません。代わりに、コードのライフサイクルの一部として getGlobalTraceProvider().forceFlush()
を使用して手動でエクスポートしてください。
たとえば Cloudflare Worker では、コード全体を try/catch/finally
ブロックでラップし、waitUntil
とあわせて強制フラッシュを使い、ワーカーの終了前にトレースがエクスポートされるようにします。
import { getGlobalTraceProvider } from '@openai/agents';
export default { async fetch(request, env, ctx): Promise<Response> { try { // your agent code here return new Response(`success`); } catch (error) { console.error(error); return new Response(String(error), { status: 500 }); } finally { // make sure to flush any remaining traces before exiting ctx.waitUntil(getGlobalTraceProvider().forceFlush()); } },};
トレースとスパン
Section titled “トレースとスパン”- トレース は「ワークフロー」の単一のエンドツーエンド処理を表します。スパンで構成されます。トレースには次のプロパティがあります:
workflow_name
: 論理的なワークフローまたはアプリ名。例: “Code generation” や “Customer service”trace_id
: トレースの一意の ID。未指定の場合は自動生成。形式はtrace_<32_alphanumeric>
group_id
: 任意のグループ ID。同じ会話からの複数のトレースを紐づけるために使用。例えばチャットスレッド ID などdisabled
: True の場合、このトレースは記録されないmetadata
: トレースの任意のメタデータ
- スパン は開始時刻と終了時刻を持つ処理を表します。スパンには次があります:
started_at
とended_at
のタイムスタンプ- 所属するトレースを示す
trace_id
- 親スパンを指す
parent_id
(ある場合) - スパンに関する情報である
span_data
。例えばAgentSpanData
はエージェントに関する情報、GenerationSpanData
は LLM 生成に関する情報など
デフォルトのトレーシング
Section titled “デフォルトのトレーシング”デフォルトで、SDK は次をトレースします:
run()
またはRunner.run()
全体がTrace
でラップされる- エージェントが実行されるたびに
AgentSpan
でラップされる - LLM 生成は
GenerationSpan
でラップされる - 関数ツールの呼び出しはそれぞれ
FunctionSpan
でラップされる - ガードレールは
GuardrailSpan
でラップされる - ハンドオフは
HandoffSpan
でラップされる
デフォルトではトレース名は “Agent workflow” です。withTrace
を使ってこの名前を設定できます。または、RunConfig.workflowName
で名前やその他のプロパティを設定できます。
さらに、カスタムトレーシングプロセッサー を設定して、トレースを別の送信先にプッシュできます(置き換え、またはセカンダリ送信先として)。
音声エージェントのトレーシング
Section titled “音声エージェントのトレーシング”RealtimeAgent
と RealtimeSession
をデフォルトの OpenAI Realtime API と一緒に使用している場合、RealtimeSession
で tracingDisabled: true
を設定するか、環境変数 OPENAI_AGENTS_DISABLE_TRACING
を使用して無効化しない限り、トレーシングは Realtime API 側で自動的に行われます。
詳細は音声エージェントの概要を参照してください。
上位レベルのトレース
Section titled “上位レベルのトレース”run()
の複数回の呼び出しを 1 つのトレースにまとめたい場合があります。その場合はコード全体を withTrace()
でラップします。
import { Agent, run, withTrace } from '@openai/agents';
const agent = new Agent({ name: 'Joke generator', instructions: 'Tell funny jokes.',});
await withTrace('Joke workflow', async () => { const result = await run(agent, 'Tell me a joke'); const secondResult = await run( agent, `Rate this joke: ${result.finalOutput}`, ); console.log(`Joke: ${result.finalOutput}`); console.log(`Rating: ${secondResult.finalOutput}`);});
- 2 回の
run
呼び出しがwithTrace()
によってラップされているため、個々の実行は 2 つのトレースを作成するのではなく、全体のトレースの一部になります。
トレースの作成
Section titled “トレースの作成”withTrace()
関数を使用してトレースを作成できます。あるいは、getGlobalTraceProvider().createTrace()
を使って手動で新しいトレースを作成し、それを withTrace()
に渡すこともできます。
現在のトレースは Node.js の AsyncLocalStorage
または対応する環境ポリフィルを通じて追跡されます。これにより自動的に並行実行にも対応します。
スパンの作成
Section titled “スパンの作成”create*Span()
(例: createGenerationSpan()
, createFunctionSpan()
など)各種メソッドでスパンを作成できます。一般的にはスパンを手動で作成する必要はありません。カスタムスパン情報を追跡するための createCustomSpan()
関数が利用できます。
スパンは自動的に現在のトレースの一部となり、Node.js の AsyncLocalStorage
または対応する環境ポリフィルで追跡される最も近い現在のスパンの下にネストされます。
機微なデータ
Section titled “機微なデータ”一部のスパンは機微なデータを含む可能性があります。
createGenerationSpan()
は LLM 生成の入出力を、createFunctionSpan()
は関数呼び出しの入出力を保存します。これらには機微なデータが含まれる可能性があるため、RunConfig.traceIncludeSensitiveData
でそのデータの取得を無効にできます。
カスタムトレーシングプロセッサー
Section titled “カスタムトレーシングプロセッサー”トレーシングの高レベルなアーキテクチャは次のとおりです:
- 初期化時にグローバルな
TraceProvider
を作成します。これはトレースの作成を担い、getGlobalTraceProvider()
でアクセスできます。 TraceProvider
にはBatchTraceProcessor
を設定し、トレース/スパンをバッチでOpenAITracingExporter
に送信します。エクスポーターはスパンとトレースを OpenAI のバックエンドへバッチでエクスポートします。
このデフォルト設定をカスタマイズして、別のバックエンドへ追加または代替で送信したり、エクスポーターの動作を変更するには次の 2 つの方法があります:
addTraceProcessor()
は、トレースやスパンが準備でき次第受け取る追加のトレースプロセッサーを追加できます。これにより、OpenAI のバックエンドへの送信に加えて独自の処理を実行できます。setTraceProcessors()
は、デフォルトのプロセッサーを独自のトレースプロセッサーに置き換えます。つまり、OpenAI のバックエンドに送信するTracingProcessor
を含めない限り、トレースは OpenAI に送信されません。