DeepSeek-Modelle in Vertex AI bieten vollständig verwaltete und serverlose Modelle als APIs. Wenn Sie ein DeepSeek-Modell für Vertex AI verwenden möchten, senden Sie eine Anfrage direkt an den API-Endpunkt von Vertex AI. Da DeepSeek-Modelle eine verwaltete API verwenden, muss keine Infrastruktur bereitgestellt oder verwaltet werden.
Sie können Ihre Antworten streamen, um die vom Endnutzer wahrgenommene Latenz zu reduzieren. Eine gestreamte Antwort verwendet vom Server gesendete Ereignisse (SSE, Server-Sent Events), um die Antwort schrittweise zu streamen.
Verfügbare DeepSeek-Modelle
Die folgenden Modelle sind von DeepSeek zur Verwendung in Vertex AI verfügbar. Rufen Sie die zugehörige Model Garden-Modellkarte auf, um auf ein DeepSeek-Modell zuzugreifen.
DeepSeek-V3.1
DeepSeek-V3.1 ist ein hybrides Modell, das sowohl den Denkmodus als auch den Nicht-Denkmodus unterstützt. Im Vergleich zur vorherigen Version bietet dieses Upgrade Verbesserungen bei hybriden Denkmodi, Tool-Aufrufen und der Effizienz des Denkprozesses.
DeepSeek R1 (0528)
DeepSeek R1 (0528) ist die neueste Version des DeepSeek R1-Modells. Im Vergleich zu DeepSeek-R1 hat es eine deutlich verbesserte Tiefe der Argumentation und der Inferenz. DeepSeek R1 (0528) eignet sich für eine Vielzahl von Aufgaben, z. B. kreatives Schreiben, allgemeine Fragen und Antworten, Bearbeiten und Zusammenfassen.
Hinweise
- Für die produktionsreife Sicherheit integrieren Sie DeepSeek R1 (0528) mit Model Armor, das LLM-Prompts und ‑Antworten auf verschiedene Sicherheitsrisiken prüft.
Zur Modellkarte „DeepSeek R1 (0528)“
DeepSeek-Modelle verwenden
Sie können curl-Befehle verwenden, um Anfragen mit den folgenden Modellnamen an den Vertex AI-Endpunkt zu senden:
- Verwenden Sie für DeepSeek-V3.1
deepseek-v3.1-maas
. - Verwenden Sie für DeepSeek R1 (0528)
deepseek-r1-0528-maas
.
Hinweise
Führen Sie die folgenden Schritte aus, um DeepSeek-Modelle mit Vertex AI zu verwenden. Die Vertex AI API (aiplatform.googleapis.com
) muss aktiviert sein, um Vertex AI verwenden zu können. Wenn Sie bereits ein Projekt mit aktivierter Vertex AI API haben, können Sie dieses Projekt verwenden, anstatt ein neues Projekt zu erstellen.
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Verify that billing is enabled for your Google Cloud project.
-
Enable the Vertex AI API.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Verify that billing is enabled for your Google Cloud project.
-
Enable the Vertex AI API.
- Rufen Sie eine der folgenden Model Garden-Modellkarten auf und klicken Sie auf Aktivieren:
- LOCATION: Eine Region, die DeepSeek-Modelle unterstützt.
- MODEL: Der Modellname, den Sie verwenden möchten.
- ROLE: Die einer Nachricht zugeordnete Rolle. Sie können
user
oderassistant
angeben. Die erste Nachricht muss die Rolleuser
verwenden. Die Modelle arbeiten mit abwechselndenuser
- undassistant
-Runden. Wenn die endgültige Nachricht die Rolleassistant
verwendet, wird der Antwortinhalt direkt vom Inhalt dieser Nachricht aus fortgesetzt. Damit können Sie einen Teil der Antwort des Modells einschränken. - CONTENT: Der Inhalt, z. B. Text der
user
- oderassistant
-Nachricht. - MAX_OUTPUT_TOKENS: Maximale Anzahl an Tokens, die in der Antwort generiert werden können. Ein Token besteht aus etwa vier Zeichen. 100 Tokens entsprechen etwa 60–80 Wörtern.
Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an.
- STREAM: Ein boolescher Wert, mit dem angegeben wird, ob die Antwort gestreamt wird oder nicht. Streamen Sie Ihre Antwort, um die vom Endnutzer wahrgenommene Latenz zu reduzieren. Legen Sie
true
fest, um die Antwort zu streamen, undfalse
, um die Antwort auf einmal zurückzugeben. - LOCATION: Eine Region, die DeepSeek-Modelle unterstützt.
- MODEL: Der Modellname, den Sie verwenden möchten.
- ROLE: Die einer Nachricht zugeordnete Rolle. Sie können
user
oderassistant
angeben. Die erste Nachricht muss die Rolleuser
verwenden. Die Modelle arbeiten mit abwechselndenuser
- undassistant
-Runden. Wenn die endgültige Nachricht die Rolleassistant
verwendet, wird der Antwortinhalt direkt vom Inhalt dieser Nachricht aus fortgesetzt. Damit können Sie einen Teil der Antwort des Modells einschränken. - CONTENT: Der Inhalt, z. B. Text der
user
- oderassistant
-Nachricht. - MAX_OUTPUT_TOKENS: Maximale Anzahl an Tokens, die in der Antwort generiert werden können. Ein Token besteht aus etwa vier Zeichen. 100 Tokens entsprechen etwa 60–80 Wörtern.
Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an.
- STREAM: Ein boolescher Wert, mit dem angegeben wird, ob die Antwort gestreamt wird oder nicht. Streamen Sie Ihre Antwort, um die vom Endnutzer wahrgenommene Latenz zu reduzieren. Legen Sie
true
fest, um die Antwort zu streamen, undfalse
, um die Antwort auf einmal zurückzugeben. - QPM: 1000
Streaming-Aufruf an ein DeepSeek-Modell senden
Im folgenden Beispiel wird ein Streaming-Aufruf an ein DeepSeek-Modell gesendet:
REST
Nachdem Sie Ihre Umgebung eingerichtet haben, können Sie mit REST einen Text-Prompt testen. Im folgenden Beispiel wird eine Anfrage an den Publisher gesendet Modellendpunkt zu erstellen.
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
HTTP-Methode und URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/endpoints/openapi/chat/completions
JSON-Text der Anfrage:
{ "model": "deepseek-ai/MODEL", "messages": [ { "role": "ROLE", "content": "CONTENT" } ], "max_tokens": MAX_OUTPUT_TOKENS, "stream": true }
Wenn Sie die Anfrage senden möchten, wählen Sie eine der folgenden Optionen aus:
curl
Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json
und führen Sie den folgenden Befehl aus:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/endpoints/openapi/chat/completions"
PowerShell
Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json
und führen Sie den folgenden Befehl aus:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/endpoints/openapi/chat/completions" | Select-Object -Expand Content
Sie sollten eine JSON-Antwort ähnlich wie diese erhalten:
Nicht-Streaming-Aufruf an ein DeepSeek-Modell senden
Im folgenden Beispiel wird ein Nicht-Streaming-Aufruf an ein DeepSeek-Modell gesendet:
REST
Nachdem Sie Ihre Umgebung eingerichtet haben, können Sie mit REST einen Text-Prompt testen. Im folgenden Beispiel wird eine Anfrage an den Publisher gesendet Modellendpunkt zu erstellen.
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
HTTP-Methode und URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/endpoints/openapi/chat/completions
JSON-Text der Anfrage:
{ "model": "deepseek-ai/MODEL", "messages": [ { "role": "ROLE", "content": "CONTENT" } ], "max_tokens": MAX_OUTPUT_TOKENS, "stream": false }
Wenn Sie die Anfrage senden möchten, wählen Sie eine der folgenden Optionen aus:
curl
Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json
und führen Sie den folgenden Befehl aus:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/endpoints/openapi/chat/completions"
PowerShell
Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json
und führen Sie den folgenden Befehl aus:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/endpoints/openapi/chat/completions" | Select-Object -Expand Content
Sie sollten eine JSON-Antwort ähnlich wie diese erhalten:
Verfügbarkeit und Kontingente der DeepSeek-Modellregion
Bei DeepSeek-Modellen gilt ein Kontingent für jede Region, in der das Modell verfügbar ist. Das Kontingent wird in Abfragen pro Minute (Queries per minute, QPM) angegeben.
Modell | Region | Kontingente | Kontextlänge |
---|---|---|---|
DeepSeek-V3.1 | |||
us-west2 |
|
163.840 | |
DeepSeek R1 (0528) | |||
us-central1 |
|
163.840 |
Wenn Sie eines der Kontingente für generative KI auf Vertex AI erhöhen möchten, können Sie über die Google Cloud Console eine Kontingenterhöhung anfordern. Weitere Informationen zu Kontingenten finden Sie unter Mit Kontingenten arbeiten.