A partire dal 29 aprile 2025, i modelli Gemini 1.5 Pro e Gemini 1.5 Flash non sono disponibili nei progetti che non li hanno mai utilizzati, inclusi i nuovi progetti. Per maggiori dettagli, vedi Versioni e ciclo di vita dei modelli.
Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
Gemini 2.5 Flash-Lite è il nostro modello Gemini più equilibrato,
ottimizzato per i casi d'uso a bassa latenza. Offre le stesse funzionalità che
rendono utili gli altri modelli Gemini 2.5, come la possibilità di attivare
il pensiero con budget diversi, la connessione a strumenti come
Grounding con la Ricerca Google e l'esecuzione di codice, l'input multimodale e
una lunghezza del contesto di 1 milione di token.
Per informazioni tecniche ancora più dettagliate su Gemini 2.5 Flash-Lite (ad esempio
benchmark delle prestazioni, informazioni sui nostri set di dati di addestramento, iniziative per
la sostenibilità, utilizzo e limitazioni previsti e il nostro approccio all'etica e
alla sicurezza), consulta il nostro report
tecnico
sui nostri modelli Gemini 2.5.
Nota: per utilizzare la funzionalità "Esegui il deployment dell'app di esempio", devi disporre di un progetto Google Cloud con la fatturazione e l'API Vertex AI abilitate.
ID modello
gemini-2.5-flash-lite
Ingressi e uscite supportati
Input:
Testo,
Codice,
Immagini,
Audio,
Video
Output:
Testo
Limiti di token
Token di input massimi: 1.048.576
Numero massimo di token di output: 65.536 (valore predefinito)
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Difficile da capire","hardToUnderstand","thumb-down"],["Informazioni o codice di esempio errati","incorrectInformationOrSampleCode","thumb-down"],["Mancano le informazioni o gli esempi di cui ho bisogno","missingTheInformationSamplesINeed","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2025-09-02 UTC."],[],[],null,["# Gemini 2.5 Flash-Lite is our most balanced Gemini model,\noptimized for low latency use cases. It comes with the same capabilities that\nmake other Gemini 2.5 models helpful, such as the ability to turn\nthinking on at different budgets, connecting to tools like\nGrounding with Google Search and code execution, multimodal input, and\na 1 million-token context length.\n\nFor even more detailed technical information on Gemini 2.5 Flash-Lite (such as\nperformance benchmarks, information on our training datasets, efforts on\nsustainability, intended usage and limitations, and our approach to ethics and\nsafety), see our [technical\nreport](https://storage.googleapis.com/deepmind-media/gemini/gemini_v2_5_report.pdf)\non our Gemini 2.5 models.\n\n\n[Try in Vertex AI](https://console.cloud.google.com/vertex-ai/generative/multimodal/create/text?model=gemini-2.5-flash-lite) [(Preview) Deploy example app](https://console.cloud.google.com/vertex-ai/studio/multimodal?suggestedPrompt=How%20does%20AI%20work&deploy=true&model=gemini-2.5-flash-lite)\nNote: To use the \"Deploy example app\" feature, you need a Google Cloud project with billing and Vertex AI API enabled."]]