Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
Les grands modèles de langage (LLM) peuvent traduire du langage, synthétiser du texte, générer du code créatif, générer du code, alimenter des chatbots et des assistants virtuels, et compléter les moteurs de recherche et les systèmes de recommandation. Parallèlement, en tant que technologie précoce, ses capacités et ses utilisations en constante évolution peuvent être sujettes à une mauvaise application, une utilisation abusive et des conséquences inattendues ou imprévues. Les grands modèles de langage peuvent générer des résultats inattendus, y compris du texte offensant, insensible ou incorrect.
De plus, l'incroyable polyvalence des LLM est également ce qui rend difficile de prédire exactement les types de résultats involontaires ou imprévus qu'ils pourraient produire. Compte tenu de ces risques et de ces complexités, les API d'IA générative Vertex AI sont conçues en tenant compte des Principes de Google concernant l'IA. Cependant, il est important que les développeurs comprennent et testent leurs modèles afin d'effectuer un déploiement en toute sécurité et de manière responsable. Pour aider les développeurs, Vertex AI Studio dispose d'un filtre de contenu intégré. Nos API d'IA générative intègrent également un score d'attribut de sécurité pour aider les clients à tester les filtres de sécurité de Google et à définir des seuils de confiance adaptés à leur cas d'utilisation et à leur activité.
Pour en savoir plus, consultez la section Filtres et attributs de sécurité.
Lorsque nos API génératives sont intégrées à votre propre cas d'utilisation et contexte, il peut s'avérer nécessaire de prendre en compte d'autres considérations et limites en matière d'IA responsable. Nous encourageons les clients à favoriser les pratiques recommandées d'équité, d'interprétabilité, de confidentialité et de sécurité.
Filtres et attributs de sécurité
Pour apprendre à utiliser les filtres et les attributs de sécurité pour une API, consultez les pages suivantes :
Les limites que vous pouvez rencontrer lors de l'utilisation de modèles d'IA générative sont les suivantes (sans s'y limiter) :
Cas particuliers : les cas particuliers font référence à des situations inhabituelles, rares ou exceptionnelles qui ne sont pas bien représentées dans les données d'entraînement. Ces cas peuvent entraîner des limites de performances du modèle, comme une confiance excessive du modèle, une mauvaise interprétation du contexte ou des sorties inappropriées.
Hallucinations du modèle, ancrage et factualité : les modèles d'IA générative peuvent manquer de factualité dans les connaissances réelles, les propriétés physiques ou la compréhension précise. Cette limitation peut conduire à des blocages du modèle, c'est-à-dire des instances dans lesquelles des résultats peuvent être générés de manière cohérente, mais statistiquement incorrecte, non pertinente, inappropriée ou absurde. Pour réduire ces risques, vous pouvez ancrer les modèles sur vos données spécifiques. Pour en savoir plus sur l'ancrage dans Vertex AI, consultez la page Présentation de l'ancrage.
Qualité et réglage des données : la qualité, la précision et le biais de la requête ou des saisies de données dans un modèle peuvent avoir un impact significatif sur ses performances. Si les utilisateurs saisissent des données ou des requêtes inexactes ou incorrectes, le modèle peut présenter des performances non optimales ou de fausses sorties de modèle.
Amplification des biais : les modèles d'IA générative peuvent amplifier par inadvertance les biais existants dans leurs données d'entraînement, ce qui peut se traduire par un renforcement supplémentaire des préjugés sociétaux et du traitement inégal de certains groupes.
Qualité du langage : bien que les modèles offrent des capacités multilingues impressionnantes sur les critères de référence que nous avons évalués, la majorité de nos benchmarks (y compris toutes les évaluations de l'équité) sont en anglais. Pour en savoir plus, consultez le blog Google Research.
Les modèles d'IA générative peuvent fournir une qualité de service incohérente à différents utilisateurs. Par exemple, la génération de texte peut ne pas être aussi efficace pour certains dialectes ou variantes de langues en raison de la sous-représentation des données d'entraînement. Les performances peuvent être inférieures pour les langues autres que l'anglais ou pour les langues anglaises moins représentées.
Analyses comparatives et sous-groupes d'équité : les analyses d'équité de nos modèles d'IA générative fournies par Google Research ne fournissent pas un compte exhaustif des différents risques potentiels. Par exemple, nous nous concentrons sur les biais en fonction du genre, de l'origine ethnique, de la philosophie et de la culture, mais nous n'effectuons l'analyse que sur les données en anglais et les résultats du modèle. Pour en savoir plus, consultez le blog Google Research.
Expertise de domaine limitée : les modèles d'IA générative peuvent ne pas posséder les connaissances nécessaires pour fournir des réponses précises et détaillées sur des sujets hautement spécialisés ou techniques, ce qui entraîne des informations fictives ou incorrectes. Pour les cas d'utilisation spécialisés et complexes, les modèles doivent être adaptés aux données spécifiques au domaine et une supervision humaine significative doit être effectuée dans les contextes ayant un impact potentiel sur les droits individuels.
Longueur et structure des entrées et des sorties : les modèles d'IA générative ont une limite maximale de jetons d'entrée et de sortie. Si l'entrée ou la sortie dépasse cette limite, nos classificateurs de sécurité ne sont pas appliqués, ce qui peut à terme entraîner de mauvaises performances du modèle. Bien que nos modèles soient conçus pour gérer un large éventail de formats de texte, leurs performances peuvent être affectées si les données d'entrée ont une structure inhabituelle ou complexe.
Pratiques recommandées
Pour utiliser cette technologie de manière sécurisée et responsable, il est également important de prendre en compte d'autres risques spécifiques à votre cas d'utilisation, aux utilisateurs et au contexte commercial en plus des protections techniques intégrées.
Nous vous recommandons de suivre les étapes ci-dessous :
Évaluez les risques de sécurité de votre application.
Effectuez des tests de sécurité adaptés à votre cas d'utilisation.
Configurez des filtres de sécurité si nécessaire.
Encouragez les utilisateurs à envoyer des commentaires et surveillez le contenu.
Signaler un abus
Vous pouvez signaler une utilisation abusive du service, ou toute sortie générée contenant du contenu inapproprié ou des informations inexactes via le formulaire suivant : Signaler un abus présumé sur Google Cloud.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2024/12/19 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Difficile à comprendre","hardToUnderstand","thumb-down"],["Informations ou exemple de code incorrects","incorrectInformationOrSampleCode","thumb-down"],["Il n'y a pas l'information/les exemples dont j'ai besoin","missingTheInformationSamplesINeed","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2024/12/19 (UTC)."],[],[],null,["# Responsible AI\n\nLarge language models (LLMs) can translate language, summarize text, generate\ncreative writing, generate code, power chatbots and virtual assistants, and\ncomplement search engines and recommendation systems. At the same time, as an\nearly-stage technology, its evolving capabilities and uses create potential for\nmisapplication, misuse, and unintended or unforeseen consequences. Large\nlanguage models can generate output that you don't expect, including text that's\noffensive, insensitive, or factually incorrect.\n\nWhat's more, the incredible versatility of LLMs is also what makes it difficult\nto predict exactly what kinds of unintended or unforeseen outputs they might\nproduce. Given these risks and complexities, Vertex AI generative AI APIs are designed with\n[Google's AI Principles](https://ai.google/principles/) in mind. However, it is important for developers to understand\nand test their models to deploy safely and responsibly. To aid developers, the\nVertex AI Studio has built-in content filtering, and our generative AI APIs have\nsafety attribute scoring to help customers test Google's safety filters and\ndefine confidence thresholds that are right for their use case and business.\nRefer to the [Safety filters and attributes](#safety_filters_and_attributes)\nsection to learn more.\n\nWhen our generative APIs are integrated into your unique use case and context,\nadditional responsible AI considerations and\n[limitations](#limitations)\nmight need to be considered. We encourage customers to promote fairness,\ninterpretability, privacy and security\n[recommended practices](https://ai.google/responsibilities/responsible-ai-practices/).\n\nSafety filters and attributes\n-----------------------------\n\nTo learn how to use safety filters and attributes for an API,\nsee [Gemini API in Vertex AI](/vertex-ai/generative-ai/docs/multimodal/configure-safety-attributes).\n\nModel limitations\n-----------------\n\n*Limitations you can encounter when using generative AI models include (but\nare not limited to):*\n\n- **Edge cases**: Edge cases refer to unusual, rare, or exceptional situations\n that are not well-represented in the training data. These cases can lead to\n limitations in the performance of the model, such as model overconfidence,\n misinterpretation of context, or inappropriate outputs.\n\n- **Model hallucinations, grounding, and factuality** : Generative AI models\n can lack factuality in real-world knowledge, physical properties, or\n accurate understanding. This limitation can lead to model hallucinations,\n which refer to instances where it can generate outputs that are\n plausible-sounding but factually incorrect, irrelevant, inappropriate, or\n nonsensical. To reduce this chance, you can ground the models to your\n specific data. To learn more about grounding in Vertex AI, see\n [Grounding overview](/vertex-ai/generative-ai/docs/grounding/overview).\n\n- **Data quality and tuning**: The quality, accuracy, and bias of the prompt\n or data input into a model can have a significant impact on its\n performance. If users enter inaccurate or incorrect data or prompts, the\n model can have suboptimal performance or false model outputs.\n\n- **Bias amplification**: Generative AI models can inadvertently amplify\n existing biases in their training data, leading to outputs that can further\n reinforce societal prejudices and unequal treatment of certain groups.\n\n- **Language quality** : While the models yield impressive multilingual\n capabilities on the benchmarks we evaluated against, the majority of our\n benchmarks (including all of fairness evaluations) are in the English\n language. For more information, see the\n [Google Research blog](https://ai.googleblog.com/2022/04/pathways-language-model-palm-scaling-to.html).\n\n - Generative AI models can provide inconsistent service quality to different users. For example, text generation might not be as effective for some dialects or language varieties due to underrepresentation in the training data. Performance can be worse for non-English languages or English language varieties with less representation.\n- **Fairness benchmarks and subgroups** : Google Research's fairness analyses\n of our generative AI models don't provide an exhaustive account of the\n various potential risks. For example, we focus on biases along gender, race,\n ethnicity and religion axes, but perform the analysis only on the English\n language data and model outputs. For more information, see the\n [Google Research blog](https://ai.googleblog.com/2022/04/pathways-language-model-palm-scaling-to.html).\n\n- **Limited domain expertise**: Generative AI models can lack the depth of\n knowledge required to provide accurate and detailed responses on highly\n specialized or technical topics, leading to superficial or incorrect\n information. For specialized, complex use cases, models should be tuned on\n domain-specific data, and there must be meaningful human supervision in\n contexts with the potential to materially impact individual rights.\n\n- **Length and structure of inputs and outputs**: Generative AI models have a\n maximum input and output token limit. If the input or output exceeds this\n limit, our safety classifiers are not applied, which could ultimately lead\n to poor model performance. While our models are designed to handle a wide\n range of text formats, their performance can be affected if the input data\n has an unusual or complex structure.\n\nRecommended practices\n---------------------\n\nTo utilize this technology safely and responsibly, it is also important to\nconsider other risks specific to your use case, users, and business context in\naddition to built-in technical safeguards.\n\nWe recommend taking the following steps:\n\n1. Assess your application's security risks.\n2. Perform safety testing appropriate to your use case.\n3. Configure safety filters if required.\n4. Solicit user feedback and monitor content.\n\nReport abuse\n------------\n\nYou can report suspected abuse of the Service or any generated output that\ncontains inappropriate material or inaccurate information by using the following\nform:\n[Report suspected abuse on Google Cloud](https://support.google.com/code/contact/cloud_platform_report).\n\nAdditional resources\n--------------------\n\n- Learn about [abuse monitoring](/vertex-ai/generative-ai/docs/learn/abuse-monitoring).\n- Learn more about Google's recommendations for [Responsible AI practices](https://ai.google/responsibilities/responsible-ai-practices/?category=general).\n- Read our blog, [A shared agenda for responsible AI progress](https://blog.google/technology/ai/a-shared-agenda-for-responsible-ai-progress/)"]]