数据治理和生成式 AI

Google 是业界首家发布 AI/机器学习隐私权承诺的公司之一,该承诺概述了客户应拥有最高级别安全性并能够控制其在云中存储的数据的这一信念。该承诺会延伸到 Google Cloud 生成式 AI 产品。Google 通过健全的数据治理实践(包括审核 Google Cloud 在其产品开发中使用的数据),帮助确保 Google 团队遵循这些承诺。如需详细了解 Google 如何处理数据,另请参阅 Google 的客户数据处理附录 (CDPA)

生成式 AI 的使用情况

AI Applications 使用生成式 AI 服务来打造搜索、个性化和对话式体验。

根据 Google Cloud AI/机器学习隐私保护承诺,AI 应用中使用的客户数据不会用于训练基础模型。

基础模型处于冻结状态,仅处理输入,以提供 AI 应用所提供服务的输出。

特定客户的模型

在适用情况下,系统会自动构建特定于客户的模型,并且仅在特定于客户的 AI 应用服务的项目中使用。

用于创建这些客户专用模型的任何客户数据都不会用于训练基础模型。

与所有客户数据一样,客户专用模型将继续受到 Google 的安全控制措施和最佳实践的保护。