谷歌推出了一套名为 Gemma 的新人工智能模型,其中包括先进的 Gemma 2B 和 Gemma 7B。这些模型旨在为开发人员和研究人员提供强大的工具,优先考虑 AI 应用程序的安全性和可靠性。Gemma 的发布标志着 AI 领域迈出了重要一步,它提供了预训练和指令调整的格式,以促进负责任的 AI 技术的发展。
“一系列轻量级、最先进的开放式模型,由用于创建双子座模型的相同研究和技术构建”——谷歌。
Gemma 介绍的核心是负责任的生成式 AI 工具包。该工具包旨在支持开发对用户安全的 AI 应用程序。它配备了用于推理和监督微调 (SFT) 的工具链,这些工具链通过 Keras 3.0 与 JAX、PyTorch 和 TensorFlow 等流行框架兼容。这确保了开发人员可以轻松地将 Gemma 整合到他们现有的项目中,而无需进行大量修改。
Gemma 模型有多种尺寸可供选择,因此您可以根据可用的计算资源、所需的功能以及要运行它们的位置构建生成式 AI 解决方案。如果不确定从哪里开始,请尝试 2B 参数大小,以获得更低的资源要求和更灵活的部署模型位置。
Google Gemma 开放 AI 模型
Gemma 模型的主要特点之一是它们能够与各种平台无缝集成。无论您喜欢在 Colab、Kaggle、Hugging Face、MaxText、NVIDIA NeMo 还是 TensorRT-LLM 中工作,Gemma 模型都适合您的工作流程。它们针对 NVIDIA GPU 和 Google Cloud TPU 的性能进行了优化,这意味着它们可以在各种设备上高效运行,从个人笔记本电脑到 Google Cloud 上功能强大的服务器。
Google 对负责任的 AI 的承诺延伸到 Gemma 模型的商业使用和分发。各种规模的企业都可以在其项目中使用这些模型,这为将高级人工智能整合到各种应用程序中开辟了新的可能性。尽管可访问性强,但 Gemma 型号不会在性能上妥协。它们已被证明在关键基准测试中优于大型模型,证明了它们的有效性。
Gemma 模型的开发以 Google 的 AI 原则为指导。这包括实施安全措施,例如从训练集中删除敏感数据,以及将人类反馈强化学习 (RLHF) 用于指令调整模型。这些措施是谷歌更广泛承诺的一部分,以确保其人工智能模型的行为负责任。
Gemini 技术
为了保证 Gemma 模型的安全性,它们经过严格的评估。这些评估包括手动红队、自动对抗测试以及评估他们在潜在危险活动中的能力。该工具包还为安全分类、模型调试和最佳实践提供了资源。这些工具对于旨在创建既安全又可靠的 AI 应用程序的开发人员来说是必不可少的。
Gemma 模型由各种工具、系统和硬件支持,提供与多个框架和跨设备功能的兼容性。这包括针对 Google Cloud 的特定优化,可提高部署 AI 模型的效率和可扩展性。
对于那些有兴趣探索 Gemma 模型功能的人,Google 提供免费的研发积分。符合条件的研究人员可以通过 Kaggle、Colab 笔记本和 Google Cloud 等各种平台获得这些积分,从而提供试验这些高级 AI 模型的机会。
要了解有关 Gemma 模型以及如何将它们集成到您的 AI 项目中的更多信息,您可以访问 Google 的专用平台。此站点是一个资源中心,提供广泛的支持,帮助您利用 Google 的 Gemma 开放式 AI 模型开发负责任的 AI 的潜力。无论您是经验丰富的开发人员还是希望突破 AI 界限的研究人员,Gemma 都能提供必要的工具来创建不仅具有创新性,而且对用户安全可靠的应用程序。