Google Gemma 开源 AI 经过优化,可在 NVIDIA GPU 上运行

Google Gemma 开源 AI 经过优化,可在 NVIDIA GPU 上运行

Google Gemma 开源 AI 经过优化,可在 NVIDIA GPU 上运行

谷歌采取了重大举措,与人工智能硬件领域的巨头英伟达联手,以提高其 Gemma 语言模型的能力。这项合作旨在提高那些使用人工智能应用程序的人的效率和速度,使其成为科技界的一个值得注意的发展。

Google Gemma AI 模型已经升级,现在有两个版本,一个有 20 亿个参数,另一个有 70 亿个参数。这些型号经过专门设计,可充分利用 NVIDIA 的尖端 AI 平台。此次升级对广泛的用户都有好处,从运行大型数据中心的用户到使用个人计算机的个人,因为 Gemma 型号现在经过优化以提供一流的性能。

此增强功能的核心是 NVIDIA 的 TensorRT-LLM,这是一个开源库,有助于优化 NVIDIA GPU 上的大型语言模型推理。该工具对于确保 Gemma 以最佳性能运行至关重要,为用户提供更快、更精确的 AI 交互。

Google Gemma

其中一项关键改进是 Gemma 与各种 NVIDIA 硬件的兼容性。现在,全球有超过 1 亿个 NVIDIA RTX GPU 可以支持 Gemma,这大大增加了其影响力。这包括数据中心中强大的 GPU、云中的 A3 实例以及个人计算机中的 NVIDIA RTX GPU。

在云计算领域,谷歌云计划采用 NVIDIA 的 H200 Tensor Core GPU,该 GPU 拥有先进的内存功能。这种集成有望提高 Gemma 模型的性能,特别是在基于云的应用程序中,从而提供更快、更可靠的 AI 服务。NVIDIA 的贡献不仅限于硬件;该公司还为企业开发人员提供一套全面的工具。这些工具旨在帮助在各种生产环境中微调和部署 Gemma,从而简化 AI 服务的开发过程,无论它们是复杂的还是简单的。

对于那些希望进一步定制其 AI 项目的人,NVIDIA 提供了对模型检查点和 Gemma 量化版本的访问,所有这些都使用 TensorRT-LLM 进行了优化。这允许在 AI 项目中实现更详细的改进和效率。NVIDIA AI Playground 是一个用户友好的平台,可直接与 Gemma 模型进行交互。该平台旨在易于访问,无需复杂的设置过程,对于那些想要快速深入了解 Gemma 所提供的功能的人来说,这是一个很好的资源。

这种集成的一个有趣元素是 Gemma 与 NVIDIA 的 Chat with RTX 技术演示的结合。此演示利用 Gemma 在 RTX 驱动的 PC 上的生成式 AI 功能来提供个性化的聊天机器人体验。它速度快,并通过在本地运行来维护数据隐私,这意味着它不依赖于云连接。

总体而言,Google 的 Gemma 模型在针对 NVIDIA GPU 的优化方面取得了重大进展。这一进步为开发人员带来了更高的性能、广泛的硬件支持和强大的工具,使 Gemma 成为 AI 驱动应用程序的有力竞争者。Google 和 NVIDIA 之间的合作伙伴关系有望为开发人员和最终用户提供强大且易于访问的 AI 体验,这标志着 AI 技术发展的重要一步。

© 版权声明

相关文章

天猫U特购  京东优惠购        京东优惠    天猫优惠