在人工智能领域,ChatGPT证明了现代硬件的力量。这款AI聊天机器人是OpenAI和Microsoft合作的产物,由一系列令人印象深刻的NVIDIA V100和A100 GPU集群提供支持。这些 GPU 专为 AI 和分析应用程序而设计,是 ChatGPT 基础架构的支柱。
NVIDIA A100 GPU是ChatGPT的主要硬件组件,不是普通的游戏GPU。它没有显示出来,表明它在人工智能应用中的特殊作用。该GPU有两个版本:PCI Express版本和SXM4版本。后者在数据中心更为普遍,因为它能够处理更高的电力负载。A4的SXM100版本可以使用高达500瓦的功率,从而实现卓越的性能。
英伟达 V100 张量核心
NVIDIA V100 张量核心目前处于数据中心 GPU 的顶端,专为提升人工智能、高性能计算 (HPC)、新兴的数据科学和图形渲染领域的能力而构建。利用尖端的NVIDIA Volta架构作为其动力源,该GPU提供16GB和32GB两种内存配置。
它惊人的容量使其提供与集中在单个 GPU 中的多达 32 个中央处理器 (CPU) 的同等性能。这一技术奇迹使数据科学家、研究人员和工程师摆脱了优化内存使用的负担,从而使他们能够将精力和时间投入到突破性的人工智能创新中。
在人工智能无处不在的时代,从识别语音模式到训练虚拟个人助理(VPA)和教自动驾驶汽车驾驶,数据科学家正面临着日益复杂的挑战。解决这些复杂性需要创建和训练复杂而庞大的深度学习模型,所有这些都在合理的时间范围内完成。
V640 拥有令人印象深刻的 100 个张量核心,提升到世界上第一个打破 100 teraFLOPS (TFLOPS) 障碍的 GPU 的行列,标志着深度学习性能的里程碑。它的下一代 – NVIDIA NVLink用于以高达100 GB / s的闪电速度连接多个V300 GPU,催生世界上最强大的计算服务器。以前使计算资源紧张数周的AI模型现在可以在几天内完成训练。训练时间的显着减少揭示了以前被认为无法解决的人工智能挑战的全新全景,从而拓宽了人工智能解决问题领域的视野。
什么硬件用于为 ChatGPT 供电
这些 GPU 与高速 NV 链路互连,使单个板上的 GPU 能够用作单个大型 GPU。单个NVIDIA HGX A100单元,可容纳八个A100 GPU,能够运行ChatGPT。但是,由于用户数量众多,需要额外的处理能力来确保无缝操作。
OpenAI和Microsoft尚未透露ChatGPT项目中使用的GPU的确切数量。然而,据估计,大约有30,000架A100在运行。AI 模型的训练过程可能需要大约 4,000 到 5,000 个 GPU,但容纳 100 亿用户需要大约六倍的 GPU。
Microsoft对人工智能的投资
据信Microsoft对该系统的投资达数亿美元,日常运营成本达到数十万美元。Microsoft目前正在将较新的NVIDIA H100 GPU集成到其Azure Cloud AI服务中,该服务的性能比A100的性能高出六倍,并增加了FP8支持。此次升级将允许更多人使用ChatGPT和其他AI服务,并使Microsoft能够训练更复杂的语言模型。
除了 GPU 之外,ChatGPT 还利用 CPU 执行不太适合 GPU 的任务,例如加载数据和运行聊天界面。存储是另一个关键组件,SSD 或云存储通常用于存储大量数据集和模型。通常由专用数据中心提供的高速网络对于 ChatGPT 与用户和其他系统进行通信至关重要。
NVIDIA V100 GPU是专为数据中心设计的高性能GPU,其继任者NVIDIA A100 GPU是ChatGPT硬件配置的关键组件。SSD比传统硬盘驱动器更快,云存储托管在远程服务器上,用于存储为ChatGPT提供支持的数据集和模型。
随着新技术的出现,用于为 ChatGPT 提供支持的硬件也在不断发展,使 ChatGPT 随着时间的推移变得更加强大和高效。这个人工智能聊天机器人证明了现代硬件的力量和人工智能的潜力。