“大型语言模型”和“LLM”这些术语将变得不那么常见
在当今人工智能领域,“大型语言模型”(及其缩写LLM)经常被用作“任何先进人工智能模型”的简称。这是可以理解的,因为许多最初崭露头角的生成式人工智能模型(例如GPT-3)都是纯文本模型。
但随着AI模型类型的增多,以及AI变得越来越多模态,这个术语将变得越来越不精确和无益。多模态AI的出现是2023年AI的定义性主题之一。如今许多领先的生成式AI模型融合了文本、图像、3D、音频、视频、音乐、物理动作等多种元素。它们远不止是语言模型。
考虑一个AI模型,它是通过已知蛋白质的氨基酸序列和分子结构进行训练,以生成全新的蛋白质治疗药物。尽管其基本架构是GPT-3等模型的延伸,但真的有必要称其为大型语言模型吗?
或者考虑在机器人技术中的基础模型:大型生成模型将视觉和语言输入与一般的互联网规模知识结合起来,以便在现实世界中采取行动,例如通过机械臂。对于这样的模型,应该并且将会存在一个比“语言模型”更丰富的术语。(“视觉-语言-行动”或VLA模型是研究人员使用的一个替代短语。)
关于DeepMind最近发布的FunSearch模型,可以提出类似的观点,作者自己称之为LLM,但它处理的是数学而不是自然语言。
到2024年,随着我们的模型变得越来越多维,我们用来描述它们的术语也会变得越来越多样化。
© 版权声明
文章版权归作者所有,未经允许请勿转载。