在人工智能领域,使用开源模型构建大型语言模型 (LLM) 和检索增强生成 (RAG) 管道的能力是一项越来越需要的技能。最近的教程阐明了这一过程,演示了如何使用领先的AI模型提供商Hugging Face的开源模型以及AWS的Sagemaker和Pinecone执行检索增强生成。
本教程首先在 Sagemaker(亚马逊云科技提供的基于云的机器学习平台)中设置两个实例。一个实例指定用于存储大型语言模型 (LLM),而另一个实例用于嵌入模型。LLM 充当外部知识库,由包含有关 AWS 的信息块的数据集提供信息。
如何构建大型语言模型
然后将数据集中的相关信息带到嵌入模型。在这里,它被转换为向量嵌入,这是一种可以通过机器学习算法轻松处理的数据的数学表示。这些向量嵌入存储在Pinecone中,这是一个为机器学习应用程序设计的向量数据库。
进行查询时,首先将其发送到嵌入模型以生成查询向量。然后将此查询向量带到 Pinecone,在那里它用于从向量数据库中检索相关记录。将查询向量和上下文组合在一起以创建检索增强提示,然后将其馈送到LLM中。LLM 使用此提示生成提供相关信息的响应。
开源法学硕士模型
本教程使用了Hugging Face的开源模型,特别是用于LLM的Google的Flan T5 XL和用于嵌入模型的小型变压器模型。然后将这些模型部署到 Sagemaker 中在流程开始时设置的特定实例。
本教程还提供了有关如何使用均值池为数据集创建向量嵌入的详细指南,均值池是一种对文本中所有单词的特征向量求平均值以创建单个向量的技术。然后,它展示了如何将这些嵌入存储在 Pinecone 中的矢量索引中,以便在进行查询时进行检索。