Chat-with-mlx:本地LLM运行程序

工具软件10个月前发布 AI观察员
89 0 0

Chat-with-mlx:本地LLM运行程序

受NVIDIA’s Chat with RTX启发做的项目chat-with-mlx。

支持自动下载本地模型,并且可以同本地文件进行交互,支持多种语言,包括英语、西班牙语、中文和越南语。

该项目的一个关键特点是易于集成,用户可以轻松集成任何HuggingFace和MLX兼容的开源模型。
Chat-with-mlx:本地LLM运行程序

© 版权声明

相关文章

天猫U特购  京东优惠购        京东优惠    天猫优惠