关于11月24日~11月30日中遇到的问题

llm的本地部署

如何选择本地大模型的推理框架app?(11月24日)٩(•̤̀ᵕ•̤́๑)ᵒᵏᵏᵎᵎᵎᵎ
  • 最后选择了LM Studio
推理框架的对比 自己个人理解(缺点) 优点 进度
vllm推理框架 采用huggingface下载需要魔法;docker拉取image时也需要魔法;
运用较为复杂(推进采用先在本地下载好模型后,挂载的方式,推入到容器中运行);
wsl2的方式来吸取可能导致,硬件的限制
支持docker部署;模型种类丰富;支持api调用;更适合工业部署; 成功部署过《mistralai/Mistral-7B-v0.1》,但遗憾的是显存爆了
ollma推理框架 部署起来也偏简答,运用不复杂;模型较笨 部署简答使用方便; 成功安装过deepseek,但是太笨了;
LM Studio推理框架 模型种类较少、门类较少 下载模型简单,且在国内下载模型无网络限制;
自动检测你的gpu、cpu以及下载好的cuda的驱动;
完成模型的下载好部署,并成功在pycharm中调用api
如何在本地大模型中加入mcp的服务?(11月26日)٩(•̤̀ᵕ•̤́๑)ᵒᵏᵏᵎᵎᵎᵎ
  • 在环境中安装好必要的库后,编辑好mcp.json即可,可以通过询问大模型(支持工具调用的模型)的方式来问它是否能,使用mcp的服务
ai辅助
为什么cherry_studio中大语言模型的联网搜索内容不准确?(11月26日)٩(•̤̀ᵕ•̤́๑)ᵒᵏᵏᵎᵎᵎᵎ
  • 这与cherry_studio中模型内置的搜索有关,可以优先使用模型自带的联网搜索功能,或者用mcp的搜索服务

课题组网站

关于学习的思考

如何避免在听课(知识输入)太过于关心记录,而造成知识点的略过,产生一种,只见树木不见树林的学习窘境?(11月25日)
  • 以下两个任务正在完成中
    [[s5e11]]
    [[课题组网站]]