关于11月17日~11月23日中遇到的问题以及解决方法
Obsidian的笔记同步
如何利用gitee在不同电脑以及不同平台,同步Obsidian笔记?(11月17日)٩(•̤̀ᵕ•̤́๑)ᵒᵏᵏᵎᵎᵎᵎ
但不是很完善,git很多知识等待去学习了解(关于各种分支的验证等等),成功实现推送,现在就开始验证不同端的拉取。
关于在同步过程中常常出现分支不一致或者分支推送不知道在哪里的问题?(11月17日)٩(•̤̀ᵕ•̤́๑)ᵒᵏᵏᵎᵎᵎᵎ
- 查看所有分支
git branch -a(星号表示本地,remotes/origin表示远程分支
1 | $ git branch -a |
如何指定push分支(长期)remotes/origin/main
关于问题的ai描述和解决方案
| 内容类型 | 内容 | 备注 |
|---|---|---|
| AI | 这段 Git 提示的核心意思是:你当前所在的本地分支(local branch)所关联(upstream)的远程分支(remote branch)名字,和你本地分支的名字不一致。因此当你直接执行 git push 时,Git 不知道到底该把本地改动推送到哪个远程分支上。提示中给出了两种临时解决办法,和两种长期(配置)方案: 1. 临时推送到远程的 main 分支(upstream 分支) git push origin HEAD:main 这会把当前本地分支(HEAD)里的提交,推送并合并到远程的 main 分支上。 2. 临时推送到一个“同名”远程分支 git push origin HEAD 相当于 git push origin <your-local-branch>:<your-local-branch>,在远程新建或更新一个和你本地分支同名的分支。3. 永久指定默认推送行为 你可以通过修改 Git 配置,让它以后自动选择其中一种方式: – 在命令行里运行 git config --global push.default <模式> 常用模式有 • simple:只允许推送当前分支到名字相同的远程分支(安全性更高,Git 2.0+ 默认) • upstream:推送到已设置好的上游分支(不关心名字是否相同) 具体可查看 git help config 中 push.default 的说明。4. 避免自动关联“异名”分支 如果你希望新建分支时就不要把它错误地关联到名字不同的远程分支,可以配置 git config –global branch.autoSetupMerge simple 这样只有当本地分支和远程分支同名时,Git 才会自动给它设置上游。 ——— 简单来说,这条提示告诉你: • 你的本地分支 upstream(上游)指向了一个和它本地名字不一样的远程分支, • Git 无法猜测你到底是想推送到哪个分支, • 因此让你手动指定“推向 main”还是“推向同名分支”,或者调整配置让它以后自动选其中一种。 |
模型:(openai):gpt-o4mini |
| 自己理解 | 笔者猪脑 |
- 或者更改本地的分支名
git branch -m new_name使得其与远程分支同名,带到git默认版本模式
1 | # 在主机上(同名分支main) |
关于git的常见操作-commit、push、pull三种命令的解释?(11月17日)٩(•̤̀ᵕ•̤́๑)ᵒᵏᵏᵎᵎᵎᵎ
总结来说,commit是在本地保存你的工作,push是将你的本地工作推送到远程仓库,而pull是从远程仓库获取并合并最新的更改到你的本地仓库。
课题组网站
自己的个人blog用的hexo来创建,那么该用什么中介工具来介入课题组网站?(11月17日)
- Labxing这种填空式的网站,总结来说相当丑,所以笔者愚见是采用类似的hexo+github这种方式来进行运作,只要求专注具体内容的本身,而不用花大量时间精力,去重新学习html前端代码知识。
可以参考这篇文章所描述这篇大佬所展示的方案是HugoBlox+Github托管的方式
hugo如何安装?以及基础的操作命令是什么?(11月17日)٩(•̤̀ᵕ•̤́๑)ᵒᵏᵏᵎᵎᵎᵎ
- 最好的是用hugo-theme上github免费的主题,不建议使用hugo-blox pro主题,太贵了799多(是人搞得起的?)
可以参考这份官方的安装文档💻 本地编辑你的Hugo网站 |雨果·布洛克斯医生 - scoop(win的powershell下安装),这个是一个win的包管理器
在包管理器下安装git go hugo-extended nodejs三个前置条件
如何找到hugo的主题,并开始制作搭建一个课题组网站?(11月19日)
如何从json数据集中提取玻璃转化温度,并完成复现工作?(11月20日)
- 优化可以把__getitem__
pytorch的使用+文献复现工作
怎样读取元数据的格式,并且将其定义解析成pytorch中的data对象?(11月17日)٩(•̤̀ᵕ•̤́๑)ᵒᵏᵏᵎᵎᵎᵎ
- 成功实现了json中文件的部分数据结构的读取,但后面发现json中的结构不统一,相同json中的sample数据也不统一存在多个分散,较为复杂的局限,通过单纯的定义数据框似乎也可以解决,但工作量较大,逐步框架式的搜索复杂
借此我们通过引入无幻觉的LLM的api来捕获数据集,如何引入api来捕获对应数据集?(11月18日)٩(•̤̀ᵕ•̤́๑)ᵒᵏᵏᵏᵎᵎᵎᵎ
- 这种操作的实现,在于客户端的构建、提示词的构建,还蛮简单的。详细可以参考
如何在pycharm中引入对应llm的api加入编程?(11月19日)٩(•̤̀ᵕ•̤́๑)ᵒᵏᵏᵎᵎᵎᵎ
- 第零步检查所有值得搜索的变量(第一难检查、存在数据种类稀疏、标准不统一的情况)
- 第一步将所有需要的变量赋值为None
- 第二步将文件下的json读取为txt(改为先提取每个json中的sample,减少输入llm的tokens)
- 第三步通过llm的api来填空
- 第四步循环完所有单文件
- 优化第二步,通过re筛选包含检索目标性能json的索引列表,在利用llm在对应json中提取目标性能值(进一步减少llm的输出损耗);
- 优化第三步,先通过pid来构建df索引列,在通过往其中引入对应的值即可
大模型部署指南:从个人玩转到企业级应用,这4款工具必看!-阿里云开发者社区
请注意这个处理数据大了之后,会非常烧钱😭
在pycharm中如何忽略隐私文件数据文件的git上传?(11月19日)٩(•̤̀ᵕ•̤́๑)ᵒᵏᵏᵎᵎᵎᵎ
- 一定要在文件被跟踪前,在.gitignore文件中添加,文件目录或者文件名,这样可以避免隐私信息的上传
本地大模型的部署——如何启动在本地上安装可以使用openai的api支持的大模型,支持嵌入代码中?(11月21日)
第零步:对相关模型本地部署的知识进行普及,挑选架构,选用什么推理框架来部署本地大模型?(11月21日)٩(•̤̀ᵕ•̤́๑)ᵒᵏᵏᵎᵎᵎᵎ
- 在这里我将采用vllm来部署本地大模型,因为这样可以方便代码api调用,以及获得较高的性能。详细参考文档大模型部署指南:从个人玩转到企业级应用,这4款工具必看!-阿里云开发者社区
- 不同推理框架的大模型的对比2025年本地AI部署完全指南:从Ollama到vLLM的全方位实践教程-腾讯云开发者社区-腾讯云
第一步关于vllm的安装?(11月21日)٩(•̤̀ᵕ•̤́๑)ᵒᵏᵏᵎᵎᵎᵎ
- 使用uv来构建pytorch环境和vllm的安装
win11如何安装uv(理解起来就类似于conda)包、环境管理器?(11月21日)٩(•̤̀ᵕ•̤́๑)ᵒᵏᵏᵎᵎᵎᵎ
- 参考uv的官方文档安装 | uv 中文文档
uv的介绍:
uv是一个由 Rye 或 pip-tools 启发的高性能 Python 包安装器和解析器
使用uv创建环境、激活环境、退出环境(在win powershell中)uv venv --python 3.12、.venv\Scripts\activate、deactivate
报错版本限制问题:无法在win powershell中安装vllm
1 | PS E:\projects\vllm_rag> uv add torch modelscope vllm |
如何解决uv安装vllm兼容性问题,仅支持Linux系统?(11月21日)٩(•̤̀ᵕ•̤́๑)ᵒᵏᵏᵎᵎᵎᵎ
在这里我们使用win的Linux子系统来解决这个问题+docker的方式
不在这里我们更改策略,采用docker(一个比conda、uv、scoop更大的概念,可以叫做系统管理器)来拉取vllm的镜像来快速部署
具体可以参考:vllm-openai Docker 部署全手册 - 轩辕镜像技术博客
win下安装docker,可以采用docker-desktop+wsl2的方式(完成安装、配置国内镜像源),具体可以参考Windows 环境下安装 Docker 的详细教程(超详细图文)_windows 安装docker-CSDN博客
如何使用docker将vllm推理框架与本地框架隔离,并使得win也可以使用vllm?(11月21日)٩(•̤̀ᵕ•̤́๑)ᵒᵏᵏᵎᵎᵎᵎ
- 参考官方vllm文档的docker安装说明使用 Docker - vLLM 文档
如何挑选模型和下载到本地,方便vllm挂载启动?(11月23日)٩(•̤̀ᵕ•̤́๑)ᵒᵏᵏᵎᵎᵎᵎ
- 在国内模型库首页 · 魔搭社区网页中挑选适合自己的模型,huggingface.co也可以了解到最新的模型
魔塔社区挺不错,支持很多模型的下载概览 · 魔搭社区,包括Models – Hugging Face(后者是ai界的github)
- 现在开来主要有三个选择Llama 3 系列 (Meta)、Qwen 系列 (通义千问)、Mistral 系列 (Mistral AI)
如何结合轩辕云下载vllm的docker并运行本地大模型,开启api,并接入代码中?(11月23日)٩(•̤̀ᵕ•̤́๑)ᵒᵏᵏᵎᵎᵎᵎ
- 去轩辕云官网查询对应vllm的docker版本利用专属域名,按量计费加速下载
docker pull zhuanshuyuming.xuanyuan.run/vllm/vllm-openai:v0.11.2最新了解到,vllm只是一个运行推理框架,可以选择在本地下载大模型然后采用挂载的方式,所以想要运动大模型,还得下载模型文件
- 下载的方式分为两种,第一种:本地下载大模型后通过挂载卷的方式送入容器内,后利用容器内的vllm推理框架进行运行,第二种:通过共享挂载卷的方式在vllm中使用hf拉取大模型,挂载卷也会同步回主机的存放大模型的空文件夹中;
这里采用第二种方法,因为采用第一种时,docker容器内部的网络环境与宿主机是win的wsl2不同,win与wsl2又不同,存在多层网络嵌套处理较为麻烦,使用python脚本+魔法+conda环境的方式,利用hf-api来下载到本地的目录,然后挂载到docker
1 | import os |
- 成功下载模型mistralai/Mistral-7B-v0.1,也成功在docker中运行,但是很不幸的是gpu的显存爆了
AI辅助
如何采用mcp来提高ai辅助编程trea的能力?(11月18日)٩(•̤̀ᵕ•̤́๑)ᵒᵏᵏᵎᵎᵎᵎ
- trea给了内置的功能(极大地方便了调用)
- glm4.6+mcp
关于ai使用的心得:ai很笨需要检验,检查理解关键部分!不要盲从,理解代码,慢慢给ai问改。代码运行成本较贵(从时间和金钱上来讲,所以最好一次成功,对各部分检验
如何采用mcp来提高ai助手chatbox集成的能力?(11月18日)
- 安装
如何采用本地知识库的部署,通过ai助手chatbox来强化对文献知识库的理解和检索能力?(11月18日)
课程任务学习
基本的高斯程序的使用,基本的高斯计算
如何使用高斯程序,制作高斯输入文件,并运行查看输出结果?(11月23日)٩(•̤̀ᵕ•̤́๑)ᵒᵏᵏᵎᵎᵎᵎ
(结合chemoffice中chemdraw(画好分子图保存为.cdx)——>chem3D(打开后create高斯计算文件.gif)——>Gaussian程序运行即可)
如何在高斯输出文件中查找对应物理参数以及其意义?(11月23日)٩(•̤̀ᵕ•̤́๑)ᵒᵏᵏᵎᵎᵎᵎ
使用ctrl+F搜索以下关键词
- 分子总能量:SCF Done:E = object_value
- 精确极化率:
- 最高轨道占有能(E_home):多行Alpha occ. eigenvalues最后一个数字
- 最低空轨道能(E_lumo):多行 Alpha virt. eigenvalues第一个数字
- 原子净电荷Mulliken charges:(最正最负)
- 偶极矩:Tot=
- etc.