b站推广网站入口无病毒病毒式营销的案例
下载chatglm2-6b模型文件
https://huggingface.co/THUDM/chatglm2-6b
方法一:huggingface页面直接点击下载
一个一个下载,都要下载
方法二:snapshot_download下载文件
可以使用如下代码下载
创建下载环境
conda create --name hfhub python=3.10
conda activate hfhub安装
pip install huggingface_hub -i https://pypi.tuna.tsinghua.edu.cn/simple
编写代码
down_glm2.py
```
from huggingface_hub import snapshot_download
import sysrepo_id = "THUDM/chatglm2-6b"
local_dir = "/opt/models/chatglm2-6b/"
local_dir_use_symlinks = False
revision = "main"
snapshot_download(repo_id=repo_id, local_dir=local_dir,local_dir_use_symlinks=local_dir_use_symlinks,revision=revision)```
snapshot_download其他参数
只允许下载部分类型的文件(以JSON为例)
allow_patterns=‘*.json’,
不允许下载部分类型的文件(以JSON为例)
ignore_patterns=[‘*.json’]
执行下
python down_glm2.py如果有超时可以多试几次,
或allow_patterns指定具体文件
例如:
snapshot_download(repo_id=repo_id, local_dir=local_dir,local_dir_use_symlinks=local_dir_use_symlinks,allow_patterns='pytorch_model-00001-of-00007.bin',revision=revision)
系列文章
第一篇-ChatGLM-webui-Windows安装部署-CPU版
第二篇-二手工作站配置
第三篇-Tesla P40+CentOS-7+CUDA 11.7 部署实践
第四篇-Miniconda3-CentOS7-安装
第五篇-ChatGLM2-6B模型下载
第六篇-ChatGLM2-6B-CentOS安装部署-GPU版