写在前面

缘由:国内的GPU服务器直接调取 huggingface 上模型经常会失败,因此下载到本地就能免去许多麻烦。

方法三基于知乎上一位博主所提出方法的基础上进行改进,可以将huggingface上模型由 Colab 存进 谷歌云盘 或者 百度云盘。特别是有些国内炼丹平台支持百度网盘,所以你甚至可以直接将百度网盘内的文件直接上传到炼丹平台,更省事了。

记得点赞收藏,下次还能找到!

写在中间

法一、直接下载

如果不嫌麻烦的话,可以直接下载单个文件或者目录里面的文件。

在此之前,在本地仿照仓库新建对应层级的文件夹,将每个文件放进对应目录即可。

如何将 huggingface上的模型文件下载到本地-LMLPHP

法二:git 克隆仓库

这一种方法最为简单。

首先打开代理软件。

接着在电脑上安装好git,然后在你想下载的位置新建一个文件夹,进入文件夹之后,点击右键

如何将 huggingface上的模型文件下载到本地-LMLPHP

然后设置代理,一行一行的复制粘贴,由于clash默认端口7890

# 设置全局代理
git config --global https.proxy http://127.0.0.1:7890
git config --global https.proxy https://127.0.0.1:7890
git config --global http.proxy socks5://127.0.0.1:7890
git config --global https.proxy socks5://127.0.0.1:7890

# 取消全局代理
git config --global --unset http.proxy
git config --global --unset https.proxy

之后进入huggingface找到你要下载的模型,点击图中位置即可获取克隆链接。复制到git,静待即可。

如何将 huggingface上的模型文件下载到本地-LMLPHP

法三:借用 Colab 充当下载器

本方法基于知乎博主文章修改,由于使用文章代码下载时,有时会报错,故将其修改并完善,代码如下

使用链接

得益于colab 高达 200~300MB/s 的极高网速,可以十分轻松的拉取huggingface 上的代码模型文件。

经过实验,我已经帮大家踩过坑了,不要直接在 colab 中使用命令将文件夹压缩。由于没有优化,测试下来 8个G大小的模型文件经过压缩为5G,花费 20 分钟。而且由于文件过大,还不能直接下载下来。

因此可以将拉取过后的文件夹整个保存到云盘,就能发挥云盘下载文件的优势了。

具体方法:如果保存到谷歌云盘,进入谷歌云盘,找到刚刚保存的模型文件夹,点击下载,云盘就会将其压缩下载了。

如何将 huggingface上的模型文件下载到本地-LMLPHP

如何将 huggingface上的模型文件下载到本地-LMLPHP

可以看见一个最大的bin模型文件被单独下载且不需要解压,其余文件被分成两部分,注意解压文件时,将其解压到同一个文件夹内。经过整理同样可以完整下载

如何将 huggingface上的模型文件下载到本地-LMLPHP

当然也可以根据提示保存到百度网盘里面,速度也是相当可观的

如何将 huggingface上的模型文件下载到本地-LMLPHP

写在最后

10-24 23:00