|
博主使用的配置是x86_64Linux服务器第一步设置代理镜像:exportHF_ENDPOINT=https://hf-mirror.com第二步(使用代码时,删除引号):--token参数表示下载的模型是否需要登录验证(部分模型需要token)huggingface-clidownload--token"获取的hf_*******token"--resume-download--local-dir-use-symlinksFalse"HuggingFace上对应的模型名称"--local-dir"下载到本地的地址"如何获取token切记设置的权限需要Write(二)下载方式2如果需要对模型中的单个文件或者文件夹中的文件下载可使用以下命令第一步:进入python第二步:fromhuggingface_hubimportloginlogin()第三步:hf_hub_download(repo_id="meta-llama/Meta-Llama-3-8B-Instruct",filename="original/*",local_dir="/data")(三)下载方式3使用黑科技第一步:pipinstall-Uhf-transfer第二步:设置环境变量LinuxexportHF_HUB_ENABLE_HF_TRANSFER=1WindowsPowershell$env:HF_HUB_ENABLE_HF_TRANSFER=1之后使用代码:huggingface-clidownload--token"获取的hf_*******token"--resume-download--local-dir-use-symlinksFalse"HuggingFace上对应的模型名称"--local-dir"下载到本地的地址"
|
|