找回密码
 会员注册
查看: 35|回复: 0

ImportErrorusrlocallibpython3.8dist-packagesflash_attn_2_cuda.cpython-38-x86_64-linux-gnu.so

[复制链接]

5

主题

0

回帖

16

积分

新手上路

积分
16
发表于 2024-9-3 16:00:04 | 显示全部楼层 |阅读模式
背景调试网络时用到了FalshAttention,直接用的是flash_attn这个库,出现了以下异常File"/usr/local/lib/python3.8/dist-packages/flash_attn/__init__.py",line3,infromflash_attn.flash_attn_interfaceimport(File"/usr/local/lib/python3.8/dist-packages/flash_attn/flash_attn_interface.py",line8,inimportflash_attn_2_cudaasflash_attn_cudaImportError:/usr/local/lib/python3.8/dist-packages/flash_attn_2_cuda.cpython-38-x86_64-linux-gnu.so:undefinedsymbol:_ZN2at4_ops19empty_memory_format4callEN3c108ArrayRefIlEENS2_8optionalINS2_10ScalarTypeEEENS5_INS2_6LayoutEEENS5_INS2_6DeviceEEENS5_IbEENS5_INS2_12MemoryFormatEEE12345原因分析从异常上看,提示flash_attn_2_cuda.cpython-38-x86_64-linux-gnu.so这个库异常,这种未定义符号的异常,一般都是编译so时和当前环境不一致导致的具体到flash_attn这个库,如果不是从源码编译,其对cuda版本和torch版本都是有要求的,所以在官方github的release上可以看到官方会提供很多不同cuda和torch版本的whl文件,如下所示解决方法方法一从官方release种找到对应cuda版本和torch版本的whl文件,并下载在本地使用pip3install${whl}的方式安装方法二从源码直接编译,详见官方github
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 会员注册

本版积分规则

QQ|手机版|心飞设计-版权所有:微度网络信息技术服务中心 ( 鲁ICP备17032091号-12 )|网站地图

GMT+8, 2024-12-27 14:00 , Processed in 0.767141 second(s), 25 queries .

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表