首页
随机
最近更改
特殊页面
社群首页
参数设置
关于天明的百科全书
免责声明
搜索
用户菜单
登录
编辑权限请联系管理员获取(
ztm0929@icloud.com
)
QLoRA
页面
讨论
语言
监视
查看历史
查看源代码
更多
链入页面
固定链接
页面信息
引用此页
在
LoRA
之后推出的另一种
LLM
微调方案,特点在于对显存的需求有一定降低。
另请参阅
使用 LoRA 和 QLoRA 调整 LLM 的建议 | Generative AI on Vertex AI | Google Cloud
[2305.14314] QLoRA: Efficient Finetuning of Quantized LLMs
artidoro/qlora: QLoRA: Efficient Finetuning of Quantized LLMs - GitHub