首页
随机
登录
设置
关于天明的百科全书
免责声明
搜索
编辑权限请联系管理员获取(
ztm0929@icloud.com
)
QLoRA
语言
监视
查看源代码
在
LoRA
之后推出的另一种
LLM
微调方案,特点在于对显存的需求有一定降低。
另请参阅
使用 LoRA 和 QLoRA 调整 LLM 的建议 | Generative AI on Vertex AI | Google Cloud
[2305.14314] QLoRA: Efficient Finetuning of Quantized LLMs
artidoro/qlora: QLoRA: Efficient Finetuning of Quantized LLMs - GitHub