首页
随机
登录
设置
关于本站
免责声明
搜索
QLoRA
语言
监视
查看源代码
在
LoRA
之后推出的另一种
LLM
微调方案,特点在于对显存的需求有一定降低。
另请参阅
使用 LoRA 和 QLoRA 调整 LLM 的建议 | Generative AI on Vertex AI | Google Cloud
[2305.14314] QLoRA: Efficient Finetuning of Quantized LLMs
artidoro/qlora: QLoRA: Efficient Finetuning of Quantized LLMs - GitHub