跳转到内容

QLoRA:修订间差异

来自天明的百科全书
Ztm0929留言 | 贡献
创建页面,内容为“在 LoRA 之后推出的另一种 LLM 微调方案,特点在于对显存的需求有一定降低。 == 另请参阅 == * [https://cloud.google.com/vertex-ai/generative-ai/docs/model-garden/lora-qlora?hl=zh-cn 使用 LoRA 和 QLoRA 调整 LLM 的建议  |  Generative AI on Vertex AI  |  Google Cloud] * [https://arxiv.org/abs/2305.14314 <nowiki>[2305.14314] QLoRA: Efficient Finetuning of Quantized LLMs</nowiki>] * [https://github.com/artidoro/qlor…”
 
(没有差异)

2025年2月9日 (日) 09:04的最新版本