大型语言模型:修订间差异
 创建页面,内容为“'''大型语言模型'''(英语:large language model,LLM),也称'''大语言模型''',是由具有大量参数(通常数十亿个权重或更多)的人工神经网络组成的一类语言模型,使用自监督学习或半监督学习对大量未标记文本进行训练。大语言模型在2018年左右出现,并在各种任务中表现出色。  尽管这个术语没有正式的定义,但它通常指的是参数数量在数十亿或更多…”  | 
				小无编辑摘要  | 
				||
| (未显示同一用户的3个中间版本) | |||
| 第6行: | 第6行: | ||
== 本地部署模型 ==  | == 本地部署模型 ==  | ||
通常使用的文件格式是   | 通常使用的文件格式是 [[GGUF]],Instruct 和 Base 这两个术语描述的是模型的训练阶段和功能定位,如果需要研究模型底层能力选择 Base,如果想要快速实现对话与执行任务选择 Instruct。  | ||
== 训练与推理 ==  | |||
通常来说,参数量越大,模型知识越丰富,整体性能越强。  | |||
温度、top-k、top-p等虽然也被叫作“参数”,但它们影响的是模型在推理阶段的表现结果。  | |||
== 另请参阅 ==  | == 另请参阅 ==  | ||
* [https://zh.wikipedia.org/wiki/%E5%A4%A7%E5%9E%8B%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B 大型语言模型 - 维基百科,自由的百科全书]  | * [https://zh.wikipedia.org/wiki/%E5%A4%A7%E5%9E%8B%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B 大型语言模型 - 维基百科,自由的百科全书]  | ||
* {{使用搜索引擎搜索}}  | |||
{{默认排序:Dayuyan Moxing}}  | |||
[[分类:信息技术]]  | |||