“大型语言模型”的信息
外观
基本信息
| 显示标题 | 大型语言模型 |
| 默认排序键 | Dayuyan Moxing |
| 页面长度(字节) | 1,750 |
| 命名空间ID | 0 |
| 页面ID | 436 |
| 页面内容语言 | zh-cn - 中文(中国大陆) |
| 页面内容类型 | wikitext |
| 爬虫索引 | 允许 |
| 指向该页面的重定向数 | 2 |
| 计为内容页面 | 是 |
| 该页面的子页面数 | 0(0个重定向,0个非重定向) |
页面保护
| 编辑 | 允许所有用户(无限期) |
| 移动 | 允许所有用户(无限期) |
编辑历史
| 页面创建者 | Ztm0929(留言 | 贡献) |
| 页面创建日期 | 2025年2月9日 (日) 09:39 |
| 最后编辑者 | Ztm0929(留言 | 贡献) |
| 最后编辑日期 | 2025年11月1日 (六) 18:29 |
| 总编辑数 | 5 |
| 不同作者总数 | 1 |
| 近期编辑数(过去90天内) | 4 |
| 近期不同作者数 | 1 |
页面属性
| 使用的模板(1) | 该页面使用的模板:
|
搜索引擎优化属性
描述 | 内容 |
条目描述: (description)此属性控制 description和og:description元素的内容。 | 大型语言模型(英语:large language model,LLM),也称大语言模型,是由具有大量参数(通常数十亿个权重或更多)的人工神经网络组成的一类语言模型,使用自监督学习或半监督学习对大量未标记文本进行训练。大语言模型在2018年左右出现,并在各种任务中表现出色。 尽管这个术语没有正式的定义,但它通常指的是参数数量在数十亿或更多数量级的深度学习模型… |