首页
随机
最近更改
特殊页面
社群首页
参数设置
关于天明的百科全书
免责声明
搜索
用户菜单
登录
编辑权限请联系管理员获取(
ztm0929@icloud.com
)
查看“︁蒸馏”︁的源代码
←
蒸馏
因为以下原因,您没有权限编辑该页面:
您请求的操作仅限属于该用户组的用户执行:
用户
您可以查看和复制此页面的源代码。
蒸馏(知识蒸馏) 是一种模型压缩技术,通过让小型模型(学生模型)学习大型模型(教师模型)的知识(如输出概率分布、中间特征),在保持性能的同时显著降低计算成本。其核心是知识迁移,而非简单模仿输出。但也会带来知识衰减的问题。 ==== (1) 知识衰减(Knowledge Degradation) ==== * 信息损失不可逆 :每次蒸馏都会丢失部分隐式知识(如深层语义关联)。 * 误差累积 :教师模型的错误可能被学生继承并放大。 * 量化极限 :模型尺寸过小(如 <1B)时,神经元容量无法承载复杂逻辑。
返回
蒸馏
。