[学位论文]
  • 焦小奇
  • 华中科技大学

摘要: 近年来,预训练语言模型(Pre-trainedLanguageModels,PLMs)的出现将自然语言处理(NaturalLanguageProcessing,NLP)带入了一个新的时代,“预训练+微调”成为了NLP领域的训练新范式。借助该范式,基于Transformer结构的PLMs在各类NLP任务上取得了巨... 展开

作者 焦小奇   授予学位单位 华中科技大学  
导师 王芳 学位 博士
学科 计算机科学与技术   国籍 CN
页码/总页数 1-126 / 126 出版年 2022
中图分类号 TP391.1
关键词 自然语言处理   深度学习   预训练语言模型   模型压缩   知识蒸馏  
机标主题词 学生模型;蒸馏;教师模型
机标分类号 TP391.99;O658.3;TP391.99
馆藏号 D02997792
相关作者
相关关键词