[学位论文]
  • 樊静
  • 国防科技大学

摘要: 目前,以BERT(BidirectionalEncoderRepresentationsfromTransformers)为代表的预训练语言模型已经成为完成自然语言处理任务过程中非常重要的一个组成部分。但是,这类模型为了拥有足够的容量编码海量的语言知识,往往结构设计十分复杂。因此,对其... 展开

作者 樊静   授予学位单位 国防科技大学  
导师 张鑫 学位 硕士
学科 管理科学与工程   国籍 CN
页码/总页数 1-126 / 126 出版年 2022
中图分类号 TP391.1
关键词 自然语言处理   文本分类   模型压缩   预训练语言模型   BERT  
机标主题词 压缩;检测;训练
机标分类号 ZT5*;TB463.1*;G4
馆藏号 D03356623
相关作者
相关关键词