尊敬的各位读者:
根据当前疫情防控要求,我馆部分原文传递服务可能会有延期,无法在24小时内提供,给您带来的不便敬请谅解!
国家工程技术图书馆
2022年11月29日
摘要: 伴随着互联网和社交媒体的飞速发展,网络用户正在从单纯的信息获取者转变为信息的生产者。在这一过程中,大量带有个人情感的信息在社交媒体中传播、发酵、聚集、碰撞,形成群体情感并反作用于现实社会。这就使得对社交媒体中的情感信息进行分析、理... 展开 伴随着互联网和社交媒体的飞速发展,网络用户正在从单纯的信息获取者转变为信息的生产者。在这一过程中,大量带有个人情感的信息在社交媒体中传播、发酵、聚集、碰撞,形成群体情感并反作用于现实社会。这就使得对社交媒体中的情感信息进行分析、理解和生成的文本情感计算研究正在成为自然语言处理的重要课题。现阶段面向社交媒体的情感分析研究大部分集中在基于文本内容和用户特征建模的分析层面,相对缺乏结合外部知识和因果推理的立场分析研究。同时,目前的情感文本生成研究主要集中于单一会话场景下的文本生成,缺乏融合用户情感及立场的复杂场景立场对话生成能力。为此,本文提出一整套覆盖文本情感分析、文本立场分析、情感文本生成和立场对话生成的研究框架及相应的研究方法,针对性解决各个问题研究难点的同时,关注不同问题间的共性技术。本文主要工作包括: 针对文本情感分析中,神经注意力机制缺少全局感知能力,而多头自注意力机制存在参数过多、运行效率较低的不足,本文借鉴人类阅读认知过程中的“模板注意力”,提出了一种卷积神经注意力计算机制,以提高文本情感分析性能。这一机制应用一维卷积操作模拟人类的注意力信号,通过有限地扩增注意力感受野以增大全局感知范围的同时,只增加了少量模型参数,控制模型的计算代价上升。在此基础上,本文提出一种面向语句级和文档级情感分析的卷积注意力神经网络模型。进而,利用卷积注意力机制的全局情感感知能力,改进了一种连续文本情感表达抽取算法。在语句级和文档级情感分析数据集上的实验结果表明,本文提出的卷积注意力神经网络模型性能明显优于传统情感分析方法。 针对文本立场分析需要同时对立场对象和立场表达文本进行表示学习的特点,本文分别提出了一种结合立场对象的卷积注意力模型以提高立场对象的表示学习能力,以及两种融合大规模结构化外部知识的方法以提高立场表达文本的表示学习能力,从而大幅度提高文本立场分析的性能。针对立场对象的语义表示,本文引入立场对象嵌入和对象注意力机制,提出一种结合立场对象的卷积注意力模型,分别从词语和语句层面利用上下文对给定立场对象进行表示学习。针对立场表达文本的语义表示,本文引入大规模结构化外部知识作为文本理解的背景和依据,通过融合外部知识大幅提升立场分析性能。具体的,针对立场表达文本与知识表示的异质性问题,提出一种基于后融合的知识增强神经记忆网络,通过使用不同的建模单元分别表示文本与外部知识,利用文本与知识间的互补属性高效地筛选与立场表达相关的外部知识,从而提升立场分析性能。针对融合策略中外部知识的噪音与稀疏问题,提出一种多视角知识感知网络模型,将知识实体作为建模视角对外部知识进行更高层次的语义表示,并通过视角层面的融合网络与注意力机制减少外部知识中噪音与稀疏的影响。在两个文本立场分析数据集上的实验结果显示,本文提出的结合立场对象的卷积注意力模型取得一定性能提高;两种结合外部知识的立场分析方法则进一步地提升了立场分析性能,达到目前已知最高水平。 针对情感对话文本生成通常要求模型同时具有语义表达生成能力和情感表达生成能力的特点,本文提出一种基于自回归变分自编码器和连续情感表达的情感对话文本生成模型。其中基于自回归变分自编码器的生成模型通过在回复序列生成过程的每一步中加入基于变分自编码器的隐变量推理,对全局语义信息进行感知,提高生成回复的流畅性,从而增强了模型的语义表达生成能力。在此基础上,利用模型的自回归特性,向模型引入连续情感表达信息,增强了文本情感表达生成的连贯性。进而,融合卷积注意力机制提取的连续情感表达,将其通过后验推理模型加入情感文本生成过程中,进一步提升生成文本的情感一致性,增强了模型的情感表达生成能力。在情感对话数据集上的实验结果显示,本文提出的模型在相关性、流畅性及多样性的自动评价与人工评测指标上明显优于基线模型;同时相关实验结果显示出生成文本具有良好的情感表达能力。 本文在情感对话生成与基于知识的对话生成研究基础上,通过引入立场对象与立场类标,首次定义了立场对话文本生成问题。将这一问题分解为融合外部知识的对话文本生成和融合预设立场的对话文本生成两个子问题,并针对性设计了一种变分插值自编码器模型以提高基于知识的对话生成能力,以及一种结合立场判别器的立场对话文本生成方法。针对融合外部知识的对话文本生成中“知识复述”与“对话交互”间不平衡的问题,通过隐变量变分插值方法显式地建模对话上下文以及外部知识的影响,并平衡二者间关系,大幅提升了生成回复的可读性与知识利用率。针对融合预设立场的对话文本生成问题,本文在基于知识的对话生成模型基础上,设计了立场对象和立场类标的注意力机制,将给定对象与预设立场类标融入文本生成。在这一过程中借鉴生成对抗网络的设计思路,在模型中加入文本立场判别器,对生成回复立场标签进行判别,并使用策略梯度方法将这一监督信号回传至生成模型中,从而有效提升模型的立场表达能力。在大规模立场对话数据集的实验结果显示,本文提出的立场对话生成模型明显优于基线模型,有效提升了生成对话文本的流畅性与立场准确率。 收起
系统维护,暂停服务。
根据《著作权法》“合理使用”原则,您当前的文献传递请求已超限。
如您有科学或教学任务亟需,需我馆提供文献传递服务,可由单位单位签署《图书馆馆际互借协议》说明情况,我馆将根据馆际互借的原则,为您提供更优质的服务。
《图书馆馆际互借协议》扫描件请发送至service@istic.ac.cn邮箱,《图书馆馆际互借协议》模板详见附件。
根据《著作权法》规定, NETL仅提供少量文献资源原文复制件,用户在使用过程中须遵循“合理使用”原则。
您当日的文献传递请求已超限。