期刊文献+
共找到15篇文章
< 1 >
每页显示 20 50 100
Text Augmentation-Based Model for Emotion Recognition Using Transformers
1
作者 Fida Mohammad Mukhtaj Khan +4 位作者 Safdar Nawaz Khan Marwat Naveed Jan Neelam Gohar Muhammad Bilal Amal Al-Rasheed 《Computers, Materials & Continua》 SCIE EI 2023年第9期3523-3547,共25页
Emotion Recognition in Conversations(ERC)is fundamental in creating emotionally intelligentmachines.Graph-BasedNetwork(GBN)models have gained popularity in detecting conversational contexts for ERC tasks.However,their... Emotion Recognition in Conversations(ERC)is fundamental in creating emotionally intelligentmachines.Graph-BasedNetwork(GBN)models have gained popularity in detecting conversational contexts for ERC tasks.However,their limited ability to collect and acquire contextual information hinders their effectiveness.We propose a Text Augmentation-based computational model for recognizing emotions using transformers(TA-MERT)to address this.The proposed model uses the Multimodal Emotion Lines Dataset(MELD),which ensures a balanced representation for recognizing human emotions.Themodel used text augmentation techniques to producemore training data,improving the proposed model’s accuracy.Transformer encoders train the deep neural network(DNN)model,especially Bidirectional Encoder(BE)representations that capture both forward and backward contextual information.This integration improves the accuracy and robustness of the proposed model.Furthermore,we present a method for balancing the training dataset by creating enhanced samples from the original dataset.By balancing the dataset across all emotion categories,we can lessen the adverse effects of data imbalance on the accuracy of the proposed model.Experimental results on the MELD dataset show that TA-MERT outperforms earlier methods,achieving a weighted F1 score of 62.60%and an accuracy of 64.36%.Overall,the proposed TA-MERT model solves the GBN models’weaknesses in obtaining contextual data for ERC.TA-MERT model recognizes human emotions more accurately by employing text augmentation and transformer-based encoding.The balanced dataset and the additional training samples also enhance its resilience.These findings highlight the significance of transformer-based approaches for special emotion recognition in conversations. 展开更多
关键词 emotion recognition in conversation graph-based network text augmentation-basedmodel multimodal emotion lines dataset bidirectional encoder representation for transformer
下载PDF
Towards Realizing Sign Language to Emotional Speech Conversion by Deep Learning
2
作者 Nan Song Hongwu Yang Pengpeng Zhi 《国际计算机前沿大会会议论文集》 2018年第2期34-34,共1页
关键词 SIGN LANGUAGE recognition FACIAL expression recognitionDeep Neural Network emotionAL SPEECH synthesisSign LANGUAGE to SPEECH CONVERSION
下载PDF
基于时序感知DAG的多模态对话情绪识别模型
3
作者 沈旭东 黄贤英 邹世豪 《计算机应用研究》 CSCD 北大核心 2024年第1期51-58,共8页
针对现有对话情绪识别方法中对时序信息、话语者信息、多模态信息利用不充分的问题,提出了一个时序信息感知的多模态有向无环图模型(MTDAG)。其中所设计的时序感知单元能按照时间顺序优化话语权重设置,并收集历史情绪线索,实现基于近因... 针对现有对话情绪识别方法中对时序信息、话语者信息、多模态信息利用不充分的问题,提出了一个时序信息感知的多模态有向无环图模型(MTDAG)。其中所设计的时序感知单元能按照时间顺序优化话语权重设置,并收集历史情绪线索,实现基于近因效应下对时序信息和历史信息更有效的利用;设计的上下文和话语者信息融合模块,通过提取上下文语境和话语者自语境的深度联合信息实现对话语者信息的充分利用;通过设置DAG(directed acyclic graph)子图捕获多模态信息并约束交互方向的方式,在减少噪声引入的基础上充分利用多模态信息。在两个基准数据集IEMOCAP和MELD的大量实验表明该模型具有较好的情绪识别效果。 展开更多
关键词 对话情绪识别 有向无环图 近因效应 特征提取 多模态交互
下载PDF
Empathic Responses of Behavioral-Synchronization in Human-Agent Interaction
4
作者 Sung Park Seongeon Park Mincheol Whang 《Computers, Materials & Continua》 SCIE EI 2022年第5期3761-3784,共24页
Artificial entities,such as virtual agents,have become more pervasive.Their long-term presence among humans requires the virtual agent’s ability to express appropriate emotions to elicit the necessary empathy from th... Artificial entities,such as virtual agents,have become more pervasive.Their long-term presence among humans requires the virtual agent’s ability to express appropriate emotions to elicit the necessary empathy from the users.Affective empathy involves behavioral mimicry,a synchronized co-movement between dyadic pairs.However,the characteristics of such synchrony between humans and virtual agents remain unclear in empathic interactions.Our study evaluates the participant’s behavioral synchronization when a virtual agent exhibits an emotional expression congruent with the emotional context through facial expressions,behavioral gestures,and voice.Participants viewed an emotion-eliciting video stimulus(negative or positive)with a virtual agent.The participants then conversed with the virtual agent about the video,such as how the participant felt about the content.The virtual agent expressed emotions congruent with the video or neutral emotion during the dialog.The participants’facial expressions,such as the facial expressive intensity and facial muscle movement,were measured during the dialog using a camera.The results showed the participants’significant behavioral synchronization(i.e.,cosine similarity≥.05)in both the negative and positive emotion conditions,evident in the participant’s facial mimicry with the virtual agent.Additionally,the participants’facial expressions,both movement and intensity,were significantly stronger in the emotional virtual agent than in the neutral virtual agent.In particular,we found that the facial muscle intensity of AU45(Blink)is an effective index to assess the participant’s synchronization that differs by the individual’s empathic capability(low,mid,high).Based on the results,we suggest an appraisal criterion to provide empirical conditions to validate empathic interaction based on the facial expression measures. 展开更多
关键词 Facial emotion recognition facial expression virtual agent virtual human embodied conversational agent EMPATHY human-computer interaction
下载PDF
情感增强的对话文本情绪识别模型 被引量:3
5
作者 王雨 袁玉波 +1 位作者 过弋 张嘉杰 《计算机应用》 CSCD 北大核心 2023年第3期706-712,共7页
针对现有的许多研究忽略了说话人的情绪和情感的相关性的问题,提出一种情感增强的图网络对话文本情绪识别模型——SBGN。首先,将主题和对话意图融入文本,并微调预训练语言模型RoBERTa以提取重构的文本特征;其次,给出情绪分析的对称学习... 针对现有的许多研究忽略了说话人的情绪和情感的相关性的问题,提出一种情感增强的图网络对话文本情绪识别模型——SBGN。首先,将主题和对话意图融入文本,并微调预训练语言模型RoBERTa以提取重构的文本特征;其次,给出情绪分析的对称学习结构,将重构特征分别输入图神经网络(GNN)情绪分析模型和双向长短时记忆(Bi-LSTM)情感分类模型;最后,融合情绪分析和情感分类模型,将情感分类的损失函数作为惩罚以构建新的损失函数,并通过学习调节得到最优的惩罚因子。在公开数据集DailyDialog上的实验结果表明,相较于DialogueGCN模型与目前最先进的DAG-ERC模型,SBGN模型的微平均F1分别提高16.62与14.81个百分点。可见,SBGN模型能有效提高对话系统情绪分析的性能。 展开更多
关键词 对话情绪识别 情感分类 主题诱导 图神经网络 双向长短时记忆
下载PDF
对话情绪识别综述 被引量:1
6
作者 陈晓婷 李实 《计算机工程与应用》 CSCD 北大核心 2023年第3期33-48,共16页
对话情绪识别是情感计算领域的一个热门研究课题,旨在检测对话过程中每个话语的情感类别。其在对话理解和对话生成方面具有重要的研究意义,同时在社交媒体分析、推荐系统、医疗和人机交互等诸多领域具有广泛的实际应用价值。随着深度学... 对话情绪识别是情感计算领域的一个热门研究课题,旨在检测对话过程中每个话语的情感类别。其在对话理解和对话生成方面具有重要的研究意义,同时在社交媒体分析、推荐系统、医疗和人机交互等诸多领域具有广泛的实际应用价值。随着深度学习技术的不断创新和发展,对话情绪识别受到学术界和工业界越来越多的关注,现阶段需要综述性的文章对已有研究成果进行总结,以便更好地开展后续工作。从问题定义、问题切入方式、研究方法、主流数据集等多个角度对该领域的研究成果进行全面梳理,回顾和分析了对话情绪识别任务的发展。对话文本中含有丰富的语义信息,结合视频和音频可以进一步提升建模效果,因此,重点对文本对话情绪识别以及多模态对话情绪识别的方法进行了梳理,立足于当前研究现状,总结了现有对话情绪识别领域存在的开放问题以及未来的发展趋势。 展开更多
关键词 情感分析 对话理解 对话情绪识别 深度学习
下载PDF
融合生成对抗网络与时间卷积网络的普通话情感识别
7
作者 李海烽 张雪英 +2 位作者 段淑斐 贾海蓉 Huizhi Liang 《浙江大学学报(工学版)》 EI CAS CSCD 北大核心 2023年第9期1865-1875,共11页
为了探究声学与发音学转换对普通话情感识别的影响,提出融合声学与发音特征转换的情感识别系统.根据人体发音机制,录制普通话多模态音视频情感数据库.设计双向映射生成对抗网络(Bi-MGAN)来解决双模态间的特征转换问题,定义生成器损失函... 为了探究声学与发音学转换对普通话情感识别的影响,提出融合声学与发音特征转换的情感识别系统.根据人体发音机制,录制普通话多模态音视频情感数据库.设计双向映射生成对抗网络(Bi-MGAN)来解决双模态间的特征转换问题,定义生成器损失函数和映射损失函数来优化网络.搭建基于特征-维度注意力机制的残差时间卷积网络(ResTCN-FDA),利用注意力机制自适应地为不同种类特征和不同维度通道赋予不同的权重.实验结果表明,Bi-MGAN在正向和反向映射任务中的转换精度均优于主流的转换网络算法;ResTCN-FDA在给定情感数据集上的评价指标远高于传统的情感识别算法;真实特征融合映射特征使得情感被正确识别的准确率显著提升,证明了映射对普通话情感识别的积极作用. 展开更多
关键词 循环生成对抗网络 情感识别 声学与发音学转换 时间卷积网络 注意力机制
下载PDF
融合主题信息的对话情绪识别方法
8
作者 张友强 张玉莹 +2 位作者 张顺香 马子晨 王星光 《宁夏师范学院学报》 2023年第7期70-76,共7页
对话情绪识别旨在分析对话中语句的情感倾向.对话图卷积神经网络,在进行对话情绪识别的过程中没有考虑对话文本的主题信息对情绪识别的影响,针对这一问题提出一种融合主题信息的对话情绪识别方法.首先,使用隐含狄利克雷和门控循环网络,... 对话情绪识别旨在分析对话中语句的情感倾向.对话图卷积神经网络,在进行对话情绪识别的过程中没有考虑对话文本的主题信息对情绪识别的影响,针对这一问题提出一种融合主题信息的对话情绪识别方法.首先,使用隐含狄利克雷和门控循环网络,获取包含主题信息的语句编码;其次,使用双层图卷积神经网络获取不同主题下的对话者交互特征;最后,使用基于相似度的注意力机制获取最后的语句表达并进行情绪识别.在对话情绪识别标准数据集IEMOCAP上的实验结果表明,主题信息能够提升DialogueGCN对话情绪识别的准确率. 展开更多
关键词 对话情绪识别 图卷积神经网络 隐含狄利克雷 门控循环网络 主题信息
下载PDF
融合多种语言的语音情感识别
9
作者 张可欣 刘云翔 《电子设计工程》 2023年第6期25-29,共5页
由于语言的差异,提高跨语言情感数据库识别语音情感的准确度,仍然是一项难题。该文针对语言差异这一难题,融合了语音情感识别技术和自然语言处理技术。该文选取Berlin语音情感数据库和CASIA语音情感数据库,从两个数据库中分别挑选200条... 由于语言的差异,提高跨语言情感数据库识别语音情感的准确度,仍然是一项难题。该文针对语言差异这一难题,融合了语音情感识别技术和自然语言处理技术。该文选取Berlin语音情感数据库和CASIA语音情感数据库,从两个数据库中分别挑选200条语音,选用开源API下的Google Speech,实现语音文本的转化。使用机器翻译方法,将语言转化为文本,统一翻译成中文。利用自然语言处理的词法分析、句法分析、LSA的关键词提取算法,提取出表达情感的关键词。对于被提取出来的关键词,使用SpeechLib工具包将提取过特征值的文本转化成语音,提取MFCC特征,构建DNN+BLSTM模型,实现语音情感的分类。实验结果表明,文中使用的方法未加权平均召回率(UAR)和加权平均召回率(WAR)分别为48.22%和56.5%,相比其他方法,UAR和WAR分别提高了4%和8%。 展开更多
关键词 语音情感识别 自然语言处理 跨语言的语音情感识别 语音文本转化 LSA关键词提取算法
下载PDF
基于深度学习的会话情感识别研究
10
作者 戈琳 韦新佳 《信息与电脑》 2023年第23期141-143,共3页
在自然语言处理领域中,机器理解人类的情感是一项重要且艰巨的研究,其中会话情感识别任务是重点对象。依托近年来深度学习的发展,文章针对会话情感识别的研究进展和成果,分类阐述其主要特点、难点和主流模型,并对会话情感识别在未来的... 在自然语言处理领域中,机器理解人类的情感是一项重要且艰巨的研究,其中会话情感识别任务是重点对象。依托近年来深度学习的发展,文章针对会话情感识别的研究进展和成果,分类阐述其主要特点、难点和主流模型,并对会话情感识别在未来的研究趋向进行总结和展望。 展开更多
关键词 深度学习 自然语言处理 会话情感识别
下载PDF
一种基于层次化R-GCN的会话情绪识别方法 被引量:1
11
作者 赖河蒗 李玲俐 +1 位作者 胡婉玲 颜学明 《计算机工程》 CAS CSCD 北大核心 2022年第1期85-92,共8页
会话情绪识别包括说话者自身情绪影响以及说话者之间情绪影响这2个重要因素,为了充分考虑上述影响因素以提高会话情绪识别效果,提出一种基于层次化关系图卷积神经网络(HRGCN)的识别方法。使用一个基础神经网络对会话序列的特征数据进行... 会话情绪识别包括说话者自身情绪影响以及说话者之间情绪影响这2个重要因素,为了充分考虑上述影响因素以提高会话情绪识别效果,提出一种基于层次化关系图卷积神经网络(HRGCN)的识别方法。使用一个基础神经网络对会话序列的特征数据进行优化,按照不同的说话者划分出2个不同的会话子序列,采用2个局部关系图卷积神经网络(R-GCN)分别对2个子序列进行局部建模,按照会话发生的时间顺序重新整合局部建模后的2个子序列,并利用全局R-GCN对其进行全局建模。通过对输入的多模态特征数据的分层次建模,使得会话序列捕获到更多的上下文信息。在IEMOCAP数据集上的实验结果表明,与当前流行的循环神经网络LSTM、GRU等相比,HRGCN方法的会话情绪识别性能较高,准确率与F1值分别达到84.48%与84.40%。 展开更多
关键词 基础神经网络 关系图卷积神经网络 会话 情绪识别 人工智能
下载PDF
融合人脸表情的手语到汉藏双语情感语音转换 被引量:2
12
作者 宋南 吴沛文 杨鸿武 《声学技术》 CSCD 北大核心 2018年第4期372-379,共8页
针对聋哑人与正常人之间存在的交流障碍问题,提出了一种融合人脸表情的手语到汉藏双语情感语音转换的方法。首先使用深度置信网络模型得到手势图像的特征信息,并通过深度神经网络模型得到人脸信息的表情特征。其次采用支持向量机对手势... 针对聋哑人与正常人之间存在的交流障碍问题,提出了一种融合人脸表情的手语到汉藏双语情感语音转换的方法。首先使用深度置信网络模型得到手势图像的特征信息,并通过深度神经网络模型得到人脸信息的表情特征。其次采用支持向量机对手势特征和人脸表情特征分别进行相应模型的训练及分类,根据识别出的手势信息和人脸表情信息分别获得手势文本及相应的情感标签。同时,利用普通话情感训练语料,采用说话人自适应训练方法,实现了一个基于隐Markov模型的情感语音合成系统。最后,利用识别获得的手势文本和情感标签,将手势及人脸表情转换为普通话或藏语的情感语音。客观评测表明,静态手势的识别率为92.8%,在扩充的Cohn-Kanade数据库和日本女性面部表情(Japanese Female Facial Expression,JAFFE)数据库上的人脸表情识别率为94.6%及80.3%。主观评测表明,转换获得的情感语音平均情感主观评定得分4.0分,利用三维情绪模型(Pleasure-Arousal-Dominance,PAD)分别评测人脸表情和合成的情感语音的PAD值,两者具有很高的相似度,表明合成的情感语音能够表达人脸表情的情感。 展开更多
关键词 手势识别 表情识别 深度神经网络 汉藏双语情感语音合成 手语到语音转换
下载PDF
手语到情感语音的转换
13
作者 王伟喆 郭威彤 杨鸿武 《计算机工程与科学》 CSCD 北大核心 2022年第10期1869-1876,共8页
为了解决语言障碍者与健康人之间的交流障碍问题,提出了一种基于神经网络的手语到情感语音转换方法。首先,建立了手势语料库、人脸表情语料库和情感语音语料库;然后利用深度卷积神经网络实现手势识别和人脸表情识别,并以普通话声韵母为... 为了解决语言障碍者与健康人之间的交流障碍问题,提出了一种基于神经网络的手语到情感语音转换方法。首先,建立了手势语料库、人脸表情语料库和情感语音语料库;然后利用深度卷积神经网络实现手势识别和人脸表情识别,并以普通话声韵母为合成单元,训练基于说话人自适应的深度神经网络情感语音声学模型和基于说话人自适应的混合长短时记忆网络情感语音声学模型;最后将手势语义的上下文相关标注和人脸表情对应的情感标签输入情感语音合成模型,合成出对应的情感语音。实验结果表明,该方法手势识别率和人脸表情识别率分别达到了95.86%和92.42%,合成的情感语音EMOS得分为4.15,合成的情感语音具有较高的情感表达程度,可用于语言障碍者与健康人之间正常交流。 展开更多
关键词 手势识别 人脸表情识别 情感语音合成 神经网络 手语到语音转换 语言障碍者
下载PDF
基于ERC Roberta的提示学习实现对话情感识别
14
作者 宫岐伟 禹可 吴晓非 《北京邮电大学学报》 EI CAS CSCD 北大核心 2023年第5期106-111,138,共7页
使用Transformer架构的预训练模型进行对话情感识别时,用传统的微调分类方法难以充分考虑对话文本的语序和结构特征。而且情感对话分类任务与预训练任务不匹配。而使用提示学习方法可通过重建下游任务缩小情感对话分类任务与预训练任务... 使用Transformer架构的预训练模型进行对话情感识别时,用传统的微调分类方法难以充分考虑对话文本的语序和结构特征。而且情感对话分类任务与预训练任务不匹配。而使用提示学习方法可通过重建下游任务缩小情感对话分类任务与预训练任务之间的差距。因此,提出一种将提示学习与Roberta模型相融合的对话情感识别(PERC Roberta)模型。利用该模型通过文本掩码预测任务学习对话的语序和结构特征;然后通过提示学习重建下游任务,进一步激发学习到的丰富对话知识。将该模型在2个对话情感识别公共数据集上进行了实验,实验结果表明,PERC Roberta模型比其他模型具有更好的分类效果。此外,消融实验的对比结果也证明了所提模型的有效性。 展开更多
关键词 自然语言处理 对话情感识别 提示学习
原文传递
融入知识图谱和课程学习的对话情绪识别
15
作者 杜金明 孙媛媛 +1 位作者 林鸿飞 杨亮 《计算机研究与发展》 EI 2024年第5期1299-1309,共11页
对话领域情绪识别是基于对话的情感分类任务,对话数据具有口语化、主题跨度大和标签具有语义相似性的特点.口语化表现为对话中存在隐含常识和语法知识的二义性词语和省略句,导致模型难以准确建模语义信息;主题跨度大表现为不同对话场景... 对话领域情绪识别是基于对话的情感分类任务,对话数据具有口语化、主题跨度大和标签具有语义相似性的特点.口语化表现为对话中存在隐含常识和语法知识的二义性词语和省略句,导致模型难以准确建模语义信息;主题跨度大表现为不同对话场景下的文本信息丰富度差异大、情绪转移频率差异大,导致模型性能下降.提出CK-ERC模型缓解上述问题,在预训练阶段,抽取结构化数据为模型融入常识和语法知识图谱,帮助模型建模口语化信息;在微调阶段引入监督对比学习任务帮助模型识别相似情绪标签;在训练策略上设计了基于动态阈值的课程学习策略,按照文本丰富度从高到低、情绪转移频率从低到高的策略优化模型.CK-ERC模型在双人对话、多人对话、模拟对话、日常对话等多种对话模式下显著优于其他模型,在MELD和EmoryNLP数据集上获得最佳表现. 展开更多
关键词 对话情绪识别 对比学习 知识图谱 课程学习 迁移学习
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部