期刊文献+
共找到4篇文章
< 1 >
每页显示 20 50 100
基于音视频特征的多模态英语发音纠错模型研究 被引量:1
1
作者 彭晓风 徐宏亮 《皖西学院学报》 2023年第3期123-129,共7页
由于缺少英语环境的熏陶以及过度强调英语的读写能力,非母语的英语学习者的口语能力仍处于较低水平。其中典型表现之一就是发音不准确。为了帮助学习者认识自己的英语发音情况,提出了一种基于特征级融合以及决策级融合的BiLSTM-CTC深度... 由于缺少英语环境的熏陶以及过度强调英语的读写能力,非母语的英语学习者的口语能力仍处于较低水平。其中典型表现之一就是发音不准确。为了帮助学习者认识自己的英语发音情况,提出了一种基于特征级融合以及决策级融合的BiLSTM-CTC深度学习模型。实验结果显示,研究采用的多模态特征融合模型抗噪性能更强,基于关键点特征融合以及基于角度特征融合方式的音素识别准确率较之于单模态BiLSTM-CTC模型准确率更高。引入决策级融合后的混合融合模型则具有更高的检错准确率,且该模型比改进GNN、ResNet和随机森林等算法更为准确。此结果表明研究所提出的模型在英语发音纠错上更有优势。 展开更多
关键词 bilstm-ctc 特征级融合 决策级融合 识别率 发音
下载PDF
基于CRNN改进的中文手写体文本行识别 被引量:1
2
作者 舒珊珊 郑晓旭 文成玉 《成都信息工程大学学报》 2023年第4期422-428,共7页
中文手写体文本行识别可以将纸质书写内容转换为可编辑的电子内容。对于手写体书写随意性大、中文字符种类多,且基于字符分割的方法识别准确率不高这些问题,提出基于卷积循环神经网络改进的端到端的中文手写体识别方法。首先将图片传入... 中文手写体文本行识别可以将纸质书写内容转换为可编辑的电子内容。对于手写体书写随意性大、中文字符种类多,且基于字符分割的方法识别准确率不高这些问题,提出基于卷积循环神经网络改进的端到端的中文手写体识别方法。首先将图片传入基于改进的Inception结构的特征提取网络,该网络首先改进GoogLeNet模型,然后在此基础上又改进添加卷积模块的注意力机制模块和Inception组合结构,改进后的模型能更好地提取图片的有效特征;之后将提取到的图片特征传入循环层,即两层双向长短时记忆网络进行预测;最后将预测序列传入转录层,经过连接时序分类进行转录输出。在CASIA-HWDB2数据集的实验结果表明,该方法能获得95.12%的识别准确率,证明方法的可行性。 展开更多
关键词 手写体识别 卷积循环神经网络 卷积模块的注意力机制模块 双向长短时记忆网络 连接时序分类
下载PDF
基于深度学习的动态手势识别方法 被引量:8
3
作者 钟惠英 《电子测量技术》 2020年第2期128-132,共5页
为了提高动态手势的识别准确率,并避免动态手势的数据预分割和后输出处理过程,设计了一种融合卷积神经网络(CNN)和双向长短时记忆(BiLSTM),引入连接主义时间分类(CTC)作为损失函数的串联型网络模型。使用CTC训练网络来判断输入流中的类... 为了提高动态手势的识别准确率,并避免动态手势的数据预分割和后输出处理过程,设计了一种融合卷积神经网络(CNN)和双向长短时记忆(BiLSTM),引入连接主义时间分类(CTC)作为损失函数的串联型网络模型。使用CTC训练网络来判断输入流中的类标签,以完成动态手势的识别工作。在公开视频手势数据集Jester和通过Kinect自建的包含9个动态手势的数据集上进行了实验验证,结果表明提出的串联型融合网络模型在Jester上能得到较高的识别率,并且引入CTC算法用于手势识别领域是可行的,该方法高效且具有很高的识别率,对9个动态手势最好识别正确率可达98.11%。 展开更多
关键词 KINECT 手势识别 CTC(连接主义时间分类) BiLSTM(双向长短时记忆) 深度学习
原文传递
英语对话机器人发音标准性检测方法 被引量:2
4
作者 段文婷 《自动化与仪器仪表》 2022年第11期210-215,共6页
针对传统英语对话机器人的发音检测模型发音错误检测准确性低,导致发音标准性检测效果不佳的问题,提出基于唇部角度融合的多模态端到端模型BiLSTM-CTC。获取英语对话机器人原始对话数据后,分别对音频数据和视频数据进行预处理,获取音视... 针对传统英语对话机器人的发音检测模型发音错误检测准确性低,导致发音标准性检测效果不佳的问题,提出基于唇部角度融合的多模态端到端模型BiLSTM-CTC。获取英语对话机器人原始对话数据后,分别对音频数据和视频数据进行预处理,获取音视频特征后对其进行归一化和增强,之后利用BiLSTM网络进行特征学习,由Softmax输出序列概率;最后通过CTC算法作为输出层生成预测输出序列。实验结果表明,在无噪音和SNR=10 dB的试验环境下,基于角度特征融合的多模态语音识别方法分别在86次和125次时实现收敛,语音识别率为98.73%和91.15%,在圆展唇音和总体发音标准性检测方面,本方法的检错准确率分别为95.66%、94.86%和92.34%、91.38%,均优于另外两种模型。由此可知,本模型的收敛速度更快,对于音频信号的发音识别率和错误检测率更高,可实现英语对话机器人的发音标准性检测。 展开更多
关键词 发音检错 bilstm-ctc 多模态 特征融合 语音识别
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部