针对词向量语义信息不完整以及文本特征抽取时的一词多义问题,提出基于BERT(Bidirectional Encoder Representation from Transformer)的两次注意力加权算法(TARE)。首先,在词向量编码阶段,通过构建Q、K、V矩阵使用自注意力机制动态编...针对词向量语义信息不完整以及文本特征抽取时的一词多义问题,提出基于BERT(Bidirectional Encoder Representation from Transformer)的两次注意力加权算法(TARE)。首先,在词向量编码阶段,通过构建Q、K、V矩阵使用自注意力机制动态编码算法,为当前词的词向量捕获文本前后词语义信息;其次,在模型输出句子级特征向量后,利用定位信息符提取全连接层对应参数,构建关系注意力矩阵;最后,运用句子级注意力机制算法为每个句子级特征向量添加不同的注意力分数,提高句子级特征的抗噪能力。实验结果表明:在NYT-10m数据集上,与基于对比学习框架的CIL(Contrastive Instance Learning)算法相比,TARE的F1值提升了4.0个百分点,按置信度降序排列后前100、200和300条数据精准率Precision@N的平均值(P@M)提升了11.3个百分点;在NYT-10d数据集上,与基于注意力机制的PCNN-ATT(Piecewise Convolutional Neural Network algorithm based on ATTention mechanism)算法相比,精准率与召回率曲线下的面积(AUC)提升了4.8个百分点,P@M值提升了2.1个百分点。在主流的远程监督关系抽取(DSER)任务中,TARE有效地提升了模型对数据特征的学习能力。展开更多
针对传统车辆切入过近导致自动驾驶产生脱离的问题,本文提出一种YOLOV7-Tiny(You Only Look Once Version 7 Tiny)和SS-LSTM(Strong Sort Long Short Term Memory)的自动驾驶风险预判模型。首先,模型改进了视觉目标检测模型YOLOV7-Tiny...针对传统车辆切入过近导致自动驾驶产生脱离的问题,本文提出一种YOLOV7-Tiny(You Only Look Once Version 7 Tiny)和SS-LSTM(Strong Sort Long Short Term Memory)的自动驾驶风险预判模型。首先,模型改进了视觉目标检测模型YOLOV7-Tiny,增加小目标检测层;其次,引入SimAM(A Simple,Parameter-Free Attention Module for Convolutional Neural Networks)无参注意力机制模块,优化训练损失函数,并对其目标车辆进行轨迹跟踪及预测,通过改进的多目标跟踪算法StrongSORT(Strong Simple Online and Realtime Tracking)的短期预测不断矫正LSTM(Long Short Term Memory)的长期预测,即建立SS-LSTM模型,并将预测的超车轨迹与智能网联车自身轨迹在同一时间纬度下进行拟合,得到传统车辆切入时的风险预判模型。实验结果表明,本文的自动驾驶风险预判方法有效预判了传统车辆切入时的风险。仿真实验表明,改进YOLOV7-Tiny相比于原有算法mAP(mean Average Precision)提高了2.3个百分点,FPS(Frames Per Second)为61.35 Hz,模型大小为12.6 MB,模型满足车载端轻量化的需求。实车实验表明,根据SS-LSTM模型所得到的风险预判准确率为90.3%。展开更多
为了挖掘满足用户特殊需求,如含指定项目数量的高效用项集(HUI),提出一种基于长度约束的蝙蝠高效用项集挖掘算法(HUIM-LC-BA)。该算法融合蝙蝠算法(BA)和长度约束构建高效用项集挖掘(HUIM)模型,首先将数据库转换为位图矩阵,实现高效的...为了挖掘满足用户特殊需求,如含指定项目数量的高效用项集(HUI),提出一种基于长度约束的蝙蝠高效用项集挖掘算法(HUIM-LC-BA)。该算法融合蝙蝠算法(BA)和长度约束构建高效用项集挖掘(HUIM)模型,首先将数据库转换为位图矩阵,实现高效的效用计算和数据库扫描;其次,采用重新定义的事务加权效用(RTWU)策略缩减搜索空间;最后,对项集进行长度修剪,使用深度优先搜索和轮盘赌注选择法确定修剪项目。在4个数据集的仿真实验中,当最大长度为6时,与HUIM-BA相比,HUIM-LC-BA挖掘的模式数量分别减少了91%、98%、99%与97%,同时运行时间也少于HUIM-BA;且在不同长度约束条件下,与FHM+(Faster High-utility itemset Ming plus)算法相比运行时间更稳定。实验结果表明,HUIM-LC-BA能有效挖掘具有长度约束的HUI,并减少挖掘模式的数量。展开更多
文摘针对词向量语义信息不完整以及文本特征抽取时的一词多义问题,提出基于BERT(Bidirectional Encoder Representation from Transformer)的两次注意力加权算法(TARE)。首先,在词向量编码阶段,通过构建Q、K、V矩阵使用自注意力机制动态编码算法,为当前词的词向量捕获文本前后词语义信息;其次,在模型输出句子级特征向量后,利用定位信息符提取全连接层对应参数,构建关系注意力矩阵;最后,运用句子级注意力机制算法为每个句子级特征向量添加不同的注意力分数,提高句子级特征的抗噪能力。实验结果表明:在NYT-10m数据集上,与基于对比学习框架的CIL(Contrastive Instance Learning)算法相比,TARE的F1值提升了4.0个百分点,按置信度降序排列后前100、200和300条数据精准率Precision@N的平均值(P@M)提升了11.3个百分点;在NYT-10d数据集上,与基于注意力机制的PCNN-ATT(Piecewise Convolutional Neural Network algorithm based on ATTention mechanism)算法相比,精准率与召回率曲线下的面积(AUC)提升了4.8个百分点,P@M值提升了2.1个百分点。在主流的远程监督关系抽取(DSER)任务中,TARE有效地提升了模型对数据特征的学习能力。
文摘针对传统车辆切入过近导致自动驾驶产生脱离的问题,本文提出一种YOLOV7-Tiny(You Only Look Once Version 7 Tiny)和SS-LSTM(Strong Sort Long Short Term Memory)的自动驾驶风险预判模型。首先,模型改进了视觉目标检测模型YOLOV7-Tiny,增加小目标检测层;其次,引入SimAM(A Simple,Parameter-Free Attention Module for Convolutional Neural Networks)无参注意力机制模块,优化训练损失函数,并对其目标车辆进行轨迹跟踪及预测,通过改进的多目标跟踪算法StrongSORT(Strong Simple Online and Realtime Tracking)的短期预测不断矫正LSTM(Long Short Term Memory)的长期预测,即建立SS-LSTM模型,并将预测的超车轨迹与智能网联车自身轨迹在同一时间纬度下进行拟合,得到传统车辆切入时的风险预判模型。实验结果表明,本文的自动驾驶风险预判方法有效预判了传统车辆切入时的风险。仿真实验表明,改进YOLOV7-Tiny相比于原有算法mAP(mean Average Precision)提高了2.3个百分点,FPS(Frames Per Second)为61.35 Hz,模型大小为12.6 MB,模型满足车载端轻量化的需求。实车实验表明,根据SS-LSTM模型所得到的风险预判准确率为90.3%。
文摘为了挖掘满足用户特殊需求,如含指定项目数量的高效用项集(HUI),提出一种基于长度约束的蝙蝠高效用项集挖掘算法(HUIM-LC-BA)。该算法融合蝙蝠算法(BA)和长度约束构建高效用项集挖掘(HUIM)模型,首先将数据库转换为位图矩阵,实现高效的效用计算和数据库扫描;其次,采用重新定义的事务加权效用(RTWU)策略缩减搜索空间;最后,对项集进行长度修剪,使用深度优先搜索和轮盘赌注选择法确定修剪项目。在4个数据集的仿真实验中,当最大长度为6时,与HUIM-BA相比,HUIM-LC-BA挖掘的模式数量分别减少了91%、98%、99%与97%,同时运行时间也少于HUIM-BA;且在不同长度约束条件下,与FHM+(Faster High-utility itemset Ming plus)算法相比运行时间更稳定。实验结果表明,HUIM-LC-BA能有效挖掘具有长度约束的HUI,并减少挖掘模式的数量。