期刊文献+
共找到284篇文章
< 1 2 15 >
每页显示 20 50 100
基于知识图谱和预训练语言模型深度融合的可解释生物医学推理
1
作者 徐寅鑫 杨宗保 +2 位作者 林宇晨 胡金龙 董守斌 《北京大学学报(自然科学版)》 EI CAS CSCD 北大核心 2024年第1期62-70,共9页
基于预训练语言模型(LM)和知识图谱(KG)的联合推理在应用于生物医学领域时,因其专业术语表示方式多样、语义歧义以及知识图谱存在大量噪声等问题,联合推理模型并未取得较好的效果。基于此,提出一种面向生物医学领域的可解释推理方法DF-... 基于预训练语言模型(LM)和知识图谱(KG)的联合推理在应用于生物医学领域时,因其专业术语表示方式多样、语义歧义以及知识图谱存在大量噪声等问题,联合推理模型并未取得较好的效果。基于此,提出一种面向生物医学领域的可解释推理方法DF-GNN。该方法统一了文本和知识图谱的实体表示方式,利用大型生物医学知识库构造子图并进行去噪,改进文本和子图实体的信息交互方式,增加对应文本和子图节点的直接交互,使得两个模态的信息能够深度融合。同时,利用知识图谱的路径信息对模型推理过程提供了可解释性。在公开数据集MedQA-USMLE和MedMCQA上的测试结果表明,与现有的生物医学领域联合推理模型相比,DF-GNN可以更可靠地利用结构化知识进行推理并提供解释性。 展开更多
关键词 生物医学 预训练语言模型 知识图谱 联合推理
下载PDF
基于生成式预训练语言模型的学者画像构建研究
2
作者 柳涛 丁陈君 +2 位作者 姜恩波 许睿 陈方 《数字图书馆论坛》 2024年第3期1-11,共11页
大数据时代,互联网中以多源异构、非结构化形式存在的学者信息在实体抽取时伴有属性混淆、长实体等问题,严重影响学者画像构建的精准度。与此同时,学者属性实体抽取模型作为学者画像构建过程中的关键模型,在实际应用方面还存在较高的技... 大数据时代,互联网中以多源异构、非结构化形式存在的学者信息在实体抽取时伴有属性混淆、长实体等问题,严重影响学者画像构建的精准度。与此同时,学者属性实体抽取模型作为学者画像构建过程中的关键模型,在实际应用方面还存在较高的技术门槛,这对学者画像的应用推广造成一定阻碍。为此,在开放资源的基础上,通过引导句建模、自回归生成方式、训练语料微调等构建一种基于生成式预训练语言模型的属性实体抽取框架,并从模型整体效果、实体类别抽取效果、主要影响因素实例分析、样例微调影响分析4个方面对该方法进行验证分析。与对比模型相比,所提出的方法在12类学者属性实体上均达到最优效果,其综合F1值为99.34%,不仅能够较好地识别区分相互混淆的属性实体,对“研究方向”这一典型长属性实体的抽取准确率还提升了6.11%,为学者画像的工程化应用提供了更快捷、有效的方法支撑。 展开更多
关键词 生成式预训练语言模型 样例微调 学者画像 GPT-3
下载PDF
大型预训练语言模型在新闻报道中的应用及优化路径
3
作者 赵珊珊 《新闻前哨》 2024年第4期36-38,共3页
本文分别使用三个大型预训练语言模型,试验了三种新闻体裁(消息、评论、通讯)的内容自动生成,并测试了三个模型的文稿校对能力,讨论在实际应用中潜在的准确性、偏见和伦理问题。最后,本文提出了未来研究方向,以期推动大型预训练语言模型... 本文分别使用三个大型预训练语言模型,试验了三种新闻体裁(消息、评论、通讯)的内容自动生成,并测试了三个模型的文稿校对能力,讨论在实际应用中潜在的准确性、偏见和伦理问题。最后,本文提出了未来研究方向,以期推动大型预训练语言模型(如BERT、GPT等)在新闻报道中的有效应用。 展开更多
关键词 新闻报道 人工智能 预训练语言模型 融合
下载PDF
基于预训练语言模型的安卓恶意软件检测方法
4
作者 印杰 黄肖宇 +2 位作者 刘家银 牛博威 谢文伟 《计算机工程与科学》 CSCD 北大核心 2023年第8期1433-1442,共10页
近年来,基于有监督机器学习的安卓恶意软件检测方法取得了一定进展。但是,由于恶意软件样本搜集困难,带标签的数据集规模一般较小,导致训练出的有监督模型泛化能力有限。针对这一问题,提出无监督和有监督相结合的恶意软件检测方法。首先... 近年来,基于有监督机器学习的安卓恶意软件检测方法取得了一定进展。但是,由于恶意软件样本搜集困难,带标签的数据集规模一般较小,导致训练出的有监督模型泛化能力有限。针对这一问题,提出无监督和有监督相结合的恶意软件检测方法。首先,使用无监督方法预训练语言模型,从大量无标记APK样本中学习字节码中丰富、复杂的语义关系,提高模型的泛化能力。然后,利用有标记的恶意软件样本对语言模型进行微调,使其能更有效地检测恶意软件。在Drebin等实验数据集上的实验结果表明,相比基准方法,提出的方法泛化能力更好,检测性能更优,最高检测准确率达98.7%。 展开更多
关键词 安卓 恶意软件检测 预训练语言模型 无监督学习
下载PDF
基于预训练语言模型的维吾尔语事件抽取 被引量:1
5
作者 张朋捷 王磊 +3 位作者 马博 杨雅婷 董瑞 艾孜麦提·艾瓦尼尔 《计算机工程与设计》 北大核心 2023年第5期1487-1494,共8页
以往的维吾尔语事件抽取研究多采用静态词向量加长短时记忆神经网络的分析方式,无法有效处理一词多义和上下文语义表示问题。针对目标语言,训练两种维吾尔语预训练语言模型,提出一种结合BiGRU的联合问答模型事件抽取方法。利用预训练语... 以往的维吾尔语事件抽取研究多采用静态词向量加长短时记忆神经网络的分析方式,无法有效处理一词多义和上下文语义表示问题。针对目标语言,训练两种维吾尔语预训练语言模型,提出一种结合BiGRU的联合问答模型事件抽取方法。利用预训练语言模型获取文本的动态语义向量,融合类别表征信息,运用BiGRU进一步提取文本特征。实验结果表明,在事件识别任务上F1值达到77.96%,在事件主体抽取任务上F1值达到74.89%。相比基线模型NER方法,所提方法的F1值提高了14.08%。 展开更多
关键词 预训练语言模型 维吾尔语 事件抽取 联合问答模型 双向门控循环单元 类型识别 主体抽取
下载PDF
基于预训练语言模型的繁体古文自动句读研究 被引量:1
6
作者 唐雪梅 苏祺 +2 位作者 王军 陈雨航 杨浩 《中文信息学报》 CSCD 北大核心 2023年第8期159-168,共10页
未经整理的古代典籍不含任何标点,不符合当代人的阅读习惯,古籍加断句标点之后有助于阅读、研究和出版。该文提出了一种基于预训练语言模型的繁体古文自动句读框架。该文整理了约10亿字的繁体古文语料,对预训练语言模型进行增量训练,在... 未经整理的古代典籍不含任何标点,不符合当代人的阅读习惯,古籍加断句标点之后有助于阅读、研究和出版。该文提出了一种基于预训练语言模型的繁体古文自动句读框架。该文整理了约10亿字的繁体古文语料,对预训练语言模型进行增量训练,在此基础上实现古文自动句读和标点。实验表明,经过大规模繁体古文语料增量训练后的语言模型具备更好的古文语义表示能力,能够有助提升繁体古文自动句读和自动标点的效果。融合增量训练模型之后,古文断句F1值达到95.03%,古文标点F1值达到了80.18%,分别比使用未增量训练的语言模型提升1.83%和2.21%。为解决现有篇章级句读方案效率低的问题,该文改进了前人的串行滑动窗口方案,在一定程度上提高了句读效率,并提出一种新的并行滑动窗口方案,能够高效准确地进行长文本自动句读。 展开更多
关键词 自动句读 自动标点 预训练语言模型
下载PDF
基于电力设备大数据的预训练语言模型构建和文本语义分析 被引量:3
7
作者 贾骏 杨强 +2 位作者 付慧 杨景刚 何禹德 《中国电机工程学报》 EI CSCD 北大核心 2023年第3期1027-1036,共10页
在电力设备运维管理过程中,如何运用非结构化文本信息,构造电力设备文本语义分析模型,挖掘非结构化文本信息,提升设备缺陷和故障的诊断速度和准确性,辅助电网运行检修决策,是非常具有应用价值的问题。该文提出基于超大规模预训练方法的... 在电力设备运维管理过程中,如何运用非结构化文本信息,构造电力设备文本语义分析模型,挖掘非结构化文本信息,提升设备缺陷和故障的诊断速度和准确性,辅助电网运行检修决策,是非常具有应用价值的问题。该文提出基于超大规模预训练方法的电力设备文本语义分析模型(PowerBERT)。该模型基于多头注意力机制,采用多层嵌入语义表达结构,模型总参数超过1.1亿,实现对电力文本内蕴含的信息的理解和分析。基于超过18.62亿字符的电力标准、管理规定及检修记录文本构成的电力专业语料,并采用字符掩码、实体掩码、片段掩码等多种掩码机制和动态加载策略开展模型预训练。针对电力设备文本分析场景,在电力文本实体识别、信息抽取和缺陷诊断场景进行任务场景训练和优化。与传统深度学习算法进行对比实验的结果表明,该文所提方法在基于极少的场景任务样本的情况下,在验证集和测试集上实现召回率和精准度20%~30%的性能提升。 展开更多
关键词 深度学习 预训练语言模型 电力设备 自然语言处理 语义分析 缺陷分级
原文传递
预训练语言模型的应用综述 被引量:3
8
作者 孙凯丽 罗旭东 罗有容 《计算机科学》 CSCD 北大核心 2023年第1期176-184,共9页
近年来,预训练语言模型发展迅速,将自然语言处理推到了一个全新的发展阶段。文中的综述旨在帮助研究人员了解强大的预训练语言模型在何处以及如何应用于自然语言处理。具体来讲,首先简要回顾了典型的预训练模型,包括单语言预训练模型、... 近年来,预训练语言模型发展迅速,将自然语言处理推到了一个全新的发展阶段。文中的综述旨在帮助研究人员了解强大的预训练语言模型在何处以及如何应用于自然语言处理。具体来讲,首先简要回顾了典型的预训练模型,包括单语言预训练模型、多语言预训练模型以及中文预训练模型;然后讨论了这些预训练模型对5个不同的自然语言处理任务的贡献,即信息提取、情感分析、问答系统、文本摘要和机器翻译;最后讨论了预训练模型的应用所面临的一些挑战。 展开更多
关键词 预训练语言模型 自然语言处理 深度学习 信息提取 情感分析 问答系统 文本摘要 机器翻译
下载PDF
基于预训练语言模型的管制信息抽取方法
9
作者 张潇霄 王煊 +2 位作者 王磊 张晓海 杨涛 《指挥控制与仿真》 2023年第2期107-111,共5页
在空中交通管理中,管制员使用管制指令调节航空器状态,飞行员通过复诵指令进行确认。管制指令的正确理解对飞行安全具有重大意义。提出一种新的管制信息抽取方法,即基于语言模型的预训练和微调,通过迁移学习实现小样本管制信息抽取。该... 在空中交通管理中,管制员使用管制指令调节航空器状态,飞行员通过复诵指令进行确认。管制指令的正确理解对飞行安全具有重大意义。提出一种新的管制信息抽取方法,即基于语言模型的预训练和微调,通过迁移学习实现小样本管制信息抽取。该方法在训练数据量降低时,仍能实现准确率的提升。仿真结果表明,新模型对管制信息抽取的准确率不低于98%,可以有效提取管制指令中的关键信息。该方法可提升空管系统的智慧化程度,辅助管制员理解管制指令内容,支撑飞行冲突检测,保障航空运输安全。 展开更多
关键词 航空运输 管制指令 信息抽取 预训练语言模型 迁移学习
下载PDF
预训练语言模型实体匹配的可解释性
10
作者 梁峥 王宏志 +3 位作者 戴加佳 邵心玥 丁小欧 穆添愉 《软件学报》 EI CSCD 北大核心 2023年第3期1087-1108,共22页
实体匹配可以判断两个数据集中的记录是否指向同一现实世界实体,对于大数据集成、社交网络分析、网络语义数据管理等任务不可或缺.作为在自然语言处理、计算机视觉中取得大量成功的深度学习技术,预训练语言模型在实体识别任务上也取得... 实体匹配可以判断两个数据集中的记录是否指向同一现实世界实体,对于大数据集成、社交网络分析、网络语义数据管理等任务不可或缺.作为在自然语言处理、计算机视觉中取得大量成功的深度学习技术,预训练语言模型在实体识别任务上也取得了优于传统方法的效果,引起了大量研究人员的关注.然而,基于预训练语言模型的实体匹配技术效果不稳定、匹配结果不可解释,给这一技术在大数据集成中的应用带来了很大的不确定性.同时,现有的实体匹配模型解释方法主要面向机器学习方法进行模型无关的解释,在预训练语言模型上的适用性存在缺陷.因此,以Ditto、JointBERT等BERT类实体匹配模型为例,提出3种面向预训练语言模型实体匹配技术的模型解释方法来解决这个问题:(1)针对序列化操作中关系数据属性序的敏感性,对于错分样本,利用数据集元特征和属性相似度实现属性序反事实生成;(2)作为传统属性重要性衡量的补充,通过预训练语言模型注意力机制权重来衡量并可视化模型处理数据时的关联性;(3)基于序列化后的句子向量,使用k近邻搜索技术召回与错分样本相似的可解释性优良的样本,增强低置信度的预训练语言模型预测结果.在真实公开数据集上的实验结果表明,通过增强方法提升了模型效果,同时,在属性序搜索空间中能够达到保真度上限的68.8%,为针对预训练语言实体匹配模型的决策解释提供了属性序反事实、属性关联理解等新角度. 展开更多
关键词 实体匹配 预训练语言模型 可解释性
下载PDF
基于预训练语言模型和标签指导的文本复述生成方法
11
作者 梁佳音 谢志鹏 《计算机科学》 CSCD 北大核心 2023年第8期150-156,共7页
文本复述生成是自然语言处理中一项重要且具有挑战性的任务。最近很多工作将句子不同粒度的句法结构信息用于指导复述生成过程,取得了一定的效果,然而这些方法大多比较复杂,迁移使用困难。另外,预训练语言模型因学习到大量语言知识而在... 文本复述生成是自然语言处理中一项重要且具有挑战性的任务。最近很多工作将句子不同粒度的句法结构信息用于指导复述生成过程,取得了一定的效果,然而这些方法大多比较复杂,迁移使用困难。另外,预训练语言模型因学习到大量语言知识而在各项自然语言处理任务中表现出了较好的性能,然而将其用在复述生成任务中的工作较少。针对这些问题,文中提出了基于预训练语言模型和标签指导的复述生成方法。该方法在复述任务上微调预训练语言模型以提升效果,同时用简单的标签插入方式为复述生成模型提供句法结构指导。实验结果表明,这种标签插入结合预训练语言模型的方法在ParaNMT和Quora数据集上的性能优于传统Seq2Seq方法,并且用该方法做数据增强能为下游任务带来效果提升。 展开更多
关键词 文本复述生成 预训练语言模型 数据增强
下载PDF
基于跨语言词嵌入对齐增强少数民族预训练语言模型
12
作者 申影利 鲍薇 +1 位作者 赵小兵 周毛克 《中文信息学报》 CSCD 北大核心 2023年第9期63-72,共10页
由于民族语言与汉语之间的词嵌入语义空间差距较大,导致预训练语言模型的跨语言迁移效果不佳。为此,该文设计了一个通过静态词嵌入对齐到上下文词嵌入空间中的新框架,以提升少数民族跨语言预训练语言模型在下游任务中的表现。该文首先... 由于民族语言与汉语之间的词嵌入语义空间差距较大,导致预训练语言模型的跨语言迁移效果不佳。为此,该文设计了一个通过静态词嵌入对齐到上下文词嵌入空间中的新框架,以提升少数民族跨语言预训练语言模型在下游任务中的表现。该文首先将由大规模单语数据训练的静态词嵌入进行跨语言对齐;其次,基于民汉平行语料从少数民族预训练语言模型CINO中抽取上下文词嵌入,并设计两种损失函数:双语词典归纳损失、对比学习损失,实现静态词嵌入对齐到上下文词嵌入的共享语义空间中;最后,我们将结合静态与上下文跨语言词嵌入对齐的CINO增强模型应用于双语词典归纳、文本分类以及机器翻译任务中,在多个语言对上的实验结果表明,相比鲁棒的基线系统,该文方法在标注语料匮乏的下游任务中均达到了显著的性能提升。 展开更多
关键词 词嵌入对齐 少数民族预训练语言模型 双语词典归纳 对比学习
下载PDF
结合提示学习和自注意力的预训练语言模型
13
作者 汪辉 于瓅 《佳木斯大学学报(自然科学版)》 CAS 2023年第2期19-22,共4页
在自然语言处理领域的下游任务中,具有代表性的双向Transformer编码表示的预训练模型(Bidirectional Encoder Representations from Transformers)BERT呈现出非常出色的性能。为了解决预训练模型的预训练阶段任务和下游任务不一致,利用... 在自然语言处理领域的下游任务中,具有代表性的双向Transformer编码表示的预训练模型(Bidirectional Encoder Representations from Transformers)BERT呈现出非常出色的性能。为了解决预训练模型的预训练阶段任务和下游任务不一致,利用提示学习的修改策略以及自注意力机制的方法,构建新的掩盖训练任务,在官方的中文BERT预训练模型的基础上再训练。这样不仅能运用到预训练任务获得的知识,而且可以针对性的对下游任务上进行提升,最终加强模型的抗干扰能力以及学习效率。研究结果表明:相较RoBERTa和BERT,在数据集THUCNews和TNEWS上这种模型能达更高的分数。 展开更多
关键词 自注意力机制 预训练语言模型 掩盖语言模型 文本分类
下载PDF
生成式预训练语言模型安全风险及评估方法研究 被引量:1
14
作者 李致 陈曲 《电脑知识与技术》 2023年第20期54-56,共3页
生成式预训练语言模型(GPT模型)在自然语言处理领域已得到广泛应用,取得显著成果。然而,GPT类模型在预训练阶段使用大量的未标记数据,可能带来偏见歧视和错误虚假信息;在应用阶段,可能带来泄露隐私及犯罪辅助风险。该文构建了一套从GPT... 生成式预训练语言模型(GPT模型)在自然语言处理领域已得到广泛应用,取得显著成果。然而,GPT类模型在预训练阶段使用大量的未标记数据,可能带来偏见歧视和错误虚假信息;在应用阶段,可能带来泄露隐私及犯罪辅助风险。该文构建了一套从GPT模型项目管理七个维度及模型工程实现三个阶段出发,多角度多维度开展评估,发现安全风险并治理的方法,为完善GPT模型安全治理机制、厘清相关方责任、确保模型应用安全提供了有效途径。 展开更多
关键词 生成式预训练语言模型 GPT 安全风险 治理机制
下载PDF
中文句子级性别无偏数据集构建及预训练语言模型的性别偏度评估
15
作者 赵继舜 杜冰洁 +1 位作者 刘鹏远 朱述承 《中文信息学报》 CSCD 北大核心 2023年第9期15-22,共8页
在自然语言处理领域各项任务中,模型广泛存在性别偏见。然而,当前尚无中文性别偏见评估和消偏的相关数据集,因此无法对中文自然语言处理模型中的性别偏见进行评估。首先,该文根据16对性别称谓词,从一个平面媒体语料库中筛选出性别无偏... 在自然语言处理领域各项任务中,模型广泛存在性别偏见。然而,当前尚无中文性别偏见评估和消偏的相关数据集,因此无法对中文自然语言处理模型中的性别偏见进行评估。首先,该文根据16对性别称谓词,从一个平面媒体语料库中筛选出性别无偏的句子,构建了一个含有20000条语句的中文句子级性别无偏数据集SlguSet(Sentence-Level Gender Unbiased Dataset)。随后,该文提出了一个可衡量预训练语言模型性别偏见程度的指标,并对5种流行的预训练语言模型中的性别偏见进行评估。结果表明,中文预训练语言模型中存在不同程度的性别偏见,该文所构建数据集能够很好地对中文预训练语言模型中的性别偏见进行评估。 展开更多
关键词 性别偏见 数据集 预训练语言模型
下载PDF
融合非偏好注意力跨度的预训练语言模型
16
作者 邹傲 郝文宁 +1 位作者 陈刚 靳大尉 《陆军工程大学学报》 2023年第3期49-57,共9页
语言模型是自然语言处理领域最重要的任务之一,并以迁移学习的方式影响着机器翻译、机器阅读理解、自动文本摘要等诸多下游任务。依托多头自注意力构建的大规模预训练语言模型在特征提取和文本表征能力上相较之前的神经网络模型取得了... 语言模型是自然语言处理领域最重要的任务之一,并以迁移学习的方式影响着机器翻译、机器阅读理解、自动文本摘要等诸多下游任务。依托多头自注意力构建的大规模预训练语言模型在特征提取和文本表征能力上相较之前的神经网络模型取得了较大提升,却也极大地增加了模型训练的时空复杂度。为此,从模糊群决策的角度出发,将毕达哥拉斯模糊非偏好函数用作多头注意力跨度范围的先验,提出一种自适应的注意力跨度调节机制,较大程度地改善了模型捕捉长距离文本依赖的能力,并使模型的整体计算复杂度相较原始Transformer结构维持在较低水平。公开语言模型数据集上的实验表明:所提方法在困惑度指标上取得了较好的性能,超越了多种以往的方法。 展开更多
关键词 预训练语言模型 多头注意力 自适应注意力跨度 毕达哥拉斯模糊 非偏好函数
下载PDF
结合双预训练语言模型的中文文本分类模型
17
作者 原明君 江开忠 《智能计算机与应用》 2023年第7期1-6,14,共7页
针对Word2Vec等模型所表示的词向量存在语义模糊从而导致的特征稀疏问题,提出一种结合自编码和广义自回归预训练语言模型的文本分类方法。首先,分别通过BERT、XLNet对文本进行特征表示,提取一词多义、词语位置及词间联系等语义特征;再... 针对Word2Vec等模型所表示的词向量存在语义模糊从而导致的特征稀疏问题,提出一种结合自编码和广义自回归预训练语言模型的文本分类方法。首先,分别通过BERT、XLNet对文本进行特征表示,提取一词多义、词语位置及词间联系等语义特征;再分别通过双向长短期记忆网络(BiLSTM)充分提取上下文特征,最后分别使用自注意力机制(Self_Attention)和层归一化(Layer Normalization)实现语义增强,并将两通道文本向量进行特征融合,获取更接近原文的语义特征,提升文本分类效果。将提出的文本分类模型与多个深度学习模型在3个数据集上进行对比,实验结果表明,相较于基于传统的Word2Vec以及BERT、XLNet词向量表示的文本分类模型,改进模型获得更高的准确率和F1值,证明了改进模型的分类有效性。 展开更多
关键词 预训练语言模型 双向长短期记忆网络 自注意力机制 层归一化
下载PDF
融合预训练语言模型的成语完形填空算法 被引量:2
18
作者 琚生根 黄方怡 孙界平 《软件学报》 EI CSCD 北大核心 2022年第10期3793-3805,共13页
根据上下文语境选择恰当的成语,是自然语言处理领域的重要任务之一.现有的研究将成语完型填空任务看成是文本匹配问题,虽然预训练语言模型能够在文本匹配研究上取得较高的准确率,但也存在明显的缺陷:一方面,预训练语言模型作为特征提取... 根据上下文语境选择恰当的成语,是自然语言处理领域的重要任务之一.现有的研究将成语完型填空任务看成是文本匹配问题,虽然预训练语言模型能够在文本匹配研究上取得较高的准确率,但也存在明显的缺陷:一方面,预训练语言模型作为特征提取器时,会丢失句子间相互信息;另一方面,预训练语言模型作为文本匹配器时,计算开销大,训练时间和推理时间较长.另外,上下文与候选成语之间的匹配是不对称的,会影响预训练语言模型发挥匹配器的效果.为了解决上述两个问题,利用参数共享的思想,提出了TALBERT-blank.TALBERTblank是将成语选择从基于上下文的不对称匹配过程转换为填空与候选答案之间的对称匹配过程,将预训练语言模型同时作为特征提取器和文本匹配器,并对句向量作潜在语义匹配.这样可以减少参数量和内存的消耗,在保持准确度的情况下,提高了训练和推理速度,达到了轻量高效的效果.在CHID数据集上的实验结果表明:作为匹配器,TALBERT-blank相较于ALBERT,在保证准确率的情况下,更大限度地精简了模型的结构,计算时间进一步缩短54.35%. 展开更多
关键词 成语完形填空 文本匹配 深度学习 预训练语言模型
下载PDF
基于Transformer的预训练语言模型在自然语言处理中的应用研究 被引量:1
19
作者 易顺明 许礼捷 周洪斌 《沙洲职业工学院学报》 2022年第3期1-6,共6页
自然语言处理(NLP)研究从早期基于规则的方法转向基于特征分析的机器学习,再转向无需事先进行特征抽取的深度学习,发展很快,但因其需要的文本数据量越来越大,模型训练所需的标注工作量巨大,对算力的要求也越来越高,而难以被广泛应用。基... 自然语言处理(NLP)研究从早期基于规则的方法转向基于特征分析的机器学习,再转向无需事先进行特征抽取的深度学习,发展很快,但因其需要的文本数据量越来越大,模型训练所需的标注工作量巨大,对算力的要求也越来越高,而难以被广泛应用。基于Transformer的预训练语言模型(T-PTLM)提供了一个新的研究和应用路径:通过大规模无标注文本数据广泛学习语言现象,使模型具有很强的通用性,然后将模型进行迁移和微调,在NLP的许多具体任务应用中均取得了很好的效果。 展开更多
关键词 深度学习 TRANSFORMER 预训练语言模型 自然语言处理
下载PDF
基于序列到序列预训练语言模型的楹联自动生成算法 被引量:1
20
作者 乔露 《微型电脑应用》 2022年第12期42-44,共3页
为了降低楹联文化的学习门槛,激发年轻人对楹联文化的兴趣,提出了一种基于序列到序列预训练神经网络语言模型的楹联自动生成算法。该算法将楹联应对任务建模为一个序列到序列的生成问题,将楹联的上联作为输入,并自递归地(auto-regressiv... 为了降低楹联文化的学习门槛,激发年轻人对楹联文化的兴趣,提出了一种基于序列到序列预训练神经网络语言模型的楹联自动生成算法。该算法将楹联应对任务建模为一个序列到序列的生成问题,将楹联的上联作为输入,并自递归地(auto-regressively)生成出符合楹联标准要求的下联。与现有神经网络方法不同,该算法模型在楹联生成任务上的训练前,在大规模无监督语料上进行预训练(pre-train),在楹联监督数据上进行微调(fine-tune)。在公开数据集上的实验证明,该算法在测试集上的BLEU值与人工评估指标相对基线模型均有明显提升,证明了该算法的有效性。 展开更多
关键词 楹联生成 预训练语言模型 文本生成 自然语言处理
下载PDF
上一页 1 2 15 下一页 到第
使用帮助 返回顶部