为在模型训练期间保留更多信息,用预训练词向量和微调词向量对双向长短期记忆网络(Bi-LSTM)神经模型进行扩展,并结合协同训练方法来应对医疗文本标注数据缺乏的情况,构建出改进模型CTD-BLSTM(Co-Training Double word embedding conditi...为在模型训练期间保留更多信息,用预训练词向量和微调词向量对双向长短期记忆网络(Bi-LSTM)神经模型进行扩展,并结合协同训练方法来应对医疗文本标注数据缺乏的情况,构建出改进模型CTD-BLSTM(Co-Training Double word embedding conditioned Bi-LSTM)用于医疗领域的中文命名实体识别.实验表明,与原始BLSTM与BLSTM-CRF相比,CTD-BLSTM模型在语料缺失的情况下具有更高的准确率和召回率,能够更好地支持医疗领域知识图谱的构建以及知识问答系统的开发.展开更多