目的:对预康复在癌症外科手术领域的研究进行可视化分析,以期为我国开展相关研究提供科学指导依据。方法:检索2013年1月1日—2022年12月31日中国知网(CNKI)、万方数据库、PubMed、Web of Science核心合集数据库中有关预康复在癌症外科...目的:对预康复在癌症外科手术领域的研究进行可视化分析,以期为我国开展相关研究提供科学指导依据。方法:检索2013年1月1日—2022年12月31日中国知网(CNKI)、万方数据库、PubMed、Web of Science核心合集数据库中有关预康复在癌症外科手术领域研究的相关文献,应用CiteSpace(6.1.R6版本)软件对纳入文献的发文国家、机构、研究热点及发展趋势进行可视化分析。结果:共纳入中文文献2359篇,英文文献1943篇,2013—2019年预康复在癌症外科手术领域中,中英文文献发文量持续增长,英文文献发文量最多的国家为美国;国内发文量最多的机构为西安交通大学第一附属医院,国外发文量最多的机构为麦吉尔大学;研究热点为胃癌、结直肠癌、围手术期、快速康复外科等,发展趋势为随机对照试验、围手术期和快速康复理念。结论:预康复作为加速康复外科重要管理路径之一和围手术期管理的重要环节,应完善多模式、多阶段的预康复研究内容,提升医疗团队与研究对象认知水平,延伸预康复研究对象,积极开展多中心、大样本研究,以期开展符合我国国情的癌症外科手术领域预康复研究。展开更多
鉴于Transformer的Self-Attention机制具有优秀的表征能力,许多研究者提出了基于Self-Attention机制的图像处理模型,并取得了巨大成功。然而,基于Self-Attention的传统图像分类网络无法兼顾全局信息和计算复杂度,限制了Self-Attention...鉴于Transformer的Self-Attention机制具有优秀的表征能力,许多研究者提出了基于Self-Attention机制的图像处理模型,并取得了巨大成功。然而,基于Self-Attention的传统图像分类网络无法兼顾全局信息和计算复杂度,限制了Self-Attention的广泛应用。文中提出了一种有效的、可扩展的注意力模块Local Neighbor Global Self-Attention(LNG-SA),该模块在任意时期都能进行局部信息、邻居信息和全局信息的交互。通过重复级联LNG-SA模块,设计了一个全新的网络,称为LNG-Transformer。该网络整体采用层次化结构,具有优秀的灵活性,其计算复杂度与图像分辨率呈线性关系。LNG-SA模块的特性使得LNG-Transformer即使在早期的高分辨率阶段,也可以进行局部信息、邻居信息和全局信息的交互,从而带来更高的效率、更强的学习能力。实验结果表明,LNG-Transformer在图像分类任务中具有良好的性能。展开更多
文摘目的:对预康复在癌症外科手术领域的研究进行可视化分析,以期为我国开展相关研究提供科学指导依据。方法:检索2013年1月1日—2022年12月31日中国知网(CNKI)、万方数据库、PubMed、Web of Science核心合集数据库中有关预康复在癌症外科手术领域研究的相关文献,应用CiteSpace(6.1.R6版本)软件对纳入文献的发文国家、机构、研究热点及发展趋势进行可视化分析。结果:共纳入中文文献2359篇,英文文献1943篇,2013—2019年预康复在癌症外科手术领域中,中英文文献发文量持续增长,英文文献发文量最多的国家为美国;国内发文量最多的机构为西安交通大学第一附属医院,国外发文量最多的机构为麦吉尔大学;研究热点为胃癌、结直肠癌、围手术期、快速康复外科等,发展趋势为随机对照试验、围手术期和快速康复理念。结论:预康复作为加速康复外科重要管理路径之一和围手术期管理的重要环节,应完善多模式、多阶段的预康复研究内容,提升医疗团队与研究对象认知水平,延伸预康复研究对象,积极开展多中心、大样本研究,以期开展符合我国国情的癌症外科手术领域预康复研究。
文摘鉴于Transformer的Self-Attention机制具有优秀的表征能力,许多研究者提出了基于Self-Attention机制的图像处理模型,并取得了巨大成功。然而,基于Self-Attention的传统图像分类网络无法兼顾全局信息和计算复杂度,限制了Self-Attention的广泛应用。文中提出了一种有效的、可扩展的注意力模块Local Neighbor Global Self-Attention(LNG-SA),该模块在任意时期都能进行局部信息、邻居信息和全局信息的交互。通过重复级联LNG-SA模块,设计了一个全新的网络,称为LNG-Transformer。该网络整体采用层次化结构,具有优秀的灵活性,其计算复杂度与图像分辨率呈线性关系。LNG-SA模块的特性使得LNG-Transformer即使在早期的高分辨率阶段,也可以进行局部信息、邻居信息和全局信息的交互,从而带来更高的效率、更强的学习能力。实验结果表明,LNG-Transformer在图像分类任务中具有良好的性能。