期刊文献+
共找到11篇文章
< 1 >
每页显示 20 50 100
一种拟态存储元数据随机性问题解决方法 被引量:1
1
作者 杨珂 张帆 +2 位作者 郭威 赵博 穆清 《计算机工程》 CAS CSCD 北大核心 2022年第2期140-146,155,共8页
拟态存储作为网络空间拟态防御技术在分布式存储领域的工程实现,能够有效提高存储系统的安全性。由于元数据节点中存在随机性的算法和逻辑,使得执行体状态可能不一致,从而导致整个拟态存储系统无法正常运转。为解决该问题,提出一种元数... 拟态存储作为网络空间拟态防御技术在分布式存储领域的工程实现,能够有效提高存储系统的安全性。由于元数据节点中存在随机性的算法和逻辑,使得执行体状态可能不一致,从而导致整个拟态存储系统无法正常运转。为解决该问题,提出一种元数据再同步方法。在系统中引入状态监视模块和映射同步机制,状态监视模块及时检测执行体状态不一致的情况并进行反馈,映射同步机制建立客户端指令和裁决器输出结果之间的映射关系,使得同步过程在不影响拟态存储系统正常工作的同时符合分布式存储系统最终的一致性要求。在拟态存储工程样机上进行功能和性能测试,结果表明,该方法能够以较小的性能开销来有效解决元数据执行体状态不一致的问题,提升拟态存储系统的稳定性,重复执行再同步机制可使同步成功率达到100%。 展开更多
关键词 网络空间拟态防御 分布式存储 异构冗余 元数据节点 状态同步
下载PDF
一种OGSA架构上基于经验共享的服务搜索方法(英文) 被引量:1
2
作者 贺红 袁胜忠 魏峻 《计算机科学与探索》 CSCD 2008年第5期511-518,共8页
假设同一虚拟组织的成员经常拥有同样的专业兴趣,设计了一种新的数据结构——节点服务表(Node-Service-Table,NST)来记录每个成员的服务搜索经验,借助NST改进了基于经验共享的服务搜索方法CSE。改进算法不仅能减少搜索的盲目性,提高命中... 假设同一虚拟组织的成员经常拥有同样的专业兴趣,设计了一种新的数据结构——节点服务表(Node-Service-Table,NST)来记录每个成员的服务搜索经验,借助NST改进了基于经验共享的服务搜索方法CSE。改进算法不仅能减少搜索的盲目性,提高命中率,而且可以用于估算网格工作流执行时间。该方法的时间复杂性是O(n),空间复杂性是O(n2)。 展开更多
关键词 网格中间件 服务搜索 元数据 节点服务表
下载PDF
网格环境中基于元数据节点的资源发现方法 被引量:3
3
作者 李玲娟 毕瑞英 《西安邮电学院学报》 2008年第1期91-94,共4页
资源发现是网格的关键技术之一,传统的集中式资源发现方法的资源信息共享性较差。本文以实现更为广泛的资源共享为目标,提出了一种基于元数据节点的资源发现方法。该方法继承了关键词搜索方法的优点,支持结果重用,提高了资源发现的效率... 资源发现是网格的关键技术之一,传统的集中式资源发现方法的资源信息共享性较差。本文以实现更为广泛的资源共享为目标,提出了一种基于元数据节点的资源发现方法。该方法继承了关键词搜索方法的优点,支持结果重用,提高了资源发现的效率和资源信息的共享性。 展开更多
关键词 网格 资源发现 元数据节点
下载PDF
云存储系统管理节点故障自恢复算法 被引量:1
4
作者 马玮骏 王强 +2 位作者 何晓晖 张舒 张庆 《计算机系统应用》 2017年第2期112-117,共6页
为了解决大规模云存储系统中管理节点发生故障导致存储服务不可用的问题,建立了管理节点故障影响分析模型,提出了一种基于消息的管理节点动态自我恢复算法FRA-M.该算法通过基于负载均衡的元数据备份更新控制方法完成多个管理节点之间相... 为了解决大规模云存储系统中管理节点发生故障导致存储服务不可用的问题,建立了管理节点故障影响分析模型,提出了一种基于消息的管理节点动态自我恢复算法FRA-M.该算法通过基于负载均衡的元数据备份更新控制方法完成多个管理节点之间相互协作、透明接管和故障自我恢复.测试结果表明,FRA-M算法能够使得管理节点发生故障时自动进行切换,并且能够合理地分配资源达到良好的负载均衡状态.通过控制TCP超时时限、故障检测周期以及故障检测超时,能够使得FRA-M算法的性能保持在相对稳定的区间,随失效时刻的适应性也比较强.当管理节点发生故障时,FRA-M能够较好地保证存储服务可用性、数据可用性和数据可靠性. 展开更多
关键词 云存储系统 管理节点 自我恢复 元数据 负载均衡 动态切换
下载PDF
SingleMapReduce:单一输出HDFS文件的MapReduce编程模型 被引量:2
5
作者 陈吉荣 乐嘉锦 《华南理工大学学报(自然科学版)》 EI CAS CSCD 北大核心 2014年第5期135-142,共8页
经典MapReduce编程模型的输出结果不是单一的Hadoop分布式文件系统(HDFS)文件,为此,文中提出了单一输出文件的MapReduce编程模型:SingleMapReduce.该模型通过拦截Job Successful状态,将输出目录下的所有文件"整合"为单一文件... 经典MapReduce编程模型的输出结果不是单一的Hadoop分布式文件系统(HDFS)文件,为此,文中提出了单一输出文件的MapReduce编程模型:SingleMapReduce.该模型通过拦截Job Successful状态,将输出目录下的所有文件"整合"为单一文件.文中给出了HDFS的4个重要特征,提出了HDFS的"块典型分布"和"块非典型分布"的概念,设计了一种通过整合元数据来达到整合文件的算法.理论分析和实验结果表明:该模型的MapReduce计算的输出结果为单一文件;该模型可以再次以文件的形式对MapReduce计算的输出结果进行分片,并可用并行方式导入大表或大文件到HDFS中;该模型间接支持了名称节点的扩展性. 展开更多
关键词 分布式计算系统 元数据 MAPREDUCE HADOOP分布式文件系统 名称节点 数据节点
下载PDF
云存储系统Master节点故障动态切换算法
6
作者 马玮骏 王强 +2 位作者 何晓晖 冯径 马强 《计算机技术与发展》 2017年第9期85-91,共7页
为了解决大规模云存储系统中Master节点发生故障导致存储服务不可用的问题,建立了面向云存储系统管理节点发生故障时的故障影响分析模型。该模型以存储服务可用性、数据可靠性和数据可用性为分析目标,通过故障状态、管理节点实时状态以... 为了解决大规模云存储系统中Master节点发生故障导致存储服务不可用的问题,建立了面向云存储系统管理节点发生故障时的故障影响分析模型。该模型以存储服务可用性、数据可靠性和数据可用性为分析目标,通过故障状态、管理节点实时状态以及管理节点故障的限制条件三个维度对故障影响进行分析,为恢复故障提供了有效的方法依据。同时,基于故障影响分析模型,提出了一种基于消息的Master节点故障动态切换算法—DSA-M。该算法通过基于序号的优先级策略实现了Master节点动态申请和切换,保证了云存储服务的高可用性。测试结果表明,DSA-M算法能够在Master节点发生故障时自动进行Master节点的切换和接管,恢复云存储服务的运行;通过控制故障检测周期,能够使得DSA-M算法的性能保持在相对稳定的区间内,随失效时刻的适应性也比较强。 展开更多
关键词 云存储系统 Master节点 故障检测 元数据 动态切换
下载PDF
基于网络拓扑与节点元数据的社团检测算法 被引量:1
7
作者 刘宇廷 毕海滨 +1 位作者 郭强 倪颖杰 《计算机工程》 CAS CSCD 北大核心 2018年第11期178-183,共6页
传统社团检测算法利用网络拓扑挖掘社团结构,忽略了真实复杂网络中节点自身属性等信息在社团归属方面的重要作用。为此,提出基于网络拓扑与节点元数据的复杂网络社团检测算法。将高维的节点元数据建模为混合高斯模型,结合随机块模型建... 传统社团检测算法利用网络拓扑挖掘社团结构,忽略了真实复杂网络中节点自身属性等信息在社团归属方面的重要作用。为此,提出基于网络拓扑与节点元数据的复杂网络社团检测算法。将高维的节点元数据建模为混合高斯模型,结合随机块模型建立似然概率模型,通过求解模型最优解得到网络的最优划分结果。在基准网络与Facebook网络上的实验结果表明,该算法不仅能准确挖掘网络中的社团结构,而且可结合真实社团情况给出合理解释。 展开更多
关键词 复杂网络 社团检测 节点元数据 高斯混合模型 随机块模型
下载PDF
基于GIS的分布式通信资源管理系统设计与实现
8
作者 刘强 白杨建 欧长虹 《地理信息世界》 2005年第B08期42-46,共5页
介绍了基于GIS的分布式通信资源管理系统的设计与实现思路。提出了以GIS为基础平台.以地图为载体,整合各种通信资源,建立通信资源综合空间数据库的方法,并探讨了跨区域通信资源的分布式管理模式和系统实现方法。
关键词 通信资源 分布式 应用结点 元数据
下载PDF
Paxos优化算法下的数据库元数据一致性方法研究
9
作者 周一帆 《现代电子技术》 2013年第13期65-67,70,共4页
通过对Paxos算法的研究与分析,从缩减阶段过程、减少Learner通信量、使用快照机制进行节点崩溃恢复和使用批量提交方式节省通信量等方面改进了基本的Paxos算法,并搭建仿真实验环境,测试验证优化的Paxos算法的效果及性能,得出结论。
关键词 元数据一致性 Paxos 阈值 Leader节点
下载PDF
海上信息栅格化构造体系研究
10
作者 顾健 《舰船电子工程》 2008年第9期5-8,36,共5页
以海上信息栅格的军事需求和本质特征为基础,对构成海上信息栅格的基础资源层、信息传输层、协同计算层和服务聚合层进行了分析;提出了栅格节点定义标准,对海上信息栅格节点按位置属性和功能属性进行了合理规划;建立海上信息栅格物理资... 以海上信息栅格的军事需求和本质特征为基础,对构成海上信息栅格的基础资源层、信息传输层、协同计算层和服务聚合层进行了分析;提出了栅格节点定义标准,对海上信息栅格节点按位置属性和功能属性进行了合理规划;建立海上信息栅格物理资源的信息描述规范,提出通用类、信息探测类、信息处理类和武器打击类元数据描述方法,并对典型元数据进行了描述。 展开更多
关键词 信息栅格 体系结构 节点 元数据
下载PDF
Dr. Hadoop: an infinite scalable metadata management for Hadoop How the baby elephant becomes immortal
11
作者 dipayan dev ripon patgiri 《Frontiers of Information Technology & Electronic Engineering》 SCIE EI CSCD 2016年第1期15-31,共17页
In this Exa byte scale era, data increases at an exponential rate. This is in turn generating a massive amount of metadata in the file system. Hadoop is the most widely used framework to deal with big data. Due to thi... In this Exa byte scale era, data increases at an exponential rate. This is in turn generating a massive amount of metadata in the file system. Hadoop is the most widely used framework to deal with big data. Due to this growth of huge amount of metadata, however, the efficiency of Hadoop is questioned numerous times by many researchers. Therefore, it is essential to create an efficient and scalable metadata management for Hadoop.Hash-based mapping and subtree partitioning are suitable in distributed metadata management schemes. Subtree partitioning does not uniformly distribute workload among the metadata servers, and metadata needs to be migrated to keep the load roughly balanced. Hash-based mapping suffers from a constraint on the locality of metadata, though it uniformly distributes the load among Name Nodes, which are the metadata servers of Hadoop. In this paper, we present a circular metadata management mechanism named dynamic circular metadata splitting(DCMS). DCMS preserves metadata locality using consistent hashing and locality-preserving hashing, keeps replicated metadata for excellent reliability, and dynamically distributes metadata among the Name Nodes to keep load balancing. Name Node is a centralized heart of the Hadoop. Keeping the directory tree of all files, failure of which causes the single point of failure(SPOF). DCMS removes Hadoop's SPOF and provides an efficient and scalable metadata management. The new framework is named ‘Dr. Hadoop' after the name of the authors. 展开更多
关键词 Hadoop Namenode metadata Locality-preserving hashing Consistent HASHING
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部