摘要
认为现有以Map Reduce/Spark等为代表的大数据处理平台在解决大数据问题的挑战问题方面过多考虑了容错性,忽视了性能。大数据分析系统的一个重要的发展方向就是兼顾性能和容错性,而图计算系统在数据模型上较好地考虑了性能和容错能力的平衡,是未来的重要发展方向。
Existing big data analytic platforms, such as Map Reduce and Spark, focus on scalability and fault tolerance at the expense of performance. We discuss the connections between performance and fault tolerance and show they are not mutually exclusive. Distributed graph processing systems are promising because they make a better tradeoff between performance and fault tolerance with mutable data models.
出处
《中兴通讯技术》
2016年第2期11-13,共3页
ZTE Technology Journal
基金
国家重点基础研究发展("973")计划(2014CB340402)
国家自然科学基金(61525202)
关键词
大数据
分布与并行处理
并行编程
容错
可扩展性
big data
distributed and parallel processing
parallel programming
fault tolerance
scalability