简单说一下hadoop和spark的shuffle过程
摘要:
简单说一下hadoop和spark的shuffle过程
问题:**简单说一下hadoop和spark的shuffle过程**
出题人:京东出题专家:阿昀/京东数据中台
参考答案:
Hadoop:map端保存分片数据,通过网络收集到reduce端。
Spark:spark的shuffle实在DAGSchedular划分Stage的时候产生的,TaskSchedular要分发Stage到各个worker的executor。减少shuffle可以提高性能。
网友留言评论