1. 首页 > 百货

Spark SQL 通过扩展 打造自己的大数据分析引擎

首先我们先来了解一下 Spark SQL的整体执行流程,输入的查询先被解析成未关联元数据的逻辑计划,然后根据元数据和解析规则,生成逻辑计划,再经过优化规则,形成优化过的逻辑计划(RBO),将逻辑计划转换成物理计划在经过代价模型(CBO),输出真正的物理执行计划。

本网站的文章部分内容可能来源于网络和网友发布,仅供大家学习与参考,如有侵权,请联系站长进行删除处理,不代表本网站立场,转载者并注明出处:https://jmbhsh.com/baihuo725/36465.html

联系我们

QQ号:***

微信号:***

工作日:9:30-18:30,节假日休息