数据开发(以Spark SQL为例)

最近更新时间: 2019-11-13 07:53:37

将Spark SQL拖拽至右侧,输入节点名称添加节点 双击打开,在深色区域输入指令 点击【格式化】进行自动的换行和缩进 点击右侧包依赖添加依赖包
点击【运行】进行测试,完成后点击【保存】。偷锁相关功能与数据加工处相同。 回到作业流页面,对各节点进行连线建立依赖关系,完成后点击【保存】。