代码拉取完成,页面将自动刷新
在spark基础上,做简单二次封装,简化初级程序员快速入手spark分析程序
通过注解的@Engine(name = "engineName")方式声明spark统计任务并继承SparkBase类,实现doAi方法。
@Engine(name = "GeoJsonApp")
public class GeoJsonApp extends SparkBase {
@Override
public void doAi(JSONObject params) {
Dataset<Row> jsonDataset = sparkSession.read().json(configKit.getEsparkFilePath());
jsonDataset.printSchema();
jsonDataset.show();
}
}
启动任务
EngineApp.java 根据参数输入需要调试启动的app
示例已spark standalone模式,每台spark节点统计目录都需要有相同结构且相同文件。
集群提交的格式
例如: A,B,C三台spark集群,文件放置目录 /home/easy-spark/cluster
mvn clean install -Dmaven.test.skip=true -P cluster-build
注意:geo-json-app.sh脚本内部commonPropertiesPath必须配置成绝对路径否则读取不到自定义配置文件
$ cd cluster/sh
$ sh geo-json-app.sh
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。