sphm.net
当前位置:首页 >> iDEA spArk 远程调试 >>

iDEA spArk 远程调试

先贴一段我在代码中配置 / Window下的配置// 这是在win7中采用idea来调试程序,采用的本地local模式 /*System.setProperty("hadoop.home.dir", "d:\\hadoop-common-2.2.0-bin-master\\") val spark = new SparkContext("local", "Count") val in...

配置一下环境变量SPARK_LOCAL_IP=127.0.0.1 就OK了。 目前处理方式就是debug代码逻辑问题就在windows中。预发布测试就在linux中测试。

下载源码导入 点击file->open 选择以及下载好并解压过的spark-1.6.0包 点击ok,idea会自动安装下载文件 完成后 打开源码!

应该说这个和是不是Spark项目没什么关系。 建议你使用intellij idea,在spark目录下执行"sbt/sbt gen-idea",会自动生成.idea项目,导入即可。 idea我不熟,还需要做一些其他的插件配置(python, sbt等)和环境设置。 你也可以使用Eclipse看,Ecli...

你好。 IntelliJ IDEA 13已经不需要事先sbt gen-idea了,直接打开源码目录,IntelliJ会自动识别SBT项目并导入。不过我一般还是习惯先sbt gen-idea一下。 不是搞spark源码阅读的话,直接下载二进制吧,里边有spark-assembly-1.0.1-hadoop2.2.0.ja...

应该说这个和是不是Spark项目没什么关系。 建议你使用intellij idea,在spark目录下执行"sbt/sbt gen-idea",会自动生成.idea项目,导入即可。 idea我不熟,还需要做一些其他的插件配置(python, sbt等)和环境设置。 你也可以使用Eclipse看

应该说这个和是不是Spark项目没什么关系。 建议你使用intellij idea,在spark目录下执行"sbt/sbt gen-idea",会自动生成.idea项目,导入即可。 idea我不熟,还需要做一些其他的插件配置(python, sbt等)和环境设置。 你也可以使用Eclipse看,Ecli...

网站首页 | 网站地图
All rights reserved Powered by www.sphm.net
copyright ©right 2010-2021。
内容来自网络,如有侵犯请联系客服。zhit325@qq.com