原文:本地调试spark程序

用IDEA编写spark程序,每次运行都要先打成jar包,然后再提交到集群上运行,这样很麻烦,不方便调试。我们可以直接在Idea中调试spark程序。 例如下面的WordCount程序: package cn.edu .spark import org.apache.spark.rdd.RDD import org.apache.spark. SparkConf, SparkContext obj ...

2021-01-21 16:40 0 316 推荐指数:

查看详情

本地idea调试spark2.x程序

1.构建使用idea 构建maven 项目 选择org.scala-tools.archetypes:scala-archetype-simple,然后一直点next,maven最好选中本地配置国内源的而不适用idea自生的。 工程创建好后,点击Event Log 修改pox.xml文件 ...

Fri Oct 27 23:40:00 CST 2017 0 1317
<Spark Streaming><本地调试>

写在前面 因为本地电脑没装flume,nginx各种。所以之前写Streaming程序的时候,都是打包了放到集群上跑。就算我在程序代码里不停地logger,调试起来也hin不方便。 于是本地写了两个程序,在intellj调试。 主要就是包括两个程序: 一个是 ...

Sat May 20 18:07:00 CST 2017 0 2101
如何在本地调试你的 Spark Job

生产环境的 Spark Job 都是跑在集群上的,毕竟 Spark 为大数据而生,海量的数据处理必须依靠集群。但是在开发Spark的的时候,不可避免我们要在本地进行一些开发和测试工作,所以如何在本地用好Spark也十分重要,下面给大家分享一些经验。 首先你需要在本机上安装好了Java ...

Fri May 22 06:06:00 CST 2020 0 1303
Spark程序本地运行

Spark程序本地运行 本次安装是在JDK安装完成的基础上进行的! SPARK版本和hadoop版本必须对应!!! spark是基于hadoop运算的,两者有依赖关系,见下图: 前言: 1.环境变量配置: 1.1 打开“控制面板”选项 ...

Wed Nov 08 02:31:00 CST 2017 0 4432
idea在本地调试spark创建hiveContext的时候报错

spark版本:1.6.1 scala版本:2.10 问题呢场景:   在idea调试本地程序的时候创建hiveContext报错,上午的时候是没有这个问题的,下午在项目中写了一个小deamon,出现了而这个问题,下面是我的代码: import ...

Thu Apr 04 00:27:00 CST 2019 0 530
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM