1. 程式人生 > 實用技巧 >使用idea 編寫spark程式

使用idea 編寫spark程式

一、 建立工程或者模組

如果已經存在工程,那麼可以在當前工程下建立模組。
如果不存在工程,可以直接建立一個工程。

1.1 建立maven模組

由於已經存在一個相同的模組,我這裡標紅了。

1.2 修改pom檔案

<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0"
         xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
         xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
    <modelVersion>4.0.0</modelVersion>

    <groupId>org.asiainfo</groupId>
    <artifactId>myscala</artifactId>
    <version>1.0-SNAPSHOT</version>

    <build>
        <plugins>
            <plugin>
                <groupId>org.apache.maven.plugins</groupId>
                <artifactId>maven-compiler-plugin</artifactId>
                <version>3.2</version>
                <configuration>
                    <source>1.8</source>
                    <target>1.8</target>
                    <encoding>UTF-8</encoding>


                </configuration>


            </plugin>
            <plugin>
                <groupId>org.scala-tools</groupId>
                <artifactId>maven-scala-plugin</artifactId>
                <version>2.15.2</version>
                <executions>
                    <execution>
                        <goals>
                            <goal>compile</goal>
                            <goal>testCompile</goal>
                        </goals>
                    </execution>
                </executions>
            </plugin>


            <plugin>
                <groupId>org.apache.maven.plugins</groupId>
                <artifactId>maven-jar-plugin</artifactId>
                <version>2.4</version>
                <configuration>
                    <archive>
                        <!-- 生成的jar中,不要包含pom.xml和pom.properties這兩個檔案-->
                        <addMavenDescriptor>false</addMavenDescriptor>
                        <manifest>
                            <!--是否要把第三方jar放到manifest的classpath中-->
                            <addClasspath>true</addClasspath>
                            <!--生成的manifest中classpath的字首,因為要把第三方jar放到lib目錄下,所以classpath的字首是lib/-->
                            <classpathPrefix>lib/</classpathPrefix>
                            <!-- 應用的main class-->
                            <mainClass>ocom.asiainfo.test.WordCound</mainClass>
                        </manifest>
                    </archive>
                    <!--  過濾掉不希望包含在jar中的檔案-->
                    <excludes>
                        <exclude>${project.basedir}/xml/*</exclude>
                    </excludes>
                </configuration>
            </plugin>

        </plugins>
    </build>
    <dependencies>
        <!-- https://mvnrepository.com/artifact/org.apache.spark/spark-core -->
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-core_2.12</artifactId>
            <version>3.0.1</version>
        </dependency>
        <!-- https://mvnrepository.com/artifact/org.apache.hadoop/hadoop-client -->
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-client</artifactId>
            <version>3.1.4</version>
        </dependency>
<!--
        <dependency>
            <groupId>org.apache.tez</groupId>
            <artifactId>tez-api</artifactId>
            <version>0.7.0</version>
        </dependency>
-->
    </dependencies>
</project>

1.3 為當前專案新增對應的Scala框架
右鍵當前專案---> “Add Framework Support”---> 選擇scala

二 程式碼編寫

2.1 在myscala模組下的src路徑下,建立一個scala目錄

2.2 標記為源目錄
郵件建立的scala

2.3 在scala目錄下建立package,然後建立scala檔案
具體的測試程式碼如下

package com.asiainfo.test

import org.apache.spark.{SparkConf, SparkContext}

/**
 * ClassName: WordCound
 * Description: 
 * date: 2020/12/3 10:36
 *
 * @author yjt
 * @version
 * @since JDK 1.8
 */
object WordCound {
  def main(args: Array[String]): Unit = {
    val conf = new SparkConf().setAppName("WordCount")
    val sc = new SparkContext(conf)
    sc.textFile(args(0)).flatMap(_.split(" ")).map((_ ,1)).reduceByKey(_ + _,1).sortBy(_._2,false).saveAsTextFile(args(1));
    //停止sc,結束該任務
    sc.stop()
  }
}

三 打包部署到叢集

測試

./spark-submit --class com.asiainfo.test.WordCound --master spark://hadoop1:7077,hadoop2:7077  /home/hduser/  hdfs://yjt/input/a.log hdfs://yjt/output

結果

借鑑:
| https://blog.csdn.net/daqiang012/article/details/104561868
| https://www.cnblogs.com/biehongli/p/8462625.html