web-dev-qa-db-ja.com

idea sbt Java.lang.NoClassDefFoundError:org / Apache / spark / SparkConf

私はSparkの初心者です。 "linux + idea + sbt"を使用して環境を構築し、Sparkのクイックスタートを試すと問題が発生します。

    Exception in thread "main" Java.lang.NoClassDefFoundError: org/Apache/spark/SparkConf
    at test$.main(test.scala:11)
    at test.main(test.scala)
    at Sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
    at Sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.Java:62)
    at Sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.Java:43)
    at Java.lang.reflect.Method.invoke(Method.Java:498)
    at com.intellij.rt.execution.application.AppMain.main(AppMain.Java:144)
Caused by: Java.lang.ClassNotFoundException: org.Apache.spark.SparkConf
    at Java.net.URLClassLoader.findClass(URLClassLoader.Java:381)
    at Java.lang.ClassLoader.loadClass(ClassLoader.Java:424)
    at Sun.misc.Launcher$AppClassLoader.loadClass(Launcher.Java:331)
    at Java.lang.ClassLoader.loadClass(ClassLoader.Java:357)
    ... 7 more

私のディスクにあるそれらのバージョン:

sbt   = 0.13.11
jdk   = 1.8
scala = 2.10
idea  = 2016

私のディレクトリ構造:

test/
  idea/
  out/
  project/
    build.properties    
    plugins.sbt
  src/
    main/
      Java/
      resources/
      scala/
      scala-2.10/
        test.scala
  target/
  Assembly.sbt
  build.sbt

Build.propertiesで:

sbt.version = 0.13.8

Plugins.sbtで:

logLevel := Level.Warn

addSbtPlugin("com.github.mpeltonen" % "sbt-idea" % "1.6.0")

addSbtPlugin("com.eed3si9n" % "sbt-Assembly" % "0.11.2")

Build.sbt:

import sbt._
import Keys._
import sbtassembly.Plugin._
import AssemblyKeys._

name := "test"

version := "1.0"

scalaVersion := "2.10.4"

libraryDependencies += "org.Apache.spark" % "spark-core_2.10" % "1.6.1" % "provided"

Assembly.sbtで:

import AssemblyKeys._ // put this at the top of the file

assemblySettings

Test.scalaで:

import org.Apache.spark.SparkContext
import org.Apache.spark.SparkContext._
import org.Apache.spark.SparkConf

object test {
  def main(args: Array[String]) {
    val logFile = "/opt/spark-1.6.1-bin-hadoop2.6/README.md" // Should be some file on your system
    val conf = new SparkConf().setAppName("Test Application")
    val sc = new SparkContext(conf)
    val logData = sc.textFile(logFile, 2).cache()
    val numAs = logData.filter(line => line.contains("a")).count()
    val numBs = logData.filter(line => line.contains("b")).count()
    println("Lines with a: %s, Lines with b: %s".format(numAs, numBs))
  }
}

この問題を解決するにはどうすればよいですか。

10
Banehallow

"provided"スコープの依存関係は、コンパイルおよびテスト中にのみ使用でき、実行時またはパッケージ化では使用できません。したがって、testを使用してオブジェクトをmainにする代わりに、src/test/scalaに配置された実際のテストスイートにする必要があります(Scalaでのユニットテストに慣れていない場合たとえば、ScalaTestを使用することをお勧めします。まず、ビルドに依存関係をbuild.sbtに追加します:libraryDependencies += "org.scalatest" %% "scalatest" % "2.2.4" % Test次に、これに進みます クイックスタートチュートリアル 単純な仕様を実装します) 。


別のオプションは、かなりハッキーですが、私の意見では(ただし、トリックはありますが)、一部の構成でspark-core依存関係からprovidedスコープを削除することを含み、受け入れられた回答 この質問

15
Sergey

IntelliJバージョン2018.1では、実行構成に「「提供された」スコープの依存関係を含める」というチェックボックスがあります。このオプションをチェックすると解決しました。

8
Jared

今朝同じエラーが出て、同じエラーが出ました。私は「提供」を削除し、sbt clean、リロード、コンパイル、パッケージ、実行を実行しました。また、コマンドラインからspark-submitを使用してテストします。しかし、私は「提供された」と思います、コードの余分なオーバーヘッド、jarはより少ないです。

6
user3485352