Spark 특징
Spark context함수를 이용하여 데이터셋을 RDD로 캡슐화(Input $\rightarrow$ RDD1)Scala는 Python과 유사한 문법을 가짐
  nums = sc.parallelize([1,2,3,4])
  squared = list(nums.map(lambda x: x*x))
  val nums = sc.parallelize(List(1,2,3,4))
  val squared = nums.map(x => x*x).collect()
Spark Application
