Spark 특징
Spark context
함수를 이용하여 데이터셋을 RDD로 캡슐화(Input $\rightarrow$ RDD1)Scala는 Python과 유사한 문법을 가짐
nums = sc.parallelize([1,2,3,4])
squared = list(nums.map(lambda x: x*x))
val nums = sc.parallelize(List(1,2,3,4))
val squared = nums.map(x => x*x).collect()
Spark Application