spark包含了很多的部分:spark-core、spark-streaming、sprak-sql、spark-Mlib、spark-graphx等等。 spark可以单独安装作为计算框架,也可以和hadoop的yarn、hdfs一起使用。一般在企业中是配合yarn与hdfs一起使用,所以本文也是以此为基础安装。 安装spark之前需要安装scala,参考文末链接! 同样也需要hadoop集群 本文档适合spark 1.x版本 与 spark 2.x版本的安装,安装时,注意与自己本地路径一致! 0. Spark源…

2020年06月07日 0条评论 107点热度 0人点赞 阅读全文