发现学完hadoop的hdfs,mapreduce,yarn就比较懈怠了,有点迷茫不知道是现学hive还是spark,不知道是该先继续深究hadoop还是开始新的学习,发现网上的学习视频都比较老,还是官网好。所以今天的学习计划必须坚持下去,打算学习spark,因为scala之前已经学过,其实spark之前也已经学过,所以我可以直接看网上的文档即可。
学习时间:晚上9:00~11:30
学习任务:spark了解以及形成博文。Spark环境搭建。
">
发现学完hadoop的hdfs,mapreduce,yarn就比较懈怠了,有点迷茫不知道是现学hive还是spark,不知道是该先继续深究hadoop还是开始新的学习,发现网上的学习视频都比较老,还是官网好。所以今天的学习计划必须坚持下去,打算学习spark,因为scala之前已经学过,其实spark之前也已经学过,所以我可以直接看网上的文档即可。
学习时间:晚上9:00~11:30
学习任务:spark了解以及形成博文。Spark环境搭建。