暂无评论
适用于java程序员的spark2参考书,如果不想学scala,这本书非常适用。我也特讨厌scala。操java没什么不好。
sparklyr:Apache Spark的R接口 使用YARN,Mesos,Livy或Kubernetes安装并连接到 。 使用过滤和聚合Spark数据集和然后将它们带入R进行分析和可视化。 使用
TopicModeling, 关于 Apache Spark,主题建模 基于的主题建模研究这里软件包包含一组在Spark上实现的分布式文本建模算法,包括:在线 : 将实现的早期版本合并到了( PR #
NULL 博文链接:https://qq85609655.iteye.com/blog/2205156
火花火石在为spark的webUI添加一个简单的编辑器。开发人员可以更好地了解数据探索的技巧。不用于生产,仅用于本地数据探索。开始吧从此文件夹启动spark-shell,在spark repl上使用此
docker-spark, 通用 Apache Spark 客户端的Docker 映像 客户端 Docker 映像 这个存储库包含一个运行的 Docker 映像。要运行简单的spark shell 插
数据方面的工作样本,PySpark变体 环境设定 如果您已经具有运行正常的Apache Spark配置,则可以使用自己的配置。 为了您的方便,提供docker-compose.yml基于映像。 您将需
spark-gradle-template:使用gradle在IDE中使用Apache Spark
scala-spark-tutorial:詹姆斯的Apache Spark项目与Scala课程
Learning.Spark.pdf(英文版)+图解Spark核心技术与案例实战.pdf
暂无评论