云栖大会 | Apache Spark 3.0 和 Koalas 最新进展

过往记忆大数据 过往记忆大数据
本资料来自2019-09-26在杭州举办的云栖大会的大数据 & AI 峰会分会。议题名称《New Developments in the Open Source Ecosystem: Apache Spark 3.0 and Koalas》,分享嘉宾李潇,Databricks Spark 研发总监。
下面是本次会议的视频(由于微信公众号的限制,只能发布小于30分钟的视频,完整视频和 PPT 请关注 过往记忆大数据 公众号并回复 spark_yq 获取。)

2019年对 Spark 社区来说是一个比较特殊的年份。10年前,马铁为了帮助自己的同学得到 Netflix 发起的 Netflix Prize 竞赛百万美金,诞生了一个伟大的项目,这就是现在的 Apache Spark。

上面就是 Apache Spark 的发展历史。2019年09月将会发布 Apache Spark 3.0 预览版,明年年初将会发布 Apache Spark 3.0 正式版。

世界级的知乎 stackoverflow 中当年 Spark 和 PySpark 排名都很靠前,10年累计排名 Apache Spark 第一,Apache Hadoop 第二;未来 Apache Spark 和 PySpark 将会垄断世界。

Apache Spark 3.0 是社区共同努力的结果,大概开发了一年多。下面是 Apache Spark 3.0 的主要特性:

  • 动态分区裁减
  • 自适应
  • Spark Graph
  • 加速感应调度(GPU,具体参见 Apache Spark 3.0 将内置支持 GPU 调度,文末有福利)
  • Spark on k8s
  • DataSource API V2
  • ANSI SQL 兼容
  • SQL Hints
  • Vectorization in SparkR
  • JDK 11
  • Hadoop 3
  • Scala 2.12
    下面主要介绍 Apache Spark 3.0 在查询方面的优化

    在 Spark 2.x 里面加了基于代价的优化,但是这个并不表现的很好。主要有以下几个原因:
  • 统计信息的缺失;
  • 统计信息过期;
  • 很难抽象出一个通用的 cost model。
    为了解决这些问题,Apache Spark 3.0 引入了基于 Runtime 的查询优化。

    第一个就是动态分区裁减

    比如上面的 SQL 查询,假设 t2 表 t2.id < 2 过滤出来的数据比较少,但是由于之前版本的 Spark 无法进行动态计算代价,所以可能会导致 t1 表扫描出大量无效的数据。有了动态分区裁减,可以在运行的时候过滤掉 t1 表无用的数据

    经过这个优化,查询扫描的数据大大减少,性能提升了 33 倍

    第二个优化就是 AE(详情可以参见 Adaptive Execution如何让Spark SQL更高效更好用?)。

    比如下面的查询,基于代价的模型优化不可能准确的评估,

    而有了 AE 之后,Spark 就可以动态统计相关信息,并动态调整执行计划,比如把 SortMergeJoin 变成 BroadcastHashJoin:

    Spark 在诞生之初就定位于统一的大数据处理引擎。

    数据处理主要经过以下三个阶段
  • 商业智能
  • 大数据分析
  • 数据统一 + AI

    Spark 主要面对的是两个群体:数据工程师和数据科学家。

    近几年 Python 的使用者越来越多了,也导致越来越多的用户使用 pandas 来进行数据分析。但是 pandas 主要是解决小数据量的分析,当数据量大的时候,分析性能急剧下降。而为了进行大数据量的分析时,不得不学习新的计算引擎。
    为了解决这个问题,Spark 开源了 koalas,其和 pandas 无缝兼容(koalas 的详细信息可以参见 Koalas: 让 pandas 开发者轻松过渡到 Apache Spark)。下面就是自 koalas 开源以来的单日下载量:


PySpark 作为数据分析的工具,单日下载量也在逐渐增加。
下面是 PySpark DataFrame 和 pandas DataFrame 的区别:

下面是一个使用例子对比,主要是读取一个 csv 文件,并重命名列的名字,最后再添加一个新的列:

可以看出,PySpark 相比 pandas 来说使用起来还是很麻烦,使用 pandas 的用户不得不学习新的 API,但是有了 koalas ,这个问题不存在了:

下面我们来介绍数据工程

在数据工程方面,数砖开源了 Delta Lake(具体参见 重磅 | Apache Spark 社区期待的 Delta Lake 开源了):

Delta Lake 并不是凭空产生的,而是基于成千上万的用户痛点总结出来的。Delta Lake 的使用也很方面,直接把 parquet 替换成 delta:

下面主要介绍 Delta Lake 的特性

下面是 Delta Lake 的三个用户使用场景:



下面是数砖 Delta 的使用情况:


©著作权归作者所有:来自51CTO博客作者mob604756f47778的原创作品,如需转载,请注明出处,否则将追究法律责任

更多相关文章

  1. HBase应用与发展之HBase RowKey与索引设计
  2. 图解 Java 中的数据结构及原理,不懂的也能看清楚
  3. 华为发布业界首款AI-Native数据库,挑动了谁的神经?
  4. DolphinDB内存管理详解
  5. 腾讯云Elasticsearch集群规划及性能优化实践
  6. 百微秒时延,腾讯云云硬盘CBS架构深度解密
  7. 联邦计算:不暴露真实数据如何完成合作建模?
  8. 秒启万台主机,腾讯云云硬盘数据调度架构演进
  9. 内存占用过高怎么办?iOS图片内存优化指南

随机推荐

  1. Android应用程序进程启动过程(后篇)
  2. Android布局属性说明
  3. android 相关的网站
  4. 【Android】关于Android文档的翻译
  5. Android百分比布局:PercentFrameLayout
  6. LinearLayout和RelativeLayout 比较
  7. android logo:内核、android开机动画
  8. Android UI系列-----RelativeLayout的相
  9. Android 给TextView添加点击事件
  10. Android修改Gallery页面布局