FAQ第一期 | 学习大规模数据处理需要什么基础?
下载APP
关闭
渠道合作
推荐作者
FAQ第一期 | 学习大规模数据处理需要什么基础?
2019-05-20 蔡元楠 来自北京
《大规模数据处理实战》
课程介绍
讲述:巴莫
时长09:09大小8.37M
你好,我是蔡元楠。
专栏上线已经一个月了,在这里我要先感谢大家的留言,留言的对答可以使我们互有补益。
这段时间,我发现留言中的很多问题都很有价值,希望你也可以看到。所以,我根据已发布的文章中的思考题,从留言中摘录了一些典型的、常见的问题做出答疑集锦,最终成为了今天你看到的“特别福利篇”。
“开篇词”问题精选
问题一:学习大规模数据处理需要有什么基础?
这是一个很好的问题,虽然专栏已经更新了一个月,我还是要把这个开篇词中的提问放进来。就像你看到的那样,有好几位读者都问了类似的问题。
其实在最开始做专栏的内容设计时,我并没有对读者的知识背景作任何假设。
所以,即使是一些基础的技术概念,我也会举例解释一下(如果你已经会了可能会觉得啰嗦,这时候就需要你照顾一下其他同学了)。如果你有一些语言的编程经验(任何语言都可以)的话,看文章的理解速度会快一点。文章中会有一些示例代码,是用 Python 编写的。
但是在设计类型的案例中,我不觉得它对读者有特别的技术要求。
希望你在后面的阅读中提出建议,告诉我有哪些地方我讲得不够清楚,或者解释的过多,我会适当调整内容。
问题二:小型公司程序员学习大规模数据处理的意义?
这个问题问得很好。以客观条件来看,韩程的说法没有问题。
大规模的互联网公司天生数据量是要大一些的。但是,这并不意味着大数据处理只在大公司才能发挥价值。你也要考虑其他方面。
第一,对于公司来讲,小型互联网公司或者传统企业,并不是不需要数据处理技能,而是他们还没有从数据中挖掘 business insight 的意识,没有数据驱动决策的意识,甚至没有收集数据的意识。
举个我工作中见到的例子。比如,有些饲养奶牛的农户,他们几十年来根本不知道什么是数据。但是,当我们帮他们细致地搜集奶牛每天的活动数据,比如饮食、运动、作息、产奶,他们就能从中找到最经济(最优)的饲料投放方式。
第二,对于个人来讲,你就一定要看长期的职业发展,公司会从小变大,职位会从低变高。当你需要影响决策的时候,当你面临的数据量变多的时候,当你准备跳槽的时候,数据的处理能力都是至关重要的。
“第一讲”问题精选
思考题:如果你在 Facebook 负责处理用户数据,你会选择什么样的分片函数来保证均匀分布的数据分片?
我发现有很多精彩的回答。比如下图中的 CountingStars 同学,他的思路非常有意思。是把年龄的数值前后颠倒进行分片。
还有这位 Mark Lee,他认为可以使用身份证后面的随机数来进行分片,纯技术上看起来似乎可行。但要使用用户的身份 ID 的话,你还需要考虑是否符合法律、道德、隐私方面的问题。
而 Freud 的想法是引用随机标记来保证数据分片的随机性。但这里要保证数据的均匀可重复才行。如果你在 shard2 上的任务失败,你需要能够还原出错的任务并进行重试。
榣山樵客把这几个回答可能出现的问题做了个总结。他的回复是一切有效降低十位数权重的哈希算法都是可行的。
倒置年龄可以明显改善分布不均的问题,但是也可能对某些单一热点无解,比如 25 岁的用户特别多的话还是会出问题。
随机分区可以做到均衡,但对 combine、io 等优化不够友好。还有一个缺点,是当分区任务失败,需要重新分区的时候,分区结果不再是 deterministic 的。如果某一台机器宕机了,你要如何重新分配原本属于这台机器上的用户数据?
先采样,再动态合并和拆分的实现过于复杂,效果可能不够稳定。
像他一样,在每个答案里都分别给出这个答案所存在的不足,这一点是我非常赞赏的。在开发设计中没有哪个答案是特别完美的,我们能做的是分析哪一个才是最符合自身应用需求,进而改善。
“第二讲”问题精选
第二讲中,我留下的思考题是“你现在正在使用的数据处理技术有什么问题?你有怎样的改进设计?”。
mjl 在回答中阐述了他比较了解的 Spark 和 Flink,总结得很好。
虽然原生 Spark Streaming Model 和 Dataflow Model 不一样,但是 Cloudera Labs 也有根据 Dataflow Model 的原理实现了 Spark Dataflow,使得 Beam 也可以跑 Spark runner。
而对于 Flink 来说的话,在 0.10 版本以后,它的 DataStream API 就已经是根据 Dataflow Model 的思想来重写了。
现在 Flink 也支持两套 API,分别是 DataStream 版本的和 Beam 版本的。其实 data Artisans 一直都有和 Google 保持交流,希望未来两套 Beam 和 Flink 的 API 能达到统一。
最后赞一点,批处理是流处理的子集,这个观点我在第一讲的留言中也提到过。
“第五讲”问题精选
第五讲中讲的主要是分布式处理系统的三个重要指标:扩展性,一致性和持久性。根据这个内容,3SKarl 同学提问弱一致性和最终一致性的区别是什么。
这是个很棒的问题。简而言之,弱一致性是个很宽泛的概念,它是区别于强一致性而定义的。广义上讲,任何不是强一致的,而又有某种同步性的分布式系统,我们都可以说它是弱一致的。
而最终一致性是弱一致性的一个特例,而且是最常被各种分布式系统用到的一个特例。
其他的比如因果一致性、FIFO 一致性等都可以看作是弱一致性的特例,不同弱一致性只是对数据不同步的容忍程度不同,但是经过一段时间,所有节点的数据都要求要一致。
学习专栏时,重要的是理解它们的区别。这部分知识是为了后边讲 CAP 理论服务的,实际的工作中也不会像考试考概念题一样,让你背写这些一致性的定义。
hua168 同学问的是强一致性的误差范围。这个问题非常有趣,强一致性并没有误差可言的,强一致性简单地说指的就是如果更新一条数据,那所有用户读取数据的时候必须都看到这条更新了的数据。
在这里我也想借着 FAQ 分享一个自己当年在面试 Bloomberg 的面试经历。
面试官给我出的题目是这样的:如果要设计 Bloomberg 的股票信息系统中的数据库系统,系统需要实时更新股票价格,而数据更新的写入量非常大,用户也需要读取最新的股票资讯,你会如何设计这套系统。
这个问题其实有很多的未知区域需要我们去和面试官去阐明,例如用户的 Use Cases 是什么?在此我就不一一展开了,在这里我只想分享一个和一致性相关的内容。
在和 Bloomberg 的 Tech Lead 讨论时我发现,原来他们的股票系统显示的股价并不是强一致性的,延迟范围是 1 分钟左右。
因为应用场景上,普通股民并不会需要实时关心每秒钟股票价格的动态,更多的是关心大盘走势。而金融巨头在操作股票的时候,更多只关心特定的几只股票,所以这些股票的价格通常对于他们来说会更新快一点。
所以说,很多现实生活上的实际应用和我们本来想象的并不太一样。
到这里,我们的第一期答疑就结束了。
就像我在专栏一开始的时候与你说的一样,我希望你能够积极与我互动。其实很多同样的问题会在不同的人身上重复出现,你不表达出来的话,可能永远也不知道,原来有那么多人曾经和你遇到过同样的困境。
如果你觉得有所收获,欢迎你把文章分享给你的朋友。
分享给需要的人,Ta购买本课程,你将得18元
生成海报并分享
赞 1
提建议
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
上一篇
40 | 大规模数据处理未来之路
下一篇
加油站 | Practice makes perfect!
精选留言(6)
- HomeyLiu2019-05-20数据均匀分片的核心是 哈希函数的设计。 如果你数据结构和算法不错的话,我觉得这是一个很简单的问题。 通过hashFunchiton(key)函数,输入key,输出hash值。 哈希函数设计的特点: 1》输入的key一样,得到的hash值肯定一样 2》输入的key不一样,得到的hash值可能一样,也就是hash冲突。 这个是评判一个哈希函数的好坏的重要标准。 冲突概率大的哈希函数肯定会引起严重的数据倾斜。极端的例子, 所有的key的hash值都一样,都跑到一个桶里面去了。 所以衡量一个哈希函数的好坏: 1》冲突要小。(例如用素数,还有模拟10进制,弄个26进制,abc可以编码为 0×26的0次方+1×26+2×26的2次方) 2》计算要快。常用位运算。 3》key哪怕很小的变动,输出的hash值差距越大越好。 有很多很经典的hash算法。 但是如果key一样hash值肯定一样。 所有key重复的数据很多的话,哈希函数是解决不了问题的。 必须对key进行组合,只要 组合后的key的重复的比率 不要 比 哈希冲突的概率 大太多就行。展开10
- 朱同学2019-05-21刚入行时,师傅曾指导我,hash可以做随机,但是不能做key,因为不同平台hash算法可能是不一样的,类似需求推荐使用md5。4
- 火星人2019-05-20老师,请以你专家级的视角,推荐5篇将来可能影响大数据发展趋势的论文吧!
作者回复: 谢谢你的留言!可以参考我在第22讲里所讲到的论文呀。
3 - sunsweet2019-05-23但是比特币交易平台就是实时的,那是怎么实现呢2
- 时间是最真的答案2019-05-22感觉不是做大数据领域的同学,读这个专栏还是比较吃力的。专栏设计知识的很广,提升了大家的认识,但不懂大数据相关技术,没法实践,比如spark不懂如何部署,然后用自己所熟悉的需要去实践2
- listen2019-05-21老师你好,我们是做学生学习情况的,现在要做实时,就是一节课的信息,是一个大json,1-10+M,其中嵌套多个json,由于各个子json的耦合性太强没办法分离,使用kafka的话一条数据太大了,数据是在OSS上,现在是先拉取到hdfs, 现在是发现3中方法, 1、java put到hdfs时,mq发送位置信息,sparkstreaming订阅,根据位置拉取 2、put 到hbase,sparkstreaming 扫描 3、使用sparkstreaming的textFileStream算子监控路径 三种方法没种都有很大的缺陷,老师能指点一下吗展开共 1 条评论