一、Hadoop

Hadoop之父Doug Cutting

Hadoop的发音[hædu:p]Cutting儿子对玩具小象的昵称

1、Hadoop发展简史

  1. 2002年10月,Doug Cutting和Mike Cafarella创建了开源网页爬虫项目Nutch。
  2. 2003年10月,Google发表Google File System论文。
  3. 2004年7月,Doug Cutting和Mike Cafarella在Nutch中实现了类似GFS的功能,即后来HDFS的前身。
  4. 2004年10月,Google发表了MapReduce论文。
  5. 2005年2月,Mike Cafarella在Nutch中实现了MapReduce的最初版本。
  6. 2005年12月,开源搜索项目Nutch移植到新框架,使用MapReduce和HDFS在20个节点稳定运行。
  7. 2006年1月,Doug Cutting加入雅虎,Yahoo!提供一个专门的团队和资源将Hadoop发展成一个可在网络上运行的系统。
  8. 2006年2月,Apache Hadoop项目正式启动以支持MapReduce和HDFS的独立发展。
  9. 2006年3月,Yahoo!建设了第一个Hadoop集群用于开发。
  10. 2006年4月,第一个Apache Hadoop发布。
  11. 2006年11月,Google发表了Bigtable论文,激起了Hbase的创建。
  12. 2007年10月,第一个Hadoop用户组会议召开,社区贡献开始急剧上升。
  13. 2007年,百度开始使用Hadoop做离线处理。
  14. 2007年,中国移动开始在“大云”研究中使用Hadoop技术。
  15. 2008年,淘宝开始投入研究基于Hadoop的系统——云梯,并将其用于处理电子商务相关数据。
  16. 2008年1月,Hadoop成为Apache顶级项目。
  17. 2008年2月,Yahoo!运行了世界上最大的Hadoop应用,宣布其搜索引擎产品部署在一个拥有1万个内核的Hadoop集群上。
  18. 2008年4月,在900个节点上运行1TB排序测试集仅需209秒,成为世界最快。
  19. 2008年8月,第一个Hadoop商业化公司Cloudera成立。
  20. 2008年10月,研究集群每天装载10TB的数据。
  21. 2009 年3月,Cloudera推出世界上首个Hadoop发行版——CDH(Cloudera's Distribution including Apache Hadoop)平台,完全由开放源码软件组成。   Cloudera公司网址
  22. 2009年6月,Cloudera的工程师Tom White编写的《Hadoop权威指南》初版出版,后被誉为Hadoop圣经。
  23. 2009年7月 ,Hadoop Core项目更名为Hadoop Common;
  24. 2009年7月 ,MapReduce 和 Hadoop Distributed File System (HDFS) 成为Hadoop项目的独立子项目。
  25. 2009年8月,Hadoop创始人Doug Cutting加入Cloudera担任首席架构师。
  26. 2009年10月,首届Hadoop World大会在纽约召开。
  27. 2010年5月,IBM提供了基于Hadoop 的大数据分析软件——InfoSphere BigInsights,包括基础版和企业版。
  28. 2011年3月,Apache Hadoop获得Media Guardian Innovation Awards媒体卫报创新奖
  29. 2012年3月,企业必须的重要功能HDFS NameNode HA被加入Hadoop主版本。
  30. 2012年8月,另外一个重要的企业适用功能YARN成为Hadoop子项目。
  31. 2014年2月,Spark逐渐代替MapReduce成为Hadoop的缺省执行引擎,并成为Apache基金会顶级项目。
  32. 2017年12月,Release 3.0.0 generally available

hadoop官网         Cloudera公司网址

2、HDFS存储模型

  • 文件线性按字节切割成块(block),具有offset,id
  • 文件与文件的block大小可以不一样
  • 一个文件除最后一个block,其他block大小一致
  • block的大小依据硬件的I/O特性调整
  • block被分散存放在集群的节点中,具有location
  • Block具有副本(replication),没有主从概念,副本不能出现在同一个节点
  • 副本是满足可靠性和性能的关键
  • 文件上传可以指定block大小和副本数,上传后只能修改副本数
  • 一次写入多次读取,不支持修改
  • 支持追加数据

3、HDFS架构设计

  • HDFS是一个主从(Master/Slaves)架构
  • 由一个NameNode和一些DataNode组成
  • 面向文件包含:文件数据(data)和文件元数据(metadata)
  • NameNode负责存储和管理文件元数据,并维护了一个层次型的文件目录树
  • DataNode负责存储文件数据(block块),并提供block的读写
  • DataNode与NameNode维持心跳,并汇报自己持有的block信息
  • Client和NameNode交互文件元数据和DataNode交互文件block数据

4、角色功能

NameNode

  • 完全基于内存存储文件元数据、目录结构、文件block的映射
  • 需要持久化方案保证数据可靠性
  • 提供副本放置策略

DataNode

  • 基于本地磁盘存储block(文件的形式)
  • 并保存block的校验和数据保证block的可靠性
  • 与NameNode保持心跳,汇报block列表状态

再小的努力,乘以365都很明显!
一个程序员最重要的能力是:写出高质量的代码!!
有道无术,术尚可求也,有术无道,止于术。
无论你是年轻还是年长,所有程序员都需要记住:时刻努力学习新技术,否则就会被时代抛弃!

09-26 14:04