第一部分 Hadoop——一种分布式编程框架  12

第1章 Hadoop简介    13

    1.1 为什么写《Hadoop 实战》

    1.2 什么是Hadoop

    1.3 了解分布式系统和Hadoop

    1.4 比较SQL 数据库和Hadoop

    1.5 理解MapReduce

    1.5.1 动手扩展一个简单程序

    1.5.2 相同程序在MapReduce中的扩展

    1.6 用Hadoop统计单词——运行第一个程序   21

       基本命令   22

    1.7 Hadoop历史   26

    1.8 小结

    1.9 资源

第2章 初识Hadoop    28

    2.1 Hadoop 的构造模块    28

       2.1.1 NameNode

       2.1.2 DataNode    29

           datanode定义不懂30

           图2-1未看懂  29

       2.1.3 Secondary NameNode

       2.1.4 JobTracker

       2.1.5 TaskTracker

    2.2 为Hadoop 集群安装SSH   32

       2.2.1 定义一个公共账号

       2.2.2 验证SSH安装

       2.2.3 生成SSH密钥对

       2.2.4 将公钥分布并登录验证

    2.3 运行Hadoop   33

       2.3.1 本地(单机)模式

       2.3.2

       2.3.3 全分布模式

           ?模式切换  38

    2.4 基于Web 的集群用户界面  39

    2.5 小结   41

第3章 Hadoop组件    42

    3.1 HDFS 文件操作42

       3.1.1 基本文件命令

       3.1.2 编程读写HDFS

    3.2 剖析MapReduce 程序  48

       3.2.1 Hadoop数据类型

       3.2.2 Mapper

       3.2.3 Reducer

       3.2.4 Partitioner:重定向Mapper输出

       3.2.5 Combiner:本地reduce

       3.2.6 预定义mapper和Reducer类的单词计数

    3.3 读和写54

       3.3.1 InputFormat

       3.3.2 OutputFormat

    3.4 小结   61

第二部分 实战62

第4章 编写MapReduce基础程序   63

    4.1 获得专利数据集   63

       4.1.1 专利引用数据

       4.1.2 专利描述数据

    4.2 构建MapReduce 程序的基础模板   66

    4.3 计数   71

    4.4 适应Hadoop API 的改变   75

    4.5 Hadoop 的Streaming  78

       4.5.1 通过Unix命令使用Streaming

       4.5.2 通过脚本使用Streaming

       4.5.3 用Streaming处理键/值对

       4.5.4 通过Aggregate包使用Streaming

    4.6 使用combiner 提升性能   91

    4.7 温故知新  94

    4.8 小结   95

    4.9 更多资源  95

第5章 高阶MapReduce

    5.1 链接MapReduce 作业

       5.1.1 顺序链接MapReduce作业

       5.1.2 具有复杂依赖的MapReduce链接

       5.1.3 预处理和后处理阶段的链接

    5.2 联结不同来源的数据

       5.2.1 Reduce侧的联结

       5.2.2 基于DistributedCache的复制联结

       5.2.3 半联结:map侧过滤后在reduce侧联结

    5.3 创建一个Bloom filter

       5.3.1 Bloom filter做了什么

       5.3.2 实现一个Bloom filter

       5.3.3 Hadoop 0.20 以上版本的Bloom filter

    5.4 温故知新

    5.5 小结

    5.6 更多资源

第6章 编程实践

    6.1 开发MapReduce 程序

       6.1.1 本地模式

       6.1.2 伪分布模式

    6.2 生产集群上的监视和调试

       6.2.1 计数器

       6.2.2 跳过坏记录

       6.2.3 用IsolationRunner重新运行出错的任务

    6.3 性能调优

       6.3.1 通过combiner来减少网络流量

       6.3.2 减少输入数据量

       6.3.3 使用压缩

       6.3.4 重用JVM

       6.3.5 根据猜测执行来运行

       6.3.6 代码重构与算法重写

    6.4 小结

第7章 细则手册

    7.1 向任务传递作业定制的参数

    7.2 探查任务特定信息

    7.3 划分为多个输出文件

    7.4 以数据库作为输入输出

    7.5 保持输出的顺序

    7.6 小结

第8章 管理Hadoop

    8.1 为实际应用设置特定参数值

    8.2 系统体检

    8.3 权限设置

    8.4 配额管理

    8.5 启用回收站

    8.6 删减DataNode

    8.7 增加DataNode

    8.8 管理NameNode 和SNN

    8.9 恢复失效的NameNode

    8.10 感知网络布局和机架的设计

    8.11 多用户作业的调度

       8.11.1 多个JobTracker

       8.11.2 公平调度器

    8.12 小结

第三部分 Hadoop也疯狂

第9章 在云上运行Hadoop

    9.1 Amazon Web Services 简介

    9.2 安装AWS

       9.2.1 获得AWS身份认证凭据

       9.2.2 获得命令行工具

       9.2.3 准备SSH密钥对

    9.3 在EC2 上安装Hadoop

       9.3.1 配置安全参数

       9.3.2 配置集群类型

    9.4 在EC2 上运行MapReduce 程序

       9.4.1 将代码转移到Hadoop集群上

       9.4.2 访问Hadoop集群上的数据

    9.5 清空和关闭EC2 实例

    9.6 Amazon Elastic MapReduce 和其他AWS 服务

       9.6.1 Amazon Elastic MapReduce

       9.6.2 AWS导入/导出

    9.7 小结

第10章 用Pig编程

    10.1 像Pig 一样思考

       10.1.1 数据流语言

       10.1.2 数据类型

       10.1.3 用户定义函数

    10.2 安装Pig

    10.3 运行Pig

    10.4 通过Grunt 学习Pig Latin

    10.5 谈谈Pig Latin

       10.5.1 数据类型和schema

       10.5.2 表达式和函数

       10.5.3 关系型运算符

       10.5.4 执行优化

    10.6 用户定义函数

       10.6.1 使用UDF

       10.6.2 编写UDF

    10.7 脚本

       10.7.1 注释

       10.7.2 参数替换

       10.7.3 多查询执行

    10.8 Pig 实战——计算相似专利的例子

    10.9 小结

第11章 Hive及Hadoop群

    11.1 Hive

       11.1.1 安装与配置Hive

       11.1.2 查询的示例

       11.1.3 深入HiveQL

       11.1.4 Hive小结

    11.2 其他Hadoop 相关的部分

       11.2.1 HBase

       11.2.2 ZooKeeper

       11.2.3 Cascading

       11.2.4 Cloudera

       11.2.5 Katta

       11.2.6 CloudBase

       11.2.7 Aster Data和Greenplum

       11.2.8 Hama和Mahout

       11.2.9 search-hadoop.com

    11.3 小结

第12章 案例研究

    12.1 转换《纽约时报》1100 万个库存图片文档

    12.2 挖掘中国移动的数据

    12.3 在StumbleUpon 推荐最佳网站

       12.3.1 分布式StumbleUpon 的开端

       12.3.2 HBase 和StumbleUpon

       12.3.3 StumbleUpon 上的更多Hadoop 应用

    12.4 搭建面向企业查询的分析系统——IBM的ES2 项目

       12.4.1 ES2 系统结构

       12.4.2 ES2 爬虫

       12.4.3 ES2 分析

       12.4.4 小结

       12.4.5 参考文献

附录A HDFS文件命令

 

Hadoop是分布式的开始,以后还要继续学习