1.海量数据存储:HDFS可横向扩展,其储存的文件可以支持PB级别或者更高级别的数据储存。
	 2.高容错性:数据保存多个副本,副本丢失后自动恢复。可构建在廉价的机器上,实现线性扩展。当集群增加新节点之后,namenode也可以感知,进行负载均衡,将数据分发和备份数据均衡到新的节点上。
     3.商用硬件:Hadoop并不需要运行在昂贵且高可靠的硬件上。它是设计运行在商用硬件(廉价商业硬件)的集群上的。
     4、大文件存储:HDFS采用数据块的方式存储数据,将数据物理切分成多个小的数据块。所以再大的数据,切分后,大数据变成了很多小数据。用户读取时,重新将多个小数据块拼接起来。

HDFS不擅长的场景
1.不能做到低延迟数据访问:由于hadoop针对高数据吞吐量做了优化,牺牲了获取数据的延迟,所以对于低延迟访问数据的业务需求不适合HDFS.
2不适合大量的小文件的存储:由于namenode将文件系统的元数据存储在内存中,因此该文件系统所能储存的文件总数受到namenode的内存容量的限制。根据经验,每个文件,目录和数据块的储存信息大约占150字节。因此,如果有一百万个小文件,每个小文件都会站一个数据块,那至少需要300MB内存。如果是上亿级别的就会超出当前硬件的能力。
 3、修改文件:。HDFS适合一次写入,多次读取的场景。对于上传到HDFS上的文件,不支持修改文件。Hadoop2.0虽然支持了文件的追加功能,但不建议对HDFS上的文件进行修改。因为效率低下.
  4、不支持用户的并行写:同一时间内,只能有一个用户执行写操作。