以前的公司和现在的公司,都用到了hadoop和hdfs。一直没入门,今天照着官网写了一个hadoop worldcount demo 1. hadoop是一个框架,什么是框架,spring是一个框架、mybatis是一个框架,框架是把系统中通用的功能写进去,减少开发工作量。比如基于spring bo
原创 2021-08-07 11:28:33
74阅读
008-hadoop二次开发-NameNode启动流程 在源码文件FSNamesystem.java执行完nnResourceChecker = new NameNodeResourceChecker(conf); 立马执行checkAvailableResources(),检查可用资源是否足够:如果不够,日志打印警告信息,然后进入安全模式。 然后/** * 磁盘资源不足的情况下,任何对元
str_test = 'the quick brown for jumps over the lazy dit(" ")def WordCounter(slist): rstd = dict() for i in slist: if i...
原创 2022-11-24 11:44:18
102阅读
Flink框架主要应用针对流式数据进行有状态计算。Flink使用java语言开发,提供了scala编程的接口。使用java或者scala开发Flink是需要
原创 2023-05-24 10:20:51
121阅读
最近,有很多想做大数据的同学发来私信,想请我这位在大数据领域跌打滚爬了多年的老鸟写一些大数据分析的文章,好作为这些同学学习大数据分析从入门到上手再到精通的参考教程,作为一个大数据分析领域的老鸟,很高兴自己在业界得到了很多同行的认可,同时,自己也想将多年来做大数据分析的一些经验和心得分享给大家。那么,今天,就给大家带来一篇Hadoop的入门经典——WordCount统计实例。一、准备工作1、
原创 2017-10-14 23:54:24
116阅读
最近,有很多想做大数据的同学发来私信,想请我这位在大数据领域跌打滚爬了多年的老鸟写一些大数据分析的文章,好作为这些同学学习大数据分析从入门到上手再到精通的参考教程,作为一个大数据分析领域的老鸟,很高兴自己在业界得到了很多同行的认可,同时,自己也想将多年来做大数据分析的一些经验和心得分享给大家。那么,今天,就给大家带来一篇Hadoop的入门经典——WordCount统计实例。一、准备工作1、
原创 2022-04-22 17:12:34
384阅读
RandomSentenceSpout
原创 2021-07-13 14:43:40
123阅读
1.1 pom文件 scala版本,flink版本等等结合实际情况 <properties> <maven.compiler.source>8</maven.compiler.source> <maven.compiler.target>8</maven.compiler.target> <proj ...
转载 2021-10-30 23:09:00
50阅读
2评论
文章目录1.scala的worldcount完整版本精简版本java版本1.scala的worldcount完整版本 def main(args: Array[String]): Unit = { val conf = new SparkConf() conf.setMaster("local") setAppName ("wc") val context = ...
原创 2021-05-31 17:24:14
163阅读
文章目录1.scala的worldcount完整版本精简版本java版本1.scala的worldcount完整版本 def main(args: Array[String]): Unit = { val conf = new SparkConf() conf.setMaster("local")
原创 2022-02-22 18:33:01
172阅读
在上一篇博客:基于flink实现的worldcount通过flink自带的Tuple实现了单词统计,本文在上一篇博
原创 2023-05-24 10:23:22
90阅读
  Trident是基于Storm进行实时留处理的高级抽象,提供了对实时流4的聚集,投影,过滤等操作,从而大大减少了开发Storm程序的工作量。Trident还提供了针对数据库或则其他持久化存储的有状态的,增量的更新操作的原语。  若我们要开发一个对文本中的词频进行统计的程序,使用Storm框架的话我们需要开发三个Storm组件:    1.一个Spout负责收集文本信息并分段,做为sentenc
转载 2023-12-31 15:50:47
94阅读
MR 实现 WordCountMapReduce的工作原理以及流程1. MapReduce的工作原理2. MapReduce框架的作业运行流程编写思路Mapper代码Reducer代码 作者:笑看风云路MapReduce的工作原理以及流程MapReduce采用的是分而治之的思想,把对大规模数据集的操作,分发给一个主节点管理下的各个从节点共同完成,然后通过整合各个节点的中间结果,得到最终结果。简单
转载 2024-03-28 14:34:34
25阅读
  大家好,我是不温卜火,是一名计算机学院大数据专业大二的学生,昵称来源于成语—不温不火,本意是希望自己性情温和。作为一名互联网行业的小白,博主写博客一方面是为了记录自己的学习过程,另一方面是总结自己所犯的错误希望能够帮助到很多和自己一样处于起步阶段的萌新。但由于水平有限,博客中难免会有一些错误出现,有纰漏之处恳请各位大佬不吝赐教!
原创 2022-02-15 10:16:55
142阅读
hadoop安装文档一、安装前准备步骤操作系统:CentOS 7(CentOS-7-x86_64-Everything-1810.iso) 版本:hadoop-2.8.5 用户:hadoop 解压: tar -zxvf hadoop-2.8.5.tar.gz 1、禁用防火墙(root)systemctl stop firewalld systemctl disable firewalld syst
转载 2024-09-13 21:53:01
21阅读
  大家好,我是不温卜火,是一名计算机学院大数据专业大二的学生,昵称来源于成语—不温不火,本意是希望自己性情温和。作为一名互联网行业的小白,博主写博客一方面是为了记录自己的学习过程,另一方面是总结自己所犯的错误希望能够帮助到很多和自己一样处于起步阶段的萌新。但由于水平有限,博客中难免会有一些错误出现,有纰漏之处恳请各位大佬不吝赐教!暂时只有csdn这一个平台,
原创 2021-09-03 14:37:05
133阅读
目录运行WorldCount例子split和block的区别和联系 运行WorldCount例子hadoop默认的样例jar在下面的位置/你的hadoop位置/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.2.jar我们先来创建数据文件目录以及结果输出目录:hadoop fs -mkdir -p /data/wordcount had
转载 2023-07-14 16:14:00
75阅读
MapReduce 应用举例:单词计数  WorldCount可以说是MapReduce中的helloworld了,下面来看看hadoop中的例子worldcount对其进行的处理过程,也能对mapreduce的执行过程有一个清晰的认识,特别是对于每一个阶段的函数执行所产生的键值对单词 计数主要完成的功能是:统计一系列文本文件中每个单词出现的次数,如下图所示。下面将 通过分析源代码帮助读
转载 2024-01-10 14:10:03
44阅读
1.Spark Streaming 代码分析: 1.1 示例代码DEMO: 实时计算的WorldCount:import org.apache.spark.streaming.{Seconds, StreamingContext} import org.apache.spark.streaming.StreamingContext._ import org.apache.spark
场景 配置完scala(2.11)和spark(2.2.0)的windows环境后,写了个worldcount案例。加入以下依赖,然后编写wordcount <properties> <spark-version>2.2.0</spark-version> <scala-version>2.11</ ...
转载 2021-10-08 23:54:00
1145阅读
2评论
  • 1
  • 2