没啥事折腾一下装个单节点的,为得是方便学习和调试。0.jdk安装,很简单在本博可以找到。(我直接用root玩了,你也可以不这么搞)在终端窗口里面输入: sudo  -s.然后输入普通用户登陆的密码,回车即可进入 root用户权限模式。然后执行: vim /etc/lightdm/lightdm.conf.增加 greeter-show-manual-login=true  al
原创 2014-01-27 11:43:04
1232阅读
hadoop3.1.3 local 安装模式1)将hadoop安装包上传到/opt/software目录下2)解压安装文件到/opt/module下面tar -zxv
原创 2023-02-01 09:44:15
74阅读
在hive0.7的版本中增加了local hadoop的功能,就是在处理数据量比较小的情况在本地执行,而不走分布的mapred。 这样一来,那些比较小的任务的执行速度就会大大提高。 那到底什么样的任务会采用local hadoop呢,是由hive的一个参数控制的。 hive.exec.mode.local.auto.inputbytes.max 当处理的数据量比这个参数值小的情况下就会采用
转载 2011-07-11 10:14:03
623阅读
在进行spark本地模式开发之前,首先需要理解spark local模式是什么以及如何使用。Spark local模式是一种用于在本地机器上运行Spark应用程序的模式,用于在本地进行开发和测试,而不需要连接到集群。这在开发初期和调试阶段非常有用,因为可以在没有集群资源的情况下立即运行和测试应用程序。 下面将分步骤向新手小白介绍如何使用spark local模式进行开发: ### 步骤概览
原创 2024-04-30 11:37:17
82阅读
Spark 运行环境Spark 作为一个数据处理框架和计算引擎,被设计在所有常见的集群环境
原创 2022-09-15 19:46:23
169阅读
目前开发者们需要尝鲜databend, 可以选择使用databend cloud 或者按官方文档部署 databend 服务。 由于databend架构有三层,因此部署databend服务一般需要启动 databend-query, databend-meta , minio 三个进程,同时需要修改端口等配置项,流程上略显复杂。 有没有更快的方式可以快速尝鲜databend 呢? Python
原创 2023-09-14 10:33:00
128阅读
Hive部署     以上,是参考《Hadoop海量数据处理  技术详解与项目实战》Hive搭建模式1、local模式模式连接到一个In-memory 的数据库Derby,一般用于Unit Test。这种方式是最简单的存储方式,只需要在hive-site.xml做如下配置便可<property> <name>javax.jd
转载 2024-02-04 03:43:17
94阅读
一、环境准备①准备三台虚拟机,查看ip ②先修改主机名(每个节点统一命名规范) 修改/etc/hosts文件:(如下) 172.18.96.1 master 172.18.96.2 slave1 172.18.96.3 slave3二、永久关闭防火墙systemctl stop firewalld systemctl disable firewalld三、配置ssh免密登录三台机器都运行: ssh
转载 2024-01-02 06:17:57
138阅读
spark有四种最基本的运行模式local模式 standalone scheduler模式 yarn模式 mesos模式spark的local模式就是本地模式,就是单机跑,无需启动集群进入spark客户端提交任务即可//这样进去的话是spark local模式 [root@doit01 spark-2.3.3-bin-hadoop2.7]# /usr/apps/spark-2.3.3-bin-h
转载 2023-08-16 10:23:46
83阅读
spark local模式 下载,安装,验证
原创 2023-04-03 21:26:15
66阅读
简介从本章节你可以学习到:hadoop的三大运行模式的简单介绍。本地模式下的两个经典案例。1、hadoop的运行模式(1)本地模式local(standaolne) mode):不需要启用任何守护进程,所有程序都在同一个JVM上执行。在独立模式下测试和调试MapReduce程序都很方便,解压之后直接可以运行。非常适合我们进行测试和开发使用。(2)伪分布式模式(Pseudo-Distribute
转载 2023-08-18 21:15:00
48阅读
目录参考文章:过程记录:修改 Hadoop 配置文件:配置文件名称如何修改备注安装mysql:安装Hadoop2.7.2参考文章: 推荐程度链接备注1直接根据这篇文章来学习安装吧!这是Hadoop3.0的。(防坑笔记)hadoop3.0 (一) 环境部署与伪分布式(hdfs)_CoffeeAndIce的博客-CSDN博客【很棒!!】2https://www.jianshu.com/p/de4d
转载 2024-08-02 13:31:29
82阅读
skills_hive1 hive常用配置2 hive交互方式,beeline使用方式3 pv,uv,vv,ip概念3.1 网站浏览量(PV)3.2 独立访客(UV)3.3 独立IP3.4 访问次数(VV)4 explain查看hive sql的执行计划5 1 hive常用配置<!-- 是否以本地模式启动,默认false --> <!-- 作用:hive查询时使用本地查询,不走
转载 2024-01-29 01:28:55
218阅读
目录一、Local模式二、Standalone模式**6、配置历史服务**三、Yarn模式四、Windows模式 Spark作为一个数据处理框架和计算引擎,被设计在所有常见的集群环境中运行, 在国内工作中主流的环境为Yarn,不过逐渐容器式环境也慢慢流行起来。接下来,我们就分别看看不同环境下Spark的运行一、Local模式所谓的Local模式,就是不需要其他任何节点资源就可以在本地执行Spar
转载 2023-07-30 16:25:35
114阅读
Local模式、Standalone模式和FlinkonYARN模式是Flink的三种常见部署模式
原创 精选 2023-09-22 17:13:04
1279阅读
1点赞
Local模式、Standalone模式和Flink on YARN模式是Flink的三种常见部署模式
原创 2023-10-19 08:41:00
3760阅读
1点赞
1 Spark安装地址1.官网地址http://spark.apache.org/2.文档查看地址https://spark.apache.org/docs/2.1.1/3.下载地址https://spark.apache.org/downloads.html2 重要角色2.1 Driver(驱动器)Spark的驱动器是执行开发程序中的main方法的进程。...
原创 2022-11-11 10:41:53
274阅读
一、前置准备CentOS7、jdk1.8、flink-1.10.1想要完成本期视频中所有操作,需要以下准备: 二、环境搭建 2.1 下载并解压下载 ​​Flink​​​ 安装包,这里我下载的是​​flink-1.10.1-bin-scala_2.11.tgz​​​。下载地址:​​​​# 解压[xiaokang@hadoop ~]$ tar -zxvf flink-1.10.1-bin-scala
原创 2021-12-07 18:26:27
232阅读
我这里搭建了3节点的集群 操作系统:centos7 配置静态ip 配置三节点的免密
原创 2022-06-17 22:31:36
369阅读
一、前置准备CentOS7、jdk1.8、scala-2.11.12、spark-2.4.5想要完成本期视频中所有操作,需要以下准备: 二、环境搭建 2.1 下载并解压下载 ​​Spark​​​ 安装包,这里我下载的是​​spark-2.4.5-bin-hadoop2.7.tgz​​​。下载地址:​​​​# 解压[xiaokang@hadoop ~]$ tar -zxvf spark-2.4.5
原创 2021-12-08 10:07:12
144阅读
  • 1
  • 2
  • 3
  • 4
  • 5