一.SPARK简介Spark是一种基于内存的快速、通用、可扩展的大数据分析计算引擎。是加州大学伯克利分校AMP实验室(Algorithms, Machines, and People Lab)开发的通用内存并行计算框架Spark得到了众多大数据公司的支持,这些公司包括Hortonworks、IBM、Intel、Cloudera、MapR、Pivotal、百度、阿里、腾讯、京东、携程、优酷土豆。当前
要提前安装Hadoop下载spark并在虚拟机解压,解压到usr/local文件夹重命名为 spark给当前用户这个文件夹的权限修改spark配置文件 spark-env.sh[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-YqQtOlO5-1603533615805)(en-resource://database/972:0)] 在第一行添加以下配置信息 expo
原创 2023-05-15 19:49:42
238阅读
在装spark之前先装Scala  Scala 的安装hadoop安装配置中已经介绍了1、下载spark安装包 下载地址如下http://spark.apache.org/downloads.html 我选择的是 spark-1.4.1-bin-hadoop2.6.tgz  放在/root/software解压 tar zxvf  sp
原创 2015-08-14 10:05:27
579阅读
准备
转载 2021-06-19 11:18:00
252阅读
2评论
在现代大数据处理领域,Apache Spark 凭借其强大的分布式计算能力已成为数据分析和处理的重要工具。本文将详细介绍在不同环境下安装配置 Spark 的步骤,并提供一些优化和排错的技巧,让你在使用 Spark 时能够游刃有余。 ## 环境准备 首先,我们需要明确 Spark 的软硬件要求,确保环境的配置适宜。 ### 软硬件要求 | 组件 | 版本 |
原创 7月前
88阅读
# Spark安装配置指南 ## 1. 概述 在本文中,我们将会详细介绍如何安装配置SparkSpark是一个强大的分布式计算框架,用于处理大规模数据集的计算任务。它提供了许多高级功能,如内存计算、分布式数据处理和机器学习库等。 ## 2. 安装配置流程 下面是安装配置Spark的步骤概要,我们将在后续的章节中逐步展开解释。 | 步骤 | 说明 | |------|-----| |
原创 2023-08-24 05:27:40
120阅读
http://www.cnblogs.com/xia520pi/archive/2012/05/16/2503949.html
原创 2015-09-14 13:35:58
546阅读
centos7 安装hadoop 2.7 - 准备工作三台机器(内存大于2G) 分别写hosts、设定hostname10.10.13.246 master10.10.13.249 slave110.10.13.254 slave2关闭selinux关闭firewalldsystemctl disable firewalldsystemctl stop firewalldyum install -
原创 2016-07-28 17:15:50
762阅读
1、安装java 选择适合自己的jdk 我选择的是jdk7,下载地址如下http://www.oracle.com/technetwork/java/javase/archive-139210.html解压配置环境变量 vim /etc/profile---------------------JAVA_HOME=/usr/java/jdk1.7.0_45JRE_HOME=/usr/java/jdk
转载 精选 2015-08-03 19:35:00
851阅读
一、安装环境 硬件:虚拟机 操作系统:Centos 6.4 64位 IP:192.168.1.100主机名:admin安装用户:root二、安装JDK 安装JDK1.7或者以上版本。这里安装jdk1.7.0_79。 下载地址:http://www.oracle.com/technetwork/java/javase/downloads/index.
原创 2017-07-08 21:16:56
1711阅读
今天安装配置了一下hadoop, 在网上找的教程 尚硅谷的地址
原创 2022-06-20 17:13:19
350阅读
//hadoop安装配置---coco # by coco #2014-07-25 本资料主要介绍hadoop安装配置过程。如有不懂的请联系:qq:120890945 本次环境以3台虚拟机为主: 192.168.8.96   db96 192.168.8.98   db98 192.168.8.99 &nb
原创
4k
2023-06-08 15:49:00
69阅读
硬件环境 共有3台机器,ubuntu 10.04和9.10系统,Java使用的是jdk1.6.0。IP配置如下: ingteam:192.168.0.1 ing-1:192.168.0.101 ing-2:192.168.0.102 前提:ssh rsync jdk1.6 $sudo apt-get install ssh $sudo apt-get install rsync&nb
原创 2011-06-09 15:39:53
684阅读
系统准备:所需系统:64位CentOS系统一、软件准备二、服务器环境准备(每台服务器都执行)1、每台服务器都同步时间2、每台服务器都关闭iptables、关闭selinux3、每台服务器都修改/etc/hosts文件4、每台服务器都配置java环境(这里用的是jdk-1.8.0_45,需jdk7以上)5、每台服务器都配置Hadoop环境(这里使用的是Hadoop2.7.1,先不用安装Hadoop
转载 2018-03-14 13:58:44
497阅读
1点赞
一.配置javahome由于我的java系统是已经安装完毕,而且是1.8版本满足hadoop要求,只要将javahome指向安装的目录即可先要取得java的安装目录先取得java命令路径,命令路径头就是java的安装目录ll了两次都是软链接,最后在/usr/lib...下找到了java的目录,目录我们只要复制到jre即可,多了少了都报错。vim/etc/profile#配置javahome#---
原创 2019-10-18 17:06:35
745阅读
 Linux安装ftp组件1 安装vsftpd组件安装完后,有/etc/vsftpd/vsftpd.conf 文件,是vsftp的配置文件。[root@bogon ~]# yum -y install vsftpd 2 添加一个ftp用户此用户就是用来登录ftp服务器用的。[root@bogon&n
转载 2023-10-08 20:57:54
28阅读
集群一共有3台机器,集群使用hadoop用户运行,3台机器如下:1DEV-HADOOP-01192.168.9.1102DEV-HADOOP-02192.168.9.1113DEV-HADOOP-03192.168.9.112配置集群间hadoop用户的无密码登录配置每台机器的/etc/hosts安装JDK1.8.0_60安装scala下载scala-2.11.7.tar把scala-2.11.7
原创 2016-06-08 16:59:26
802阅读
1、说明这篇文章是在xxx基础上进行部署的,需要hadoop的相关配置和依赖等等,Spark on Yarn的模式,Spark安装配置好即可,在Yarn集群的所有节点安装并同步配置,在无需启动服务,没有master、slave之分,Spark提交任务给Yarn,由ResourceManager做任务调度。2、安装yum -y install spark-core&nb
原创 2017-05-12 08:36:43
10000+阅读
2点赞
1评论
# 如何实现 Spark on YARN 的安装配置 Apache Spark 是一个强大的数据处理框架,而 YARN(Yet Another Resource Negotiator)是一种资源管理器。将 Spark 与 YARN 集成,我们可以非常高效地处理大规模数据。在本文中,我们将详细说明如何在 Hadoop安装配置 Spark 以便于使用 YARN 作为计算资源管理器。 ## 安
原创 2024-08-26 03:28:30
106阅读
# 在Mac上安装配置Apache Spark的指南 Apache Spark是一个强大的开源分布式计算框架,适用于大规模数据处理和分析。对于初学者来说,安装配置Spark可能会有些复杂。本文将为你提供一个详细的步骤指南,帮助你顺利完成这一过程。 ## 安装配置Spark的流程 以下是安装配置Spark的基本步骤: | 步骤编号 | 步骤
原创 2024-08-02 07:51:08
61阅读
  • 1
  • 2
  • 3
  • 4
  • 5