1.      protocol在rpc中的作用通过对org.apache.hadoop.ipc包分析中,Hadoop实现了基于IPC模型的RPC机制,可以不需要像Java中实现的RMI机制一样,在RPC调用的C/S两端分别创建Stub和Skeleton,而是通过一组协议来进行RPC调用就可以实现通信。这主要是由于Hadoop所采用的序列化机制简化            
                
         
            
            
            
            #pyecharts 是Echart和python的一个接口,其中有非常丰富的图 #环境配置 pip install pyecharts==0.5.11 #pip install pyecharts_sanpshot #pip install echarts countries pypkg(中国地图的包) 1.代码块(使用方法:运行代码,把生成的群图乱舞.html即可)#time:2019.12.            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-02-04 21:52:11
                            
                                5阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            随着可视化数据越来越流行,项目中时常用图表来代替表格的显示,这样不仅更为直观,也可以将更多的数据简洁的罗列出来。目前最流行的两个画图工具,一个是echarts,一个是antV。在实际项目的开发中,这两种工具都有使用,下面分别对这两种的使用进行简单的总结一、两者的选型以目前的使用来看,两者基本都能满足普通的业务需求,实现上差不多。我自己在使用中,是一般会选择echats,但是专门的移动端业务会选择a            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-11-24 11:17:03
                            
                                151阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            # Hadoop与Python结合的探索
在大数据时代,Hadoop作为一种流行的分布式计算框架,已广泛应用于数据存储和处理。而Python则以灵活和易用而闻名,被许多数据科学家和分析师广泛使用。将Hadoop和Python结合起来,可以极大地扩展数据处理的能力,实现高效的数据分析与挖掘。
## Hadoop简介
Hadoop是一个开源的分布式计算平台,它主要由HDFS(Hadoop Dis            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2024-08-07 05:49:26
                            
                                31阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            # 如何实现mysql和hadoop结合
## 一、流程
### 步骤表格
| 步骤 | 操作       |
|------|------------|
| 1    | 准备数据   |
| 2    | 导入数据到Hadoop |
| 3    | 在Hadoop上创建外部表 |
| 4    | 查询数据 |
### 饼状图
```mermaid
pie
    title 整个            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2024-05-10 07:38:38
                            
                                58阅读
                            
                                                                             
                 
                
                             
         
            
            
            
                         
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-07-07 14:55:33
                            
                                60阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            这篇文章主要是写自己用到的echarts图表配置,我们都知道,自己手动在ECharts配置文件去找一些自己想要的方法是很难找到的,这篇文章就是我把常用的配置整理出来,希望能帮到各位(此文章随时更新,建议收藏到标签) 1、饼状图/环形图 2、柱状图3、折线图4、矩形图5、中国地图6、世界地图(带航线)7、关系图legendlegend:{
    itemGap: 7, // 设置间距
    it            
                
         
            
            
            
            一、Spring Boot 具有以下特点:1. 独立运行的 Spring 项目Spring Boot 可以以 jar 包的形式独立运行,Spring Boot 项目只需通过命令“ java–jar xx.jar” 即可运行。2. 内嵌 Servlet 容器Spring Boot 使用嵌入式的 Servlet 容器(例如 Tomcat、Jetty 或者 Undertow 等),应用无需打成            
                
         
            
            
            
            本节书摘来华章计算机《Hadoop与大数据挖掘》一书中的第2章 ,第2.5.3节,张良均 樊 哲 位文超 刘名军 许国杰 周 龙 焦正升 著 更多章节内容可以访问云栖社区“华章计算机”公众号查看。2.5.3 Hadoop K-Means算法实现思路针对K-Means算法,本节给出两种实现思路。思路1相对比较直观,但是效率较低;思路2在实现上需要自定义键值类型,但是效率较高。下面是对两种思路的介绍。            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-07-20 17:40:36
                            
                                31阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            本文分享 LS DYNA 求解器在 SMP 和 MPP 两种计算模式下的计算效率对比,LS DYNA 求解器有三种计算模式,分别为:SMP:共享式多核计算MPP:分布式多核计算Hybrid:SMP+MPPHybrid 是把 SMP 和 MPP 两种计算模式混合在一起,此次仅对比 SMP 和 MPP 两种计算模式。1. SMP 和 MPP 简介SMP 和 MPP 两种计算模式,分别指的是什么,两种计            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-02-19 22:29:08
                            
                                60阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            Spark+Hadoop集群搭建:(二)集群节点上搭建Hadoop环境1 集群规划1.1 节点规划2 构建data12.1 复制生成data12.2 设置网卡2.3 配置data1服务器2.3.1 编辑hostname主机名2.3.2 配置core-site.xml2.3.3 配置YARN-site.xml2.3.4 配置mapred-site.xml2.3.5 配置hdfs-site.xml2            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-07-20 17:37:26
                            
                                346阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            # 项目方案:Python 如何结合 Echarts
## 1. 简介
在开发数据可视化项目时,Python 是一种常用的编程语言,而 Echarts 是一种流行的可视化工具。本文将介绍如何使用 Python 结合 Echarts 来实现一个数据可视化项目。
## 2. 准备工作
在开始项目前,需要准备以下工具和库:
- Python:安装最新版本的 Python
- Flask:用于构            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2023-10-21 11:23:42
                            
                                114阅读
                            
                                                        
                                点赞
                            
                                                                             
                 
                
                             
         
            
            
            
            size3感谢Karson的帮忙,谢谢/colorr先上图controller public function index() { if ($this->request->isAjax()) { $client_id = $this->request->request('client_id'); $            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2020-01-31 21:05:00
                            
                                78阅读
                            
                                                                                    
                                2评论
                            
                                                 
                 
                
                             
         
            
            
            
            弹性分布式数据集(RDD)Spark围绕弹性分布式数据集(RDD)的概念展开,RDD是可并行操作的可容错的元素集合。有两种方法可以创建RDD:并行化一个驱动程序中的已存在的集合,或引用外部存储系统(例如共享文件系统、HDFS、HBase或提供Hadoop InputFormat的任何数据源)中的数据集。并行集合通过在驱动程序中已存在的集合(Scala Seq)上调用SparkContext的par            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-08-21 22:39:17
                            
                                142阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            # Hadoop 和 MPP DB 相结合实现
## 1. 概述
在本文中,我们将讨论如何将Hadoop和MPP(Massively Parallel Processing)数据库相结合来实现更强大的数据处理和分析能力。Hadoop是一个开源的分布式存储和计算框架,而MPP数据库是一种具有并行处理能力的关系型数据库。通过将它们结合起来,我们可以充分利用它们各自的优势,提高数据处理的速度和效率。            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2023-12-06 04:23:37
                            
                                138阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            一、Elasticsearch for Hadoop安装Elasticsearch for Hadoop并不像logstash、kibana一样是一个独立的软件,而是Hadoop和Elasticsearch交互所需要的jar包。所以,有直接下载和maven导入2种方式。安装之前确保JDK版本不要低于1.8,Elasticsearch版本不能低于1.0。  官网对声明是对Hadoop 1.1.x、1            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-05-07 21:37:19
                            
                                78阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            一、Spark 介绍Spark是基于内存计算的大数据分布式计算框架。Spark基于内存计算,提高了在大数据环境下数据处理的实时性,同时保证了高容错性和高可伸缩性,允许用户将Spark部署在大量廉价硬件之上,形成集群。1.提供分布式计算功能,将分布式存储的数据读入,同时将任务分发到各个节点进行计算;2.基于内存计算,将磁盘数据读入内存,将计算的中间结果保存在内存,这样可以很好的进行迭代运算;3.支持            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-08-25 23:52:44
                            
                                444阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            搭建Hadoop集群  搭建Hadoop集群请参考博文《Hadoop集群搭建及wordcount测试》,在此不再赘述。安装Scala  在scala官网下载合适的版本,将scala安装包拷贝到linux安装目录,执行解压缩命令进行安装:sudo tar -zxvf scala-2.11.7.tgz -C /usr/opt/spark解压缩完成后,进入etc目录,修改profile,追加以下内容ex            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-10-16 12:46:10
                            
                                126阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            ClickHouse 是什么?ClickHouse:是一个用于联机分析(OLAP)的列式数据库管理系统(DBMS)我们首先理清一些基础概念OLTP:是传统的关系型数据库,主要操作增删改查,强调事务一致性,比如银行系统、电商系统OLAP:是仓库型数据库,主要是读取数据,做复杂数据分析,侧重技术决策支持,提供直观简单的结果接着我们用图示,来理解一下列式数据库和行式数据库区别在传统的行式数据库系统中(M            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-11-01 17:48:46
                            
                                54阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            Hadoop,hive,spark在大数据生态圈的位置如何用形象的比喻描述大数据的技术生态?Hadoop、Hive、Spark 之间是什么关系? 这篇文章写的通俗易懂,很适合对Hadoop形成一个初步的认识1、Hadoop Storm / Flink 缘起: 谷歌的三篇论文:GFS(大数据的存储),MapReduce(数据分析),BigTable(存储非结构化数据)结构化数据:是高度组织和整齐格式            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-11-22 19:45:11
                            
                                78阅读
                            
                                                                             
                 
                
                                
                    