SpringBoot第一个简单应用大部分内容借鉴一下博客(侵权即删) 作者:茶还是咖啡 链接:https://www.jianshu.com/p/12ec123d20e8 来源:简书 著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。1.数据库建表#创建用户表 CREATE TABLE user ( id BIGINT(20) PRIMARY KEY NOT NULL C
转载 2024-05-15 12:04:53
53阅读
# Spring Boot 使用 Spark 入门指南 在大数据处理领域,Apache Spark 是一种广泛使用分布式计算框架,而 Spring Boot 作为一个轻量级 Java 应用框架,能够帮助我们快速构建微服务应用。今天,我们将通过一个简单程序实现 Spring Boot 与 Spark 结合。下面是整个流程概览。 | 步骤 | 描述
原创 2024-10-09 04:06:27
83阅读
背景spark-shell是一个scala编程解释执行环境,可以通过编程方式处理逻辑复杂计算,但对于简单类似sql数据处理,比如分组求和,sql为”select g,count(1) from sometable group by g”,需要写程序是:val hive = neworg.apache.spark.sql.hive.HiveContext(sc)import hive._v
转载 2023-12-28 16:15:36
38阅读
# 使用 Spring Boot 整合 Apache Spark Spring Boot 是一个便捷框架,用于创建独立 Spring 应用,而 Apache Spark 是一个强大大数据分布式计算引擎。将二者结合起来,可以构建高效数据处理应用。本教程将指导你如何在 Spring Boot 中使用 Spark。 ## 整体流程 下面是实现步骤表格: | 步骤 | 操作 | |---
原创 2024-08-15 08:10:47
121阅读
上一篇:08-Springboot中Profile springboot核心是自动配置,那么他配置都是些什么东西,这些东西有多少?是不是每个项目都要加载这些东西?这里先做一个简单回答:正常加载自动配置类200多个,但是程序真正跑起来的话自动配置类就没有那么多了?为什么呢?其他没有被加载去哪里了呢?这里就牵涉到服务发现机制。 springboot会根据我们引入依赖,有针对性加载自动配置
一、spark-submit1、类似于:hadoop jar;   [主要负责jar包提交];2、语法:spark-submit [options] <app jar | python file> [app arguments]通过- -help 查看参数:参数options:-master: 指定运行模式,spark://host:port, mesos://h
转载 2023-06-11 15:37:07
136阅读
WebSocket 是 HTML5 开始提供一种在单个 TCP 连接上进行全双工通讯协议。WebSocket 使得客户端和服务器之间数据交换变得更加简单,允许服务端主动向客户端推送数据。在 WebSocket API 中,浏览器和服务器只需要完成一次握手,两者之间就直接可以创建持久性连接,并进行双向数据传输。springboot提供了相关整合starter<!--websocket-
spark
转载 2023-05-29 22:49:59
31阅读
本文所使用方式为在windows独立环境中进行pyspark开发,如需链接hdfs还是要借助虚拟机,主要包含以下几个步骤一、windows中环境配置1、java安装这里建议大家选择版本较低java版本,如果版本较高可能会出现不兼容问题,Java和hadoop安装流程我之前文章里面有,大家可以看一下,这里附上链接hadoop安装2、hadoop安装hadoop安装 链接同上3、sca
转载 2023-10-03 14:50:32
0阅读
Spark小课堂Week2 Hello Streaming我们是怎么进行数据处理?批量方式处理目前最常采用是批量方式处理,指非工作时间运行,定时或者事件触发。这种方式好处是逻辑简单,不影响联机业务,但是性能不行。理想方式对于数据处理问题,我们最终理想解,应该是满足业务规则正确情况下,实时完成处理。平衡点理想方式难度比较高,批量方式往往又不给力,我们可以在批量方式和理想方式中间,找到一
转载 9月前
14阅读
  Spark Streaming核心    1.核心概念    StreamingContext:要初始化Spark Streaming程序,必须创建一个StreamingContext对象,它是所有Spark StreamingContext功能主要入口点。    一个StreamingContext对象可以由SparkConf对象来创建,需要指定Seconds。import o
转载 2024-02-17 12:21:41
61阅读
  Spark Streaming重点知识//************* Spark Streaming是什么 1、SPark Streaming是Spark中一个组件,基于Spark Core进行构建,用于对流式进行处理,类似于Storm。 2、Spark Streaming能够和Spark Core、Spark SQL来进行混合编程。 3、Spark Streaming我们
Spark中常见方法使用1.reduceByKey() 在scala中,reduce表示进行某种操作,但是具体是何种操作,需要使用自己传递函数作为参数。 但是这里reduceByKey()则是将具有相同键value合并,然后形成一个map,示例代码如下:scala> val book = Array(("spark",2),("hadoop",6),("hadoop"...
原创 2021-07-08 14:28:37
480阅读
Spark中常见方法使用1.reduceByKey() 在scala中,reduce表示进行某种操作,但是具体是何种操作,需要使用自己传递函数作为参数。 但是这里reduceByKey()则是将具有相同键value合并,然后形成一个map,示例代码如下:scala> val book = Array(("spark",2),("hadoop",6),("hadoop"...
原创 2022-01-28 13:49:31
254阅读
问题集锦 目录目录1.String2.集合3.trait正文知识点和代码都在黑色框子中1.Stringscala中String类用就是java 中String这个类。如果有所不同,那就是scala还重写了几个方法罢了。object Lesson_String { def main(args:Array[String])={ val builder = new Stri
使用idea 构建spring boot项目本身是非常方便,而且十分快速。本来数据持久层我是打算用mybatis,然后用mybatis-generator生成dao和mapper,但是我最近知道了mybatis-plus这个东西。mybatis-plus是国人开发,不仅完全支持mybatis,而且还可以如mybatis-generator一样,自动生成model、dao、mapper,甚至更
目录 什么是mybatis-plus特点框架结构引入依赖代码生成器 使用mybatis自带方法进行增删改查条件构造分页插件 逻辑删除通用枚举类自动填充功能乐观锁 总结什么是mybatis-plusMyBatis-Plus(简称 MP)是一个 MyBatis 增强工具,在 MyBatis 基础上只做增强不做改变,为简化开发、提高效率而
# 使用Spring Boot和Redis实现String方法 ## 简介 在本篇文章中,我将教你如何使用Spring Boot和Redis来实现String方法。通过学习这些方法,你可以更好地理解如何在你应用程序中使用Redis来处理字符串。 ## 流程图 下面是使用Spring Boot和Redis实现String方法流程图: ```mermaid sequenceDiagram
原创 2023-12-16 07:53:15
39阅读
SpringBoot使用WebSocket方法1.基本概念所谓WebSocket, 类似于Socket,它作用是可以让Web应用中客户端和服务端建立全双工通信。在基于Spring应用中使用WebSocket
原创 2022-05-14 17:06:20
1783阅读
# Spring Boot与Spark处理CSV文件 在数据处理和分析领域,Apache Spark是一种迅速流行大数据处理工具,而Spring Boot则是Java领域广泛使用微服务框架。结合这两者,我们可以高效地处理CSV文件。本文将介绍如何使用Spring Boot和Spark来读取、处理和保存CSV文件,并提供相关代码示例。 ## 项目依赖 在开始前,请确保您已经在`pom.xm
原创 2024-09-02 04:19:01
52阅读
  • 1
  • 2
  • 3
  • 4
  • 5