SpringBoot第一个简单应用大部分内容借鉴一下博客(侵权即删) 作者:茶还是咖啡 链接:https://www.jianshu.com/p/12ec123d20e8 来源:简书 著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。1.数据库建表#创建用户表
CREATE TABLE user (
id BIGINT(20) PRIMARY KEY NOT NULL C
转载
2024-05-15 12:04:53
53阅读
# Spring Boot 使用 Spark 的入门指南
在大数据处理领域,Apache Spark 是一种广泛使用的分布式计算框架,而 Spring Boot 作为一个轻量级的 Java 应用框架,能够帮助我们快速构建微服务应用。今天,我们将通过一个简单的程序实现 Spring Boot 与 Spark 的结合。下面是整个流程的概览。
| 步骤 | 描述
原创
2024-10-09 04:06:27
83阅读
背景spark-shell是一个scala编程解释执行环境,可以通过编程的方式处理逻辑复杂的计算,但对于简单的类似sql的数据处理,比如分组求和,sql为”select g,count(1) from sometable group by g”,需要写的程序是:val hive = neworg.apache.spark.sql.hive.HiveContext(sc)import hive._v
转载
2023-12-28 16:15:36
38阅读
# 使用 Spring Boot 整合 Apache Spark
Spring Boot 是一个便捷的框架,用于创建独立的 Spring 应用,而 Apache Spark 是一个强大的大数据分布式计算引擎。将二者结合起来,可以构建高效的数据处理应用。本教程将指导你如何在 Spring Boot 中使用 Spark。
## 整体流程
下面是实现步骤的表格:
| 步骤 | 操作 |
|---
原创
2024-08-15 08:10:47
121阅读
上一篇:08-Springboot中Profile springboot的核心是自动配置,那么他配置都是些什么东西,这些东西有多少?是不是每个项目都要加载这些东西?这里先做一个简单的回答:正常加载的自动配置类200多个,但是程序真正跑起来的话自动配置类就没有那么多了?为什么呢?其他的没有被加载的去哪里了呢?这里就牵涉到服务发现机制。 springboot会根据我们引入的依赖,有针对性的加载自动配置
一、spark-submit1、类似于:hadoop jar; [主要负责jar包的提交];2、语法:spark-submit [options] <app jar | python file> [app arguments]通过- -help 查看参数:参数options:-master: 指定运行模式,spark://host:port, mesos://h
转载
2023-06-11 15:37:07
136阅读
WebSocket 是 HTML5 开始提供的一种在单个 TCP 连接上进行全双工通讯的协议。WebSocket 使得客户端和服务器之间的数据交换变得更加简单,允许服务端主动向客户端推送数据。在 WebSocket API 中,浏览器和服务器只需要完成一次握手,两者之间就直接可以创建持久性的连接,并进行双向数据传输。springboot提供了相关整合starter<!--websocket-
转载
2023-12-21 12:26:50
46阅读
spark
转载
2023-05-29 22:49:59
31阅读
本文所使用方式为在windows独立环境中进行pyspark的开发,如需链接hdfs还是要借助虚拟机的,主要包含以下几个步骤一、windows中的环境配置1、java的安装这里建议大家选择版本较低的java版本,如果版本较高可能会出现不兼容问题,Java和hadoop的安装流程我之前的文章里面有,大家可以看一下,这里附上链接hadoop安装2、hadoop的安装hadoop安装 链接同上3、sca
转载
2023-10-03 14:50:32
0阅读
Spark小课堂Week2 Hello Streaming我们是怎么进行数据处理的?批量方式处理目前最常采用的是批量方式处理,指非工作时间运行,定时或者事件触发。这种方式的好处是逻辑简单,不影响联机业务,但是性能不行。理想方式对于数据处理的问题,我们的最终理想解,应该是满足业务规则正确的情况下,实时的完成处理。平衡点理想方式难度比较高,批量方式往往又不给力,我们可以在批量方式和理想方式中间,找到一
Spark Streaming的核心 1.核心概念 StreamingContext:要初始化Spark Streaming程序,必须创建一个StreamingContext对象,它是所有Spark StreamingContext功能的主要入口点。 一个StreamingContext对象可以由SparkConf对象来创建,需要指定Seconds。import o
转载
2024-02-17 12:21:41
61阅读
Spark Streaming重点知识//************* Spark Streaming是什么 1、SPark Streaming是Spark中一个组件,基于Spark Core进行构建,用于对流式进行处理,类似于Storm。 2、Spark Streaming能够和Spark Core、Spark SQL来进行混合编程。 3、Spark Streaming我们
Spark中常见方法的使用1.reduceByKey() 在scala中,reduce表示进行某种操作,但是具体是何种操作,需要使用自己传递的函数作为参数。 但是这里的reduceByKey()则是将具有相同键的value合并,然后形成一个map,示例代码如下:scala> val book = Array(("spark",2),("hadoop",6),("hadoop"...
原创
2021-07-08 14:28:37
480阅读
Spark中常见方法的使用1.reduceByKey() 在scala中,reduce表示进行某种操作,但是具体是何种操作,需要使用自己传递的函数作为参数。 但是这里的reduceByKey()则是将具有相同键的value合并,然后形成一个map,示例代码如下:scala> val book = Array(("spark",2),("hadoop",6),("hadoop"...
原创
2022-01-28 13:49:31
254阅读
问题集锦 目录目录1.String2.集合3.trait正文知识点和代码都在黑色的框子中1.Stringscala中的String类用的就是java 中的String这个类。如果有所不同,那就是scala还重写了几个方法罢了。object Lesson_String {
def main(args:Array[String])={
val builder = new Stri
使用idea 构建spring boot项目本身是非常方便的,而且十分快速。本来数据持久层我是打算用mybatis的,然后用mybatis-generator生成dao和mapper,但是我最近知道了mybatis-plus这个东西。mybatis-plus是国人开发的,不仅完全支持mybatis,而且还可以如mybatis-generator一样,自动生成model、dao、mapper,甚至更
目录 什么是mybatis-plus特点框架结构引入依赖代码生成器 使用mybatis自带的方法进行增删改查条件构造分页插件 逻辑删除通用枚举类自动填充功能乐观锁 总结什么是mybatis-plusMyBatis-Plus(简称 MP)是一个 MyBatis 的增强工具,在 MyBatis 的基础上只做增强不做改变,为简化开发、提高效率而
转载
2024-09-06 15:23:24
36阅读
# 使用Spring Boot和Redis实现String方法
## 简介
在本篇文章中,我将教你如何使用Spring Boot和Redis来实现String方法。通过学习这些方法,你可以更好地理解如何在你的应用程序中使用Redis来处理字符串。
## 流程图
下面是使用Spring Boot和Redis实现String方法的流程图:
```mermaid
sequenceDiagram
原创
2023-12-16 07:53:15
39阅读
SpringBoot中使用WebSocket的方法1.基本概念所谓WebSocket, 类似于Socket,它的作用是可以让Web应用中的客户端和服务端建立全双工通信。在基于Spring的应用中使用WebSocket
原创
2022-05-14 17:06:20
1783阅读
# Spring Boot与Spark处理CSV文件
在数据处理和分析领域,Apache Spark是一种迅速流行的大数据处理工具,而Spring Boot则是Java领域广泛使用的微服务框架。结合这两者,我们可以高效地处理CSV文件。本文将介绍如何使用Spring Boot和Spark来读取、处理和保存CSV文件,并提供相关代码示例。
## 项目依赖
在开始前,请确保您已经在`pom.xm
原创
2024-09-02 04:19:01
52阅读