1.安装NodejsNode.js 是一个开源、跨平台的 JavaScript 运行时环境 可以cmd黑窗口命令查看自己的电脑是否安装了nodejs node --version  如果没有可以去官网下载Download | Node.js注意:下载安装时,切记不要安装在中文目录下 安装完成,可也使用命令,查看是否安装成功2.安装NPM如果检查安装
最近项目需求需要用到Activiti以及Bpmn.js,我就去查阅资料学习了一下,现在项目已经到了收尾阶段,回头整理记录一下我整合bpmn.js的步骤及操作。步骤一:创建项目// 创建一个Vue项目 vue create bpmn-demo // 安装一下项目依赖 yarn // 或者使用npm npm install项目创建完成以后我们要安装一下bpmn.js的依赖然后进行整合。// yarn
转载 2024-03-29 06:23:05
193阅读
Vue实现简单Oauth2.0内部第三方登录Oauth2.0认证授权过程Vue具体实现操作前端拿到token数据存cookie里取cookie中的token实现登录拿token放请求头(请求拦截器)并根据提供的接口发请求返回用户信息对象,拿到用户信息存到cookie里拿到用户信息渲染到页面上实现前端登出 Oauth2.0认证授权过程Vue具体实现操作前端拿到token数据存cookie里先创建中
一般部署就这几种方式Vue项目打包后部署在nginx服务器下,后端部署在Tomact上(推荐,可跨域,不会暴露后端地址及端口)Vue项目打包后和后端一起部署在Tomact上(小规模开发省事,会暴露后端端口) 这种部署方式须注意,Vue路由的模式必须是hash且项目中的接口地址都必须是真实的后端地址,配置成'/'就好,'/'就代表了去搜索本机的接口,vue.config中的publicPath
转载 2024-08-02 19:08:14
195阅读
一、Node.js 是什么1. JavaScript 运行时2. 既不是语言,也不是框架,它是一个平台3. Node.js 中的 JavaScript没有 BOM、DOMEcmaScript 基本的 JavaScript 语言部分在 Node 中为 JavaScript提供了一些服务器级别的 API 文件操作的能力http 服务的能力二、Node 中的 JavaScript1. EcmaSc
spring boot自动配置方式整合spring boot具有许多自动化配置,对于kafka的自动化配置当然也包含在内,基于spring boot自动配置方式整合kafka,需要做以下步骤。引入kafka的pom依赖包<!-- https://mvnrepository.com/artifact/org.springframework.kafka/spring-kafka --> &
Spark Streaming整合Kafka实战二Spark Streaming整合kafka的第二种方式1. Direct Approach (No Receivers)优点:缺点:2. 偏移量解决方案自动提交偏移量spark streaming 整合kafka1.0版本以下手动提交偏移量spark streaming 整合kafka1.0版本 Spark Streaming整合kafka的第
Kafka是一个分布式的消息发布-订阅系统。可以说,任何实时大数据处理工具缺少与Kafka整合都是不完整的。本文将介绍如何使用Spark Streaming从Kafka中接收数据,这里将会介绍两种方法:(1)、使用Receivers和Kafka高层次的API;(2)、使用Direct API,这是使用低层次的KafkaAPI,并没有使用到Receivers,是Spark 1.3
转载 2024-03-27 16:35:20
23阅读
对于流式计算系统,我们都预期能够完全正确的处理每一条数据,即所有的数据不多也不少的处理每一条数据,为了达到这样的功能,我们还有很多额外的工作需要处理。1.首先了解spark+kafka解决这个问题的来龙去脉。为什么spark checkpoint解决不了?为什么前面kafka使用KafkaUtils.createStream创建Dstream,而后面升级了api,推荐使用新的KafkaUtil
本文将会介绍在windows环境下启动Kafka,并通过nodejs作为客户端,生产并消费消息。 第一步,Kafka需要java运行时,先安装配置java环境。通过在命令行中输入java -version确认java是否成功安装(可能需要查看windows的环境变量中是否有java)。 第二步,Ka ...
转载 2021-08-31 22:06:00
664阅读
2评论
记录一下使用node-media-server的一些过程。本文章环境为windows。本文章适合初学者。使用到的东西:nodeJs、ffmpeg、node-media-server。这里说一点(如果有错欢迎指出):node-media-server是作为流媒体服务器,你可以把他理解为中转站,用于转换流格式或者对视频流做一些操作以及向外推送流地址。ffmpeg是作为推流工具,将你需要转换的视频或者视
vue cesium 1、安装cesium   npm i cesium --save 2、在vue项目的vue.config.js文件中配置cesium  const path = require('path');   const cesiumSource = 'node_modules/cesium/Source'   const cesiumWorkers = '../Build/
转载 2024-03-06 16:41:05
54阅读
1.添加前置路由守卫前置路由守卫:就是在路由跳转前加上自己得一些业务代码。(放在main.js中)//前置路由守卫 to:到某个路由 from 从哪个路由出来 next() 放行到指定的路由 router.beforeEach((to,from,next)=>{ //获取跳转的路径 var path = to.path; //判断是否为登录路由路径 if(path==="/l
转载 2023-12-21 09:33:48
83阅读
文章目录准备集群安装1、创建目录2、解压缩安装包3、修改配置文件4、启动5、查看集群是否安装成功测试Kafka1、创建测试mytopic2、查看mytopic副本信息3、查看已创建topic列表信息4、创建Producer5、创建Consumer6、删除mytopic7、停止kafka 准备1、首先安装zookeeper作为为集群提供高可用 2、准备kafka按装包kafka_2.11-2.1.
转载 2024-02-19 22:46:49
189阅读
blog : 1.只需要添加  ws Controller 文件就行,启动自动注入 Controller2.path 路径参数,请求参数自动注入3.请求参数格式转换,可扩展转换类型4.容器变量字段自动注入5.容器初始化执行6.aop 实现方法拦截7.url 拦截分发反正是就仿spring 那套写起文档,发觉很不容易,大家将就一下吧框架来源:本来想拿 node
转载 2024-04-12 12:11:20
58阅读
项目架构:日志数据---->flume----->kafka-------->sparkstreaming---------->mysql/redis/hbase前置条件:安装zookeeper安装flume安装kafakhadoop实现高可用(1)实现flume收集数据到kafka启动kafak:nohupkafka-server-start.sh\/applicatio
原创 2019-01-07 21:50:45
3897阅读
相关环境搭建(centos7下搭建单机kafka) 1、官网下载[kafka][http://kafka.apache.org/] tar -xzf kafka_2.12-2.6.0.tgz cd kafka_2.13-2.6.0
原创 2021-07-05 10:40:57
509阅读
1点赞
1).Receiver模式 a).receiver模式使用zookeeper管理offset,要使用一个task接收kafka中的数据,会有丢失数据的问题,开启WAL机制将数据备份到checkpoint目录中一份,避免数据丢失,开启WAL机制之后会降低任务总体执行效率,延长时间。 b).receiv ...
转载 2021-07-24 20:06:00
180阅读
2评论
1.依赖<dependency> <groupId>org.apache.curator</groupId...
原创 2022-08-01 20:24:24
85阅读
我使用python版的 kafka向sparkstream 发送数据数据格式如下 因为床型存在重复,我会删除第=连锁
原创 2023-02-02 10:10:22
70阅读
  • 1
  • 2
  • 3
  • 4
  • 5