项目内容这个作业属于哪个课程2021春季软件工程 (罗杰 任健)这个作业的要求在哪里案例分析作业我在这个课程的目标是提高软件开发能力,锻炼团队协作能力这个作业在哪个具体方面帮助我实现目标分析体验各种软件,取其精华、取其糟粕,对自己的设计有了更多的理解和反思目录(一)调研,测评一、钉钉1、功能体验2、bug及改进点01020304二、企业微信1、功能体验2、bug和改进点0102三、飞书1、使用体验            
                
         
            
            
            
            YARN分布式资源管理系统组成:  ResourceManager:YARN的资源管理器,主节点,通过NodeManager管理集群中所有的资源  NodeManager:YARN的节点管理器,从节点,通过container管理资源,一个dataNode对应一个NodeManager  Container:包装资源,CPU/内存/IO  容器:最小的资源单位,1GB内存,一个虚拟核心  Maste            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-09-04 14:51:59
                            
                                37阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            如何使用dinky on yarn提交用户
## 流程概述
下面是完成该任务所需的步骤的概述。你可以使用以下甘特图来更清楚地理解整个流程。
```mermaid
gantt
  dateFormat YYYY-MM-DD
  title 任务流程
  section 前期准备
  准备环境      :done, 2021-01-01, 1d
  安装依赖      :done, 2021            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2024-02-11 08:01:43
                            
                                30阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            
                     
 
 目录 
 
1. 什么operator有状态
2. Operator State
2.1 Broadcast state的使用
2.2 List state和Union List state的使用
2.3 Stateful Source Functions(List state和Union List state的特例)
3. Keyed             
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-04-05 00:03:15
                            
                                65阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            # 如何配置MySQL监听作业
## 概述
在配置MySQL监听作业之前,首先需要确保你已经安装和配置好了MySQL数据库。本文将向你展示如何配置MySQL监听作业,以便实现自动化任务调度。
## 流程图
```mermaid
gantt
    title 配置MySQL监听作业流程
    section 配置步骤
    安装dinky:a1, 2022-01-01, 2d
    配置            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2024-06-01 05:17:18
                            
                                31阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            大学在班上担任学习委员,每次收作业都十分麻烦。因此想自己制作一个作业提交系统。此系统主要功能就是作业提交,简而言之就是文件上传。因为技术不佳,目前只做了个beta版,使用原生的HTML+JS+AJAX+Servlet,数据库使用mysql。因此美观度和功能性有待完善,各位大佬轻喷。1.工作流程2.数据库设计此系统包含两个实体:课程,实验。即一个课程对应多个实验。course表:experiment            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-01-16 11:48:35
                            
                                60阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            一、spark Streaming是基于spark的流式批处理引擎原理:将实时输入数据流以时间片为单位进行拆分,然后经过spark引擎以类似批处理的方式处理每个时间片数据二、sparkStreaming作业流程1.客户端提交作业后启动Driver(Driver是spark作业的Master);2.每个作业包含多个Executor,每个Executor以线程的方式运行task,Spark Strea            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-12-07 06:58:13
                            
                                70阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            当前数据平台的作业提交过程,一直是一个两阶段的提交过程,任务状态的汇报,两阶段通信,造成了任务队列多提交,状态更新过慢,状态不一致等问题。从flink1.11开始,flinkcli改进了flink run 的启动模式,新增了run-application模式。所以,我们就从flink1.11的源码探索一下flinkcli的启动流程,和run-application的启动模式,看有什么新东西,可以优            
                
         
            
            
            
            文章目录Flink Job提交流程(Dispatcher之后)1 Dispatcher2 ExecutionGraph2.1 ExecutionJobVertex2.2 ExecutionVertex2.3 Execution2.4 IntermediateResult2.5 ExecutionEdge3 Task调度3.1 DataSourceTask3.2 StreamTask3.2.1 S            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-12-16 18:25:43
                            
                                103阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            SGE qsub 命令 选项 笔记
jianshan.hu@swift.cn ChongQing, China
    SGE qsub 命令 选项 笔记jianshan.hu@swift.cn ChongQing, Chinaqsubqsub命令用来向SGE提交批处理作业,SGE支持单或多节点作业。qsub [ options ] [ command | -            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-02-13 12:59:29
                            
                                86阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            作业的周转时间=运行结束时间-提交时间=完成时间-提交时间=执行时间+等待时间(手动滑稽)带权周转时间=周转时间/运行时间=周转时间/执行时间 但是SJF算法在作业提交时间不同的时候,首先第一步要做的工作就是调整确定作业流的调度顺序,首先要明确的是最先到来的第一个任务是不参与接下来的比较的!这是由于 SJF算法不是抢占剥夺式的算法的缘故哦!在SJF调度算法中,第一个来的算法毫无            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-11-14 11:18:44
                            
                                51阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            DataStream Api的 流 和 批 处理一.概述二.什么时候需要用batch执行方式三.两种模式下产生的结果是不一样的四.看下RuntimeExecutionMode 一.概述在此之前你需要了解:DataStream api 概述 DataStream API 支持不同的运行时执行模式(streaming/batch),您可以根据用例的要求和作业的特征从中进行选择。STREAMINGDa            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-03-23 09:02:14
                            
                                90阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            Spark:对于提交命令的理解:spark-submit 可以提交任务到 spark 集群执行,也可以提交到 hadoop 的 yarn 集群执行。代码中配置:util:import org.apache.spark.serializer.KryoSerializer
import org.apache.spark.sql.SparkSession
object SparkContextUtil            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-08-16 10:50:50
                            
                                251阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            一、环境依赖消息队列:Kafka(单机或者集群)(需要安装Zookeeper)RedisHadoop3.2-3、flink1.12( 集群或者单机环境)Python3.8、pyflink1.12二、项目整体概述 一句话描述:需要预测的数据发送到Kafka消息队列,从Redis里读取离线训练的神经网络模型,经过特征工程及预测后重新写回Kafka供上游应用使用三、 项目搭建及部署流程(1) pyfli            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-09-02 21:13:21
                            
                                78阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            # Hadoop 作业提交
## 简介
Hadoop 是一个用于存储和处理大规模数据的开源框架。它支持将数据存储在多个计算机集群中,并通过MapReduce 等并行计算模型来处理这些数据。在使用 Hadoop 进行数据处理时,通常需要编写 Hadoop 作业,并将其提交到 Hadoop 集群中运行。
本文将介绍如何编写和提交 Hadoop 作业,并提供相应的代码示例。
## Hadoop            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2024-03-23 08:16:53
                            
                                33阅读
                            
                                                                             
                 
                
                             
         
            
            
            
             【场景】  Spark提交作业job的时候要指定该job可以使用的CPU、内存等资源参数,生产环境中,任务资源分配不足会导致该job执行中断、失败等问题,所以对Spark的job资源参数分配调优非常重要。  spark提交作业,yarn-cluster模式示例:./bin/spark-submit\
  --class com.ww.rdd.wordcount \
  --master            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-09-28 22:46:05
                            
                                103阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            文章目录一、前言二、前提工作三、打包四、提交作业五、总结 一、前言前面已经编写了Flink第一个代码程序,并且也运行了,但是你会发现只是在IDEA上运行的,这种只适合开发,真正工作中我们更多的是要将写好的程序部署到集群上去跑,所以接下来说说如何将作业提交到集群上。二、前提工作我们这里以上一篇的StreamWorldCount来进行说明,仔细点的同学会发现有些变量都是在代码中写死的,这在实际的生产            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-03-16 08:44:15
                            
                                62阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            标签(空格分隔): Spark作业提交先回顾一下WordCount的过程:sc.textFile("README.rd").flatMap(line => line.split(" ")).map(word => (word, 1)).reduceByKey(_+_)步骤一:val rawFile = sc.textFile("README.rd")
texyFile先生成Hadoop            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-11-10 18:12:04
                            
                                55阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            提交流程调用的关键方法链 用户编写的程序逻辑需要提交给Flink才能得到执行。本文来探讨一下客户程序如何提交给Flink。鉴于用户将自己利用Flink的API编写的逻辑打成相应的应用程序包(比如Jar)然后提交到一个目标Flink集群上去运行是比较主流的使用场景,因此我们的分析也基于这一场景进行。Environment对象,这里我们主要基于常用的RemoteStreamEnvironment和R            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-08-30 22:49:05
                            
                                74阅读
                            
                                                                             
                 
                
                             
         
            
            
            
             python文件操作前言一、JSON是什么?二、python对文件的操作1.写入文件内容2.打开、读取、关闭文件文件数据若有问题采用两种解决方式file对象的函数列表写入文件内容对象转JSON内中的json形式的变量保存到文件读取json文件内容目录访问显示work路径下的所有类型为txt的文件总结 前言随着人工智能的不断发展,Python这门技术也越来越重要,很多人都开启了学习python,本            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-12-19 06:13:52
                            
                                52阅读