以下是个人项目中用到的技术点和大家讨论一下,还望和大家一起相互学习垃圾回收算法 首先一个对象是否被回收的话要看这个内存对象是否有被GCROOT对象引用。 标记-清除算法:对堆内存里面GCROOT对象无法达到的进行标记,然后清除。CMS垃圾收集器就是用了这个算法。 标记-整理算法:对堆内存里面GCROOT对象无法达到的进行标记,把存活的对象放在内存的一端,对另一端进行清理。serial old收集器
转载 2024-07-01 16:33:52
33阅读
​ETL架构师面试
原创 2014-10-30 21:47:01
3899阅读
一文看懂ETL~~
转载 2021-08-11 15:10:11
3037阅读
最近写了一个针对数据仓库ETL的测试框架,baidu google了一下发现还没有非常靠谱的同类型框架或解决方案,就忍不住提前分享一下(其实是因为周五下午不想干活)。 首先分享一下我们过去测试ETL的方法:很简单,就是写两段SQL分别query上下两层数据,然后通过数据库的minus方法来得到不符合预期的数据,进而进行分析。例如 -- Source
转载 2023-08-31 18:19:57
203阅读
日志采集、加工、分析、归档有着一套流程。
转载 2017-07-05 22:39:00
402阅读
2评论
ETL 是数据抽取(Extract)、转换(Transform)、加载(Load)的简写,它的功能是从数据源抽取出所需的数据,经过数据清洗和转换,最终按照预先定义好的数据仓库模型,将数据加载到数据仓库中去,是构建数据仓库最重要的一步。在数据加载到数据库的过程中,分为全量加载(更新)和增量加载(更新)。全量加载:全表删除后再进行数据加载的方式。增量加载:目标表仅更新源表变化的数据。全量加载从技术角度
转载 2023-08-31 20:52:12
135阅读
 熟悉TASKCTL4.1一段时间后,觉得它的调度逻辑什么的都还不错,但是感觉单机部署不太够用。想实现跨机调度作业,就要会TASKCTL的集群部署。下面就是我在网上找到的相关资料,非原创。单机部署成功后,要在单机部署的基础上,增加3个CTL节点:1个MAgent和2个Sagent,来完成集群部署。将服务端的安装包分别上传至magent、sagent1和sagent2账户,其操作都是一样的
1.  安装4.0框架ETL的正运行前提是操作系统中已经安装有4.0框架。如果没有,请在运行ETL工具前将其提前安装。2.  解压ETL工具安装包将接收到的ETL工具压缩包解压到本地3.  安装建库脚本在oracle库中创建新用户,一般用户名为SJTB,然后在在ETL所在的目录下找到【建库脚本oracle.sql】,将该脚本其在SJTB用
转载 2023-08-31 08:28:17
180阅读
为什么使用geventPython通过yield提供了对协程的基本支持,但是不完全。比如python的yield虽然提供了对协程的支持,但是需要用send手动发送数据(比如io操作时的切换,需要发送 “耗时操作完成”告诉程序可以继续往下走),才能改变程序的执行流程,,而第三方的gevent为Python提供了比较完善的协程支持。gevent的优点gevent是第三方库,通过greenlet实现协程
转载 2024-07-03 07:45:52
65阅读
数据仓库是由外部多个数据源汇总集成的,“集成”这个词代表并不是简单的堆积,而是需要进行一些逻辑处理,数仓的集成就是这样,因为外部数据源都是异构的,所以需要做很多工作才可以进行集成,这些工作包括但不限于:字段的意义统一,轻度统计等。抽取数据有如下策略:时间戳判断扫描增量文件日志文件,审计文件扫描修改应用程序(很少使用)映像文件扫描(很少使用)另外,抽取的数据需要增加时间戳(必须的),存储到介质里面需
常用的数据集成ETL工具有哪些?ETL工具用于将异构数据转换为同类数据,然后由数据科学家用于从数据中获得有价值的数据,常用的ETL工具有Microsoft-SQL Server集成服务、AWS Glue、Apache NiFi、Informatica PowerCenter、IBM的Infosphere Information Server等。ETL工具是什么呢?ETL是英文Extract-Tra
一、ETL概念        ETL是将业务系统的数据经过抽取、清洗转换之后加载到数据仓库的过程,目的是将企业中的分散、零乱、标准不统一的数据整合到一起,为企业的决策提供分析依据, ETL是BI(商业智能)项目重要的一个环节。二、E-T-L架构分类        ETL所描述的过程,一般常见的作法包含ETL
转载 2023-09-28 08:31:01
185阅读
ETL,全称 Extract-Transform-Load,它是将大量的多个来源的原始数据经过提取(extract)、清洗加转换(transform)、加载(load)到目标存储数据仓库或数据湖的过程; 在21世纪大数据时代,我们的系统中有来自各种来源的结构化和非结构化数据,包括:来自在线支付和客户关系管理(CRM)系统的客户数据、来自供应商系统的库存和
转载 2023-07-11 22:35:37
104阅读
导读: 1. 打破R慢的印象,ETL效率显著优于Python,堪比spark,clickhouse 2. 对比python中的datatable、pandas、dask、cuDF,R中data.table以及spark、clickhouse 3. 探讨R中的ETL体系ETL在数据工作中起着至关重要的作用,主要用途有两个:(1)数据生产(2)为探索性数据分析与数据建模服
转载 2023-10-03 13:41:19
140阅读
 概述ETL(Extract-Transform-Load的缩写,即数据抽取、转换、装载的过程),对于企业或行业应用来说,我们经常会遇到各种数据的处理,转换,迁移,所以了解并掌握一种etl工具的使用,必不可少。最近用kettle做数据处理比较多,所以也就介绍下这方面内容,这里先对比下几款主流的ETL工具。1、DataPipelineData Pipeline是一家为企业用户提供数据基础架
ETL的考虑做 数据仓库系统,ETL是关键的一环。说大了,ETL是数据整合解决方案,说小了,就是倒数据的工具。回忆一下工作这么些年来,处理数据迁移、转换的工作倒 还真的不少。但是那些工作基本上是一次性工作或者很小数据量,使用access、DTS或是自己编个小程序搞定。可是在数据仓库系统中,ETL上升到了一 定的理论高度,和原来小打小闹的工具使用不同了。究竟什么不同,从名字上就可以看到,人家已经将倒
转载 2023-07-14 17:27:56
169阅读
1评论
看大家分享了好多hadoop相关的一些内容,我为大家介绍一款ETL工具——Kettle。    Kettle是pentaho公司开源的一款ETL工具,跟hadoop一样,也是java实现,其目的就是做数据整合中时数据的抽取(Extract)、转换(Transformat)、加载(Load)工作。Kettle中有两种脚本文件,transformation和job,transfor
转载 2023-11-03 23:23:33
150阅读
概念ETL(Extract-Transform-Load)是将业务系统的数据经过抽取、清洗转换之后加载到数据仓库的过程,目的是将企业中的分散、零乱、标准不统一的数据整合到一起,为企业的决策提供分析依据。ETL的设计分三部分:数据抽取、数据的清洗转换、数据的加载。ETL过程就是数据流动的过程。ETL的实现常用方法的有三种。一种是借助ETL工具(如Oracle的OWB、SQL Server 2000的
转载 2023-09-22 19:50:58
139阅读
一、基础认识1.什么是 ETL• Extract-Transform-Load 的英文缩写,用来描述将数据从来源端经过抽 取(extract)、转换(transform)、加载(load)至目的端的过程。• ETL 是将业务系统的数据经过抽取、清洗转换后加载到数据仓库的过 程,目的是将企业中的分散、零乱、标准不统一的数据整合到一起,为 企业的决策提供分析依据,ETL 是 BI(商业智能)项目重要的
转载 2023-11-12 13:28:14
104阅读
1、什么是ETLETL (Extract-Transform-Load),用来描述将数据从来源端经过抽取(extract)、清洗转换(transform)、加载(load)至目的端的过程。通俗的说法就是从数据源抽取数据出来,进行清洗加工转换,然后加载到定义好的数据仓库模型中去。2、为什么要用ETL工具?(1)当数据来自不同的物理主机,这时候如使用SQL语句去处理的话,就显得比较吃力且开销
  • 1
  • 2
  • 3
  • 4
  • 5