前言高并发,几乎是每个程序员都想拥有的经验。原因很简单:随着流量变大,会遇到各种各样的技术问题,比如接口响应超时、CPU load升高、GC频繁、死锁、大数据量存储等等,这些问题能推动我们在技术深度上不断精进。在过往的面试中,如果候选人做过高并发的项目,我通常会让对方谈谈对于高并发的理解,但是能系统性地回答好此问题的人并不多,大概分成这样几类:1、对数据化的指标没有概念:不清楚选择什么样的指标来衡
前言在开发过程中可能会碰到某些独特的业务,比如查询全部表数据,数据量过多会导致查询变得十分缓慢。虽然在大多数情况下并不需要查询所有的数据,而是通过分页或缓存的形式去减少或者避免这个问题,但是仍然存在需要这样的场景,比如需要导出所有的数据到excel中,导出数据之前,肯定需要先查询表中数据,这个查询的过程中数据量一旦过大,单线程查询数据会严重影响程序性能,有可能过长的查询时间导致服务宕机。现在模拟使
转载
2023-06-15 09:47:19
1283阅读
前言在我们的项目正式上线时,经常会遇到因为用户访问人数太多、并发量太高或者用户恶意访问导致服务器崩溃的问题,今天在这里和大家一起讨论在实际项目中如何在多个层面上对我们的应用进行优化,并防止用户恶意访问。数据库层优化1.我们可以对数据库配置文件进行优化,比如修改数据库最大连接数、数据库连接超时时间、是否开启查询缓存等,一般根据项目实际需求来配置。2.我们还可以对数据库表结构进行优化,比如对不同的表选
转载
2023-09-30 20:55:16
1076阅读
随着2017年大数据各种应用的发展,大数据的价值得以充分的发挥,大数据已在企业、社会各个层面都成为重要的手段,数据已成为新的企业战略制高点,也是各个企业争夺的新焦点。那么我们一直在说着的大数据究竟是什么呢?为什么提到大数据的时候会经常提到Java,Java与大数据究竟有什么关系呢?1、关于大数据大数据是互联网发展到现今阶段的一种表象或特征而已,没有必要神话它或对它保持敬畏之心,在以云计算为代表的技
转载
2023-07-05 23:26:11
65阅读
第一章-学习之前的认知影响股价的因素1、公司自身因素
2、心理因素
3、行业因素
4、经济因素
5、市场因素
6、政治因素金融量化投资量化投资的优势
1、避免主观情绪,人性弱点和认知偏差,选择更加客观
2、能同时包括多角度的观察和多层次的模型
3、及时跟踪市场变化,不断发现新的统计模型,寻找交易机会
4、在决定投资策略后,能通过回测验证其效果
量化策略
通过一套固定的逻辑来分析、判断和决策,自
转载
2023-09-16 20:50:28
0阅读
量化必备技能进程、线程、协程 最近再做量化系统的时候,由于 python 不是很熟悉,日行情下载数据
量化必备技能进程、线程、协程最近再做量化系统的时候,由于 python 不是很熟悉,日行情下载数据和数据清洗计算等都是单线程处理的,其速度无法忍受。
例如:日行情数据的更新,5000 左右个股票,更新一次,等待的时间可以把你验证想法的热情都浇灭,单线程的
转载
2023-07-10 11:07:30
54阅读
1.背景介绍大数据处理是指处理和分析大量、高速、不断增长的数据,这些数据通常来自不同的来源,如网络、传感器、数据库等。随着互联网和人工智能的发展,大数据处理已经成为现代科学和工程的重要组成部分。Java是一种广泛使用的编程语言,它的强大的性能和跨平台性使得它成为大数据处理领域的首选。Hadoop是一个开源的大数据处理框架,它可以处理大量数据并提供高性能、可扩展性和容错性。本文将从以下几个方面进行阐
简介数据是机器学习的核心,garbage in garbage out,而金融数据是量化的基础,对数据提出了更高的要求。不仅是数据准确高速(稳定),而且要求数据丰富全面。金融数据考虑到金融数据非常丰富,能快速入门,降低门槛,因此,本专栏仅对国内A股金融数据入手,熟悉整个量化流程。公开的金融数据可以通过平台API的方式或爬虫抓取的方式获得,也不排除收费的金融平台提供高质量数据。数据平台目前国内数据平
一、查询语句书写要点:1.应尽量避免在 where 子句中使用!=或<>操作符,否则将引擎放弃使用索引而进行全表扫描。 2.对查询进行优化,应尽量避免全表扫描,首先应考虑在 where 及 order by 涉及的列上建立索引。 3.应尽量避免在 where 子句中对字段进行 null 值判断,否则将导致引擎放弃使用索引而进行全表扫描,如: select id from t where
转载
2023-09-29 10:40:44
805阅读
序 最近可能会遇到大量数据导出Excel的场景,今天趁现在需求告一段落来做下技术预研,然后这里就顺便分享给大家。一、数据量预判因为我们是做物联网的,这里要导出的数据就是设备的上报数据。客户说要这些数据导出成excel进行分析,又或是其他什么原因,咱不管。咱就分析下数据量,目前设备数量1500,2小时上报一次数据(最小可设置为半小时),要求可以导出3年的数据。 数据量初步估算:1500 * 12 *
转载
2023-09-03 16:40:13
362阅读
JAVA 一JAVA基础知识 1.java 是 准动态强类型解释型语言 2.开发规范:Java严格区分大小写,public与Public是不一样的。 一个文件建议只定义一个类,且在类定义前面加public,文件名与类名要严格一致。如果一个文件中定义了多个类,只能有一个类前面加public,而且文件名必须与加public的类名严格一致。 Java Application程序的入口是main方法,即p
在项目中使用Hibernate进行大数据量的性能测试,有一些总结, 1) 在处理大数据量时,会有大量的数据缓冲保存在Session的一级缓存中,这缓存大太时会严重显示性能,所以在使用Hibernate处理大数据量的,可以使用session.clear()或者session. Evict(Object) 在处理过程中,清除全部的缓存或者清除某个对象。 2) 对大数据量查询时,慎用list()或者
1.问题平时使用Java的基本数据类型或其包装类型能解决大部分的问题,但是有时会遇到特别大的数据,其值早已超过基本类型的范围,如运算10000000的阶乘。此时我们改如何存储阶乘的运算结果?2.基本数据类型 基本数据类型
类型描述字节长度范围boolean布尔型 true、falsechar字符型与编码有关 byte字节型1-128~127,即-2^7 ~2^7-1sh
本文章只针对Excel2007版本POI读取Excel有两种模式,一种是用户模式,一种是SAX事件驱动模式,将xlsx格式的文档转换成CSV格式后进行读取。用户模式API接口丰富,使用POI的API可以很容易读取Excel,但用户模式消耗的内存很大,当遇到很大sheet、大数据网格,假空行、公式等问题时,很容易导致内存溢出。POI官方推荐解决内存溢出的方式使用CVS格式解析,即SAX事件驱动模式。
转载
2023-07-11 13:50:31
395阅读
采用JDBC批处理(开启事务、无事务)采用JDBC批处理时需要注意一下几点:1、在URL连接时需要开启批处理、以及预编译 String url = “jdbc:mysql://localhost:3306/User?rewriteBatched -Statements=true&useServerPrepStmts=false”;2、PreparedStatement预
「Why-What-How」在讲解概念和执行上是个不错的思维模型,这次依例按此框架来拆分「数据分析」。相信很多朋友已经有了较丰富的分析经验,这里权且从个人的角度进行梳理,以资参考。为了帮助大家更好地理解本文,先贴出一张思维脑图:一. WHY:为什么要做数据分析在目前讲解数据分析的文章里,大多数会忽略数据分析本身的目的。这会导致我们在执行时,会出现动作变形的情况。以终为始,才能保证不会跑偏。个人的理
转载
2023-08-08 11:51:30
1848阅读
老板项目需要从类似日志的文本文件中提取出元数据,然后放到数据库中为数据挖掘做处理。设计数据库为两张表,初步估计第一张表是千万级的数据,第二张表是亿级数据。面对这么大数据量的导入需求,分析设计高效的程序就显得很有必要了,磨刀不误砍柴功嘛!
首先考虑的是提高IO效率,毕竟现在计算机cpu高主频,多核心的环境下硬盘IO才是瓶颈。在文件读取上提高程序效率,比如用
对于非常大的数据模型而言,分页检索时,每次都加载整个数据源非常浪费。通常的选择是检索页面大小的块区的数据,而非检索所有的数据,然后单步执行当前行。本文演示ASP.net的DataGrid和Sql Server 实现大数据量下的分页,为了便于实现演示,数据表采用了Northwind数据库的Orders表(830条记录)。如果数据表中有唯一的自增索引,并且这个字段没有出现断号现象。检索页面大小的块区数
当今时代,跳槽确实是大部分人升职加薪最快的方式,特别是职业生涯初期。说起来也是很无奈,公司经常是宁愿花更多的钱来请个新人也不愿意加薪留住老人。 面试了 N 多公司之后,我发现其实问来问去也就那几个知识点,所以干脆把热点知识系统性地总结了一下,共有 185 道题目,希望能够帮助各位为面试做足准备,完美应对面试官的各种灵魂拷问,一举拿下心仪 Offer ! 这些面试题主要分为六个部
## Java 大数据量迁移的流程
### 1. 确定迁移数据源和目标
在进行大数据量迁移之前,首先需要确定迁移的数据源和目标。数据源可以是数据库、文件系统、消息队列等,而目标可以是同种或不同种的数据存储方式。
### 2. 数据抽取
数据抽取是将数据从源系统中读取出来的过程。根据数据源的不同,可以采用不同的方式进行数据抽取。
如果数据源是关系型数据库,可以使用JDBC来连接数据库,并执