这个就是做个练习.想看下JDBC的最大优化度.
我的要求就是插入到数据库里大量的数据 比如10W 或者 100W 而且要求内存稳定.
首先说下我的代码:
我的数据库MySQL
CREATE TABLE `users` (
`id` int(11) NOT NULL auto_increment,
`firstname` varchar(50) NOT NULL,
`lastname` varchar(50) NOT NULL,
`age` int(11) NOT NULL,
PRIMARY KEY (`id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8
我的数据库辅助类
package com.jdbc.batch;
import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.PreparedStatement;
import java.sql.ResultSet;
import java.sql.SQLException;
public final class DBUtils {
private static String mysqlurl = "jdbc:mysql://localhost:3306/mytest";
private static String accessurl = "jdbc:mysql://localhost:3306/mytest";
private static String user = "root";
private static String password = "root";
// 获得连接
public static Connection getAccessConn() throws SQLException {
return DriverManager.getConnection(accessurl, user, password);
}
public static Connection getMySqlConn() throws SQLException {
return DriverManager.getConnection(mysqlurl, user, password);
}
// 释放连接
public static void free(ResultSet rs, PreparedStatement ps, Connection conn) {
try {
if (rs != null) {
rs.close();
}
} catch (SQLException e) {
e.printStackTrace();
} finally {
try {
if (ps != null) {
ps.close();
}
} catch (SQLException e) {
e.printStackTrace();
} finally {
try {
if (conn != null) {
conn.close();
}
} catch (SQLException e) {
e.printStackTrace();
}
}
}
}
// 加载驱动
static {
try {
Class.forName("com.mysql.jdbc.Driver");
} catch (ClassNotFoundException e) {
System.out.println("驱动加载出错");
}
}
}
测试类
package com.jdbc.batch;
import java.sql.Connection;
import java.sql.PreparedStatement;
import java.sql.ResultSet;
import java.sql.SQLException;
public class BatchExample {
private static Connection mysqlConn = null;
private static ResultSet rs = null;
// 总条数
private static int allCount = 10000;
// 分批条数
private static int preCount = 1000;
// 计数器
private static int count = 0;
private static String insertSQL = "insert into users(firstname, lastname, age) values(?, ?, ?)";
private static PreparedStatement mysqlPs = null;
public static void main(String[] args) throws SQLException {
try {
mysqlConn = DBUtils.getMySqlConn();
mysqlPs = mysqlConn.prepareStatement(insertSQL);
mysqlConn.setAutoCommit(false);
long start = System.currentTimeMillis();
for (int i = 1; i <= allCount; i++) {
mysqlPs.setString(1, "firstname" + i);
mysqlPs.setString(2, "lastname" + i);
mysqlPs.setInt(3, 23);
mysqlPs.addBatch();
if ((i % preCount) == 0){
mysqlPs.executeBatch();
System.out.println("当前进行完毕===>" + (++count) * preCount + "条");
}
}
long end = System.currentTimeMillis();
System.out.println("数据导入完毕,所用时间为: " + (end - start) + " ms");
} catch (Exception e) {
mysqlConn.rollback();
System.out.println("数据出错,已进行回滚");
throw new RuntimeException();
} finally {
mysqlConn.commit();
DBUtils.free(rs, mysqlPs, mysqlConn);
}
}
}
我用的批处理.最后执行10000条的记录是
当前进行完毕===>1000条
当前进行完毕===>2000条
当前进行完毕===>3000条
当前进行完毕===>4000条
当前进行完毕===>5000条
当前进行完毕===>6000条
当前进行完毕===>7000条
当前进行完毕===>8000条
当前进行完毕===>9000条
当前进行完毕===>10000条
数据导入完毕,所用时间为: 8140 ms
而我换了一种方案 用executeUpdate一次提交.SQL用StringBuilder串接 效率提升很快.
代码
package com.jdbc.batch;
import java.sql.Connection;
import java.sql.PreparedStatement;
import java.sql.ResultSet;
import java.sql.SQLException;
public class BufferQuery {
private static Connection mysqlConn = null;
private static ResultSet rs = null;
// 总条数
private static int allCount = 10000;
// 分批条数
private static int preCount = 1000;
// 计数器
private static int count = 0;
private static String insertSQL = "insert into users(firstname, lastname, age) values(?, ?, ?)";
private static PreparedStatement mysqlPs = null;
public static void main(String[] args) throws SQLException {
try {
StringBuilder sb = new StringBuilder();
sb.append("insert into users(firstname, lastname, age) values");
mysqlConn = DBUtils.getMySqlConn();
mysqlPs = mysqlConn.prepareStatement(insertSQL);
mysqlConn.setAutoCommit(false);
long start = System.currentTimeMillis();
for (int i = 1; i <= allCount; i++) {
if(i > 1) sb.append(",");
sb.append("('aa"+ i +"','bb',23)");
if(i % preCount == 0){
System.out.println("导入进行===>" + (++count * preCount) + "条");
}
}
mysqlPs.executeUpdate(sb.toString());
long end = System.currentTimeMillis();
System.out.println("数据导入完毕,所用时间为: " + (end - start) + " ms");
} catch (Exception e) {
mysqlConn.rollback();
System.out.println("数据出错,已进行回滚");
throw new RuntimeException();
} finally {
mysqlConn.commit();
DBUtils.free(rs, mysqlPs, mysqlConn);
}
}
}
// 用的StringBuilder串接
long start = System.currentTimeMillis();
for (int i = 1; i <= allCount; i++) {
if(i > 1) sb.append(",");
sb.append("('aa"+ i +"','bb',23)");
if(i % preCount == 0){
System.out.println("导入进行===>" + (++count * preCount) + "条");
}
}
mysqlPs.executeUpdate(sb.toString());
导入进行===>1000条
导入进行===>2000条
导入进行===>3000条
导入进行===>4000条
导入进行===>5000条
导入进行===>6000条
导入进行===>7000条
导入进行===>8000条
导入进行===>9000条
导入进行===>10000条
数据导入完毕,所用时间为: 219 ms
1W条才129ms为什么会比批处理快这么多.但是还有问题就是 如果数据量更大 如20W 那么StringBuilder就装不下 堆栈溢出....
stringbuilder 看了msdn,发现最大的长度是Int32,开始没有理解,后来HJ告诉我能够至少容纳3M的长度,我又去check了一下msdn,最大的长度是2的32次方(2的32次方就是4G),但是网上有人说是2G,那就是2的31次方。
要注意的是stringbuilder非线程安全 用再多线程处理时要慎用
我测试的jdbc批处理操作,插入112万条数据的对比
批量向数据表插入一条数据(包含一个float值)
建立表个数 每个表插入数据条数 单个数据表耗时(毫秒) 数据库连接耗时(毫秒) 带数据库连接总耗时(毫秒) 不带数据库连接总耗时(毫秒) 备注
800 1440 480-600 312 437703 437391 调用Statement.execute批量插入
800 1440 100-200 328 118985 118657 调用Statement.addBatch批量插入
800 1440 40-110 313 56922 56609 调用PreparedStatement.addBatch批量插入
使用jdbc向数据库插入100000条记录,分别使用statement,PreparedStatement,及PreparedStatement+批处理3种方式进行测试:
1、使用statement插入100000条记录
public void exec(Connection conn){
try {
Long beginTime = System.currentTimeMillis();
conn.setAutoCommit(false);//设置手动提交
Statement st = conn.createStatement();
for(int i=0;i<100000;i++){
String sql="insert into t1(id) values ("+i+")";
st.executeUpdate(sql);
}
Long endTime = System.currentTimeMillis();
System.out.println("st:"+(endTime-beginTime)/1000+"秒");//计算时间
st.close();
conn.close();
} catch (SQLException e) {
// TODO Auto-generated catch block
e.printStackTrace();
}
}
2、使用PreparedStatement对象
public void exec2(Connection conn){
try {
Long beginTime = System.currentTimeMillis();
conn.setAutoCommit(false);//手动提交
PreparedStatement pst = conn.prepareStatement("insert into t1(id) values (?)");
for(int i=0;i<100000;i++){
pst.setInt(1, i);
pst.execute();
}
conn.commit();
Long endTime = System.currentTimeMillis();
System.out.println("pst:"+(endTime-beginTime)/1000+"秒");//计算时间
pst.close();
conn.close();
} catch (SQLException e) {
// TODO Auto-generated catch block
e.printStackTrace();
}
}
wordend 相关阅读:
- 性能测试(并发负载压力)测试分析
- 软件性能测试的重要性及策略
- 软件性能测试入门
3、使用PreparedStatement + 批处理
public void exec3(Connection conn){
try {
conn.setAutoCommit(false);
Long beginTime = System.currentTimeMillis();
PreparedStatement pst = conn.prepareStatement("insert into t1(id) values (?)");
for(int i=1;i<=100000;i++){
pst.setInt(1, i);
pst.addBatch();
if(i%1000==0){//可以设置不同的大小;如50,100,500,1000等等
pst.executeBatch();
conn.commit();
pst.clearBatch();
}
}
Long endTime = System.currentTimeMillis();
System.out.println("pst+batch:"+(endTime-beginTime)/1000+"秒");
pst.close();
conn.close();
} catch (SQLException e) {
// TODO Auto-generated catch block
e.printStackTrace();
}
}
在Oracle 10g中测试,结果:
1、使用statement耗时142秒;
2、使用PreparedStatement耗时56秒;
3、使用PreparedStatement + 批处理耗时:
a.50条插入一次,耗时5秒;
b.100条插入一次,耗时2秒;
c.1000条以上插入一次,耗时1秒;
通过以上可以得出结论,在使用jdbc大批量插入数据时,明显使用第三种方式(PreparedStatement + 批处理)性能更优。
当使用sqlserver 2000进行测试时,第三种方式最少耗时5秒,从这方面可以看出Oracle在处理大量数据时,明显性能更强。