在做查询数据库操作时,报了以上错误,还有out of memery heap hacp ,原因是mysql的max_allowed_packet设置过小引起的,我一开始设置的是1M,后来改为了20Mmysql根据配置文件会限制server接受的数据包大小。有时候大的插入和更新会被max_allowed_packet 参数限制掉,导致失败。查看目前配置 show VARIABLES like '%m
https://my.oschina.net/jackieyeah/blog/735424
Hadoop2.6.0,hbase1.0.1.1使用hive2.1.1版本,该版本能较好地支持hbase,从hive往hbase插入数据不会报错
Copyright © 2005-2025 51CTO.COM 版权所有 京ICP证060544号