1.备份hue.makocp -rf /opt/cloudera/parcels/CDH/lib/hue/desktop/core/src/desktop/templates/hue.mako /opt/cloudera/parcels/CDH/lib/hue/desktop/core/src/desktop/templates/hue.mako.bak2.打开hue.mako文件vim /opt
or line in $(cat tables.txt)do echo "tablename :$line"; value=$(hive --database test --hiveconf v=v1 -S -e "select count(*) from $line;") echo "$value" > /tmp/tmp_table_cnt.txt cnt=`s
hive.server2.session.check.intervalhive.server2.idle.operation.timeout 中配置以下设置。hive.server2.idle.session.timeout1). hive.server2.idle.session.timeout会话将在这段时间内未访问时关闭,以毫秒为单位;通过设置为零或负值来禁用。例如,值“86400000”指
HiveServer2 是一个节俭服务器,它是一个精简的服务层,以无缝的方式与 HDP 集群进行交互。它同时支持 JDBC 和 ODBC 驱动程序,以提供用于查询数据的 SQL 层。传入的 SQL 查询将转换为 TEZ 或 MR 作业,获取结果并将其发送回客户端。HS2内部无需进行繁重的起重工作。它只是充当一个拥有 TEZ/MR 驱动程序、扫描元数据和应用护林员策略进行授权的地方。HiveServ
vm.swappiness = 0net.ipv4.neigh.default.gc_stale_time = 120# see details in https://help.aliyun.com/knowledge_detail/39428.htmlnet.ipv4.conf.all.rp_filter = 0net.ipv4.conf.default.rp_filter = 0net.ipv
create role admin;grant ALL on server server1 to role admin;grant role admin to group admin;grant ALL on database default to role admin;create role hive;grant ALL on server server1 to role hive;grant
报错代码如下:Encountered exception loading fsimagejava.io.IOException: NameNode is not formatted. at org.apache.hadoop.hdfs.server.namenode.FSImage.recoverTransitionRead(FSImage.java:237) at org.apache.
创建角色create role role_name;例子:create role abc_read_role;删除角色drop role role_name;例子:drop role abc_read_role;显示所有角色show roles;把整个库授权给某一个角色查询权限(给所有权限,把select 替换成all)grant select on database dbname_db to r
解决方案:rest.port: 8081配置文件加入加入rest.bind-port: 50100-50900
解决方案:在flink配置文件vim /opt/flink/conf/flink-conf.yaml添加:env.java.opts: -Dfile.encoding=utf-8 -XX:+TraceClassLoading强制flink任务使得utf-8字符串
批量删除trash下的文件夹和文件rsync --delete-before -d tmp/ trash/批量删除trash下的文件rsync --delete-before -a -H -v --progress --stats tmp/ trash/
MySQL [(none)]> show variables like "%%";+--------------------------------------------+---------------------------+| Variable_name | Value |+-------
通过flink join表关联对mysql进行读取出现下面的问题?求指点 at org.apache.flink.streaming.runtime.io.StreamOneInputProcessor.processInput(StreamOneInputProcessor.java:66) ~[flink-dist_2.11-1.13.2.jar:1.13.2] at org.apache.
查看所有的参数show variables like "%%";查看cbo_enable_low_cardinality的参数show variables like "%cbo_enable_low_cardinality%";参数设置set global cbo_enable_low_cardinality_optimize = falsepipeline引擎,资源利用率高set global
查询语句报错:SQL 错误 [1064] [42000]: unsupport decode_dict_codes in GlobalDictCodeColumnIterator【StarRocks版本】2.2.7-5dfc83f【集群规模】:3fe(3 follower)+6be(3个be与fe混部)【机器信息】CPU虚拟核/内存/网卡,40C/128G/万兆解决方案:2.2.8修复了该问题,升
查看最大查询内存show variables like "%exec_mem_limit%";增加查询内存set global exec_mem_limit =51539607552;
RECOVER DATABASE example_db;RECOVER TABLE [db_name.]table_name;
1.先进入/opt/starRocks/be/conf把坏盘从数据盘中删除2.停止服务停止be服务bin/stop_be.sh3.启动服务 bin/start_be.sh --daemon因为是三副本,所以数据是不会丢失
原因:因为公司的平台的数据量在30P左右,使用了Hadoop3.1.2的版本,而且使用的纠删码功能,报错信息如下:java.io.IOException: Unexpected EOS from the readerat org.apache.hadoop.hdfs.StripeReader.readToBuffer(StripeReader.java:241)at org.apache.hado
异常2022-10-10 19:41:55,541 INFO [IPC Server handler 17 on 33142] org.apache.hadoop.mapred.TaskAttemptListenerImpl: Diagnostics report from attempt_1663912973547_0434_m_000000_0: Error: java.io.IOExcept
异常如下原因是因为是spark2.3只支持到<scala.version>2.11.8</scala.version>解决方案把Atlas的scala的版本改成和集群的版本一致即可
异常日志022-10-09 10:26:16,230 ERROR org.apache.hadoop.hdfs.qjournal.server.JournalNode: Failed to start journalnode.org.apache.hadoop.security.KerberosAuthException: failure to login: for principal: jn/h
1、比较函数 = <> > >= < <= 注意:select null=null; 返回为null IS NULL 、 IS NOT NULL --非空判断 value1 IS DISTINCT FROM value2、value1 IS NOT DISTINCT FROM value2、
报错内容如下:2022-09-29T10:19:39,785 ERROR [be6bd8ac-4a04-4f23-ac2a-540949dea68a main] metadata.HiveMetaStoreChecker: org.apache.hadoop.hive.ql.metadata.HiveException: Unexpected partition key hour found at
公司的数据变更字段时出现以下报错:java.net.SocketTimeoutException: Read timed out原因:hive.metastore.client.socket.timeout的值,目前是300。 解决方案:hive.metastore.client.socket.timeout的值,改为1000。
公司用的是原生的Hadoop,执行hadoop fs -ls /的时候出现以下hadoop的配置打印出来 原因是因为hadoop的文件中别人在前面加了set -x解决方案:vim /opt/hadoop/bin/hadoop把set -x改为set +x问题解决
Presto查询的时候报错User: wangyx@XXX.COM is not allowed to impersonate wangyx2022-09-19T14:37:42.936+0800 DEBUG query-execution-1 com.facebook.presto.execution.QueryStateMachine Query 20220919_0637
hive3.1.2用的cdh6.3.2中自带的spark2.4,在beeline客户端中,切换执行引擎为spark报错,报错为加载配置文件报加载不到解决方案检查了hive-site.xml文件,缺了一个配置,就是spark.yarn.jars
提示check failure stack trace解决方案:主要的原因是因为配置的问题,更改为正确的配置后,问题解决
Copyright © 2005-2025 51CTO.COM 版权所有 京ICP证060544号