手机随时阅读
新人专享大礼包¥24
需要在pom文件中加一个插件,这样打出来的包就是瘦包。注意:SpringBoot项目打出来的包入口类只有一个application的,没有main函数的入口类,包含main函数入口类的包也在targat目录下,后缀名为original的一个包,把后缀名去掉就可以正常使用了。<plugin> <groupId>org.springframewor
/** * @param str:原字符串 * @param keyword:字符 * @param before:在字符前需要插入的字段 */ public static String replacementInfo(String str, String keyword, String before) { StringBuilder sb =
进去IDEA Terminal执行如下命令:mvn dependency:copy-dependencies
环境介绍Linux主机,安装两个docker postgres 容器,并实现主从配置。数据库版本:12主库端口:5433从库端口:5434主节点操作(1)创建工作目录mkdir -p /home/hadoop/data/pg/master(2)拉取镜像并启动容器docker run -d \-p 5433:5432 \-e POSTGRES_PASSWORD=postgres
环境介绍各组件已经安装完成状态下进行此操作。先在HBase中建表,后在Phoenix建立同名表,分别使用HBase和Phoenix向表中插入数据,并查看是否正常。HBase建表-- HBase建表create 'TEST','INFO'-- 插入数据put 'TEST', 'ROW001','INFO:NUM','1000'put 'TEST', 'ROW002','INFO:NUM','1000
报错背景服务器上安装了大数据的很多服务,正常启动运行,但是突然有一天发现,输入:jps命令后,一个进程号都没有了,但是访问服务还可以正常访问,说明服务还在运行,只是进程号没了。报错现象略报错原因/tmp 目录下的文件被系统自动删除,导致服务异常。报错解决修改配置文件[root@bigdata1 ~]# vim /usr/lib/tmpfiles.d/tmp.conf # Th
Phoenix修改字段类型不像关系型数据库那样一个命令即可完成,Phoenix的每张表的字段数据结构都存储在Phoenix系统表里面,需要修改其系统表CATALOG参数才可以。查看指定表的数据类型select COLUMN_NAME, -- 列名 COLUMN_FAMILY, -- 列簇名 DATA_TYPE -- 数据类型,是以编号形式存储的fro
报错背景安装Flink on yarn集群,Flink集群无法启动。版本:flink-1.14.4hadoop-3.2.3报错现象2022-04-18 10:32:31,809 ERROR org.apache.flink.runtime.entrypoint.ClusterEntrypoint [] - Could not start cluster entry
报错背景安装Flink on yarn集群,Flink集群无法启动。版本:flink-1.14.4hadoop-3.2.3报错现象2022-04-18 10:22:31,395 ERROR org.apache.flink.runtime.entrypoint.ClusterEntrypoint [] - Could not start cluster entry
报错背景 安装完成Tez之后, 在hive-shell下执行:select count(*) from student; 报错。 报错现象 22/03/03 22:34:48 INFO client.DAGClientImpl: DAG: State: FAILED Progress: 0% TotalTasks: 1 Succeeded: 0 Running: 0 Failed: 0 Kill
环境准备 CentOS 7 apache-maven-3.6.3 hadoop-2.6.0-cdh5.16.2 protobuf-2.5.0 下载:https://github.com/protocolbuffers/protobuf/releases?after=v3.0.0-alpha-4.1 apache-tez-0.9.2-src.tar.gz 下载:https://dlcd
报错背景 服务器安装了impala,然后hadoop命令就不能用了,hadoop fs -ls / 列出来的都是本地文件夹,而不是HDFS的文件夹。 同时,hbase、hive等命令也全都失效。 报错现象 [root@basecoalmine bin]# hdfs dfs -ls / SLF4J: Class path contains multiple SLF4J bindings. SLF4
报错背景 hive-1.1.0-cdh5.16.2 spark-2.4.6-bin-hadoop2.6 启动hive时出现报错。 报错现象 启动hive:hive --service metastore & 报错信息:ls: 无法访问/opt/app/spark/lib/spark-assembly-*.jar: 没有那个文件或目录 报错原因 Spark升级到2.0.0之后,原有的lib的
环境要求 java-1.8 maven-3.6.3 hadoop-2.x.x 下载安装包 [root@basecoalmine source]# cd /opt/source/ [root@basecoalmine source]# wget http://www.oberhumer.com/opensource/lzo/download/lzo-2.10.tar.gz [root@base
报错背景 Flume配置抽取任务时日志打印报错信息。 报错现象 错误: 找不到或无法加载主类 org.apache.flume.tools.GetJavaProperty 报错原因 原因不明 猜测:可能是和hbase的jar包或者环境变量发生了冲突。 报错解决 修改flume-ng文件110行,添加红色部分。 add_HBASE_paths() { local HBASE_IN_PATH
鼠标右键点击“此电脑”,选择“管理” 重启电脑进行测试,重启后打开任务管理器查看进程启动情况。
报错背景 软件版本:kafka_2.11-2.2.1-kafka-4.1.0 新安装的Kafka启动之后,使用kafka-server-stop.sh命令无法正常关闭。 报错现象 报错原因 Kafka的关闭脚本有问题,找不到Kafka的进程号。 报错解决 原始Kafka关闭脚本:kafka-server-stop.sh SIGNAL=${SIGNAL:-TERM} PIDS=$(ps ax |
报错背景 启动HBase后发现log日志有报错。 报错现象 org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.fs.PathIsNotEmptyDirectoryException): `/HBase-2/WALs/basecoalmine,16201,1644481226960-splitting is non empty': Di
报错背景 hive创建数据库时添加中文备注信息报错。 命令:CREATE DATABASE IF NOT EXISTS hive_ods_db COMMENT 'Hive ODS层数据库'; 报错现象 FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask. MetaException(m
其他
下载软件protobuf-2.5.0.tar.gzprotoc-2.5.0-win32.zip链接:https://github.com/protocolbuffers/protobuf/releases/tag/v2.5.0解压配置解压两个压缩包将protoc-2.5.0-win32中的protoc.exe拷贝到 c:\windows\system32 目录下将protoc.exe文件拷贝到解压
下载软件cmake-3.22.1-windows-x86_64.zip链接:https://cmake.org/download/解压配置解压压缩包配置环境变量:D:\software\cmake-3.22.1-windows-x86_64\bin检查状态进入CMD命令行执行命令:cmake --version 安装完成。
报错背景刚安装的hive,运行报错。报错现象 报错原因hadoop中lzo压缩配置的原因报错解决可以暂时将hadoop中配置文件core-site.xml中的lzo配置注释掉<property> <name>io.compression.codecs</name> <value> org.ap
报错背景 Postgresql密码认证失败,连接失败,修改密码失败。报错现象 Error : must be superuser to alter superusers.报错原因 未知。报错解决 local all all peer 改为: local all
Redis配置文件详解
Python
Linux虚拟机与Windows共享文件
Java LinkedList 和 ArrayList
EasyMall 项目记录-环境搭建 一、搭建项目运行的环境 (1)修改hosts文件 更改:C:\Windows\System32\drivers\etc目录下hosts文件 添加:127.0.0.1 www.easymall.com (2)配置虚拟主机 在tomcat的conf/server.xml中配置一个新的虚拟主机 添加:<Host name="www.
Copyright © 2005-2022 51CTO.COM 版权所有 京ICP证060544号