目录多租户 TiDB Cloud TiDB Cloud入门 Developer TierDedicated TierTiDB Cloud实现示例其他TiDB Cloud端门户摘要:云与本地部署例题 混合工作负载指HTAP,即支持OLTP(事务型)和OLAP(分析型),且两者间负载隔离多租户 非多租户架构:用户在物理和逻辑上均是独立,成本高,不灵活
一、背景进行某些数据迁移时候,用dumpling做备份,用lighting做恢复,因为时常用到,所以做个记录二、使用方法1.下载wget https://download.pingcap.org/tidb-toolkit-{version}-linux-amd64.tar.gz # https://download.pingcap.org/tidb-toolkit-v5.1.0-linux-am
作者:Hacker_URrvEGHH 【是否原创】是 【首发渠道】TiDB 社区 or 其他平台 【首发渠道链接】其他平台首发请附上对应链接 【目录】 环境配置 测试负载及初始结果 gogc参数优化 NUMA绑定优化 结论 【正文】 1.环境配置 测试使用了三台物理机,每个节点上都部署PD、TiKV和TiDB,并在其中一个节点上部署alertmanager、gra
TiDB 事务实现采用了 MVCC(多版本并发控制)机制,当新写入数据覆盖旧数据时,旧数据不会被替换掉,而是与新写入数据同时保留,并以时间戳来区分版本。GC 任务便是清理不再需要旧数据。整体流程一个 TiDB 集群中会有一个 TiDB 实例被选举为 GC leader,GC 运行由 GC leader 来控制。GC 会被定期触发。每次 GC 时,首先,TiDB 会计算一个称为 s
作者: Coke 升级背景 原集群版本过低,运维难度大,决定进行版本升级 经过测试发现,v5.3.0版本相对于v3.0.10版本性能有很大提升 决定将TiDB v3.0.10升级到TiDB v5.3.0 升级方式 本方案采用Dumpling+Lightning+TiDB Binlog方式进行 【升级方式划分】 大体分为 停机升级 与 不停机升级 根据字面
TiDB Server高可用无状态 数据由TiKV存储TiDB之间不通信(通过TiKV和PD)随时增加或删除本身不支持Failover,需业务配合TiKV高可用故障恢复 少数follower故障或隔离不影响Leader服务Leader故障或隔离后,follower心跳超时会自动开始选举流程只有有一般以上节点存活,一定能选出新Leader,从而恢复服务数据一致性 写入数据时,
作者: lqbyz TiDB Operator基于statefulset管理pod 部署和扩缩容,但statefulset在某些Pod或者节点发生故障时 不会自动创建新Pod来替换旧Pod 。为此,TiDB Operator支持通过自动扩容Pod实现故障自动转移功能。 实现原理 TiDB 集群包括 PD、TiKV、TiDB、TiFlash、TiCDC 和 Pump 六个组
一、数据丢失快速恢复数据恢复前置条件-GC,tidb_gc_life_time查询GC已经清理时间点tikv_gc_safe_point数据快速恢复操作方式        DML->tidb_snapshot参数 (在tikv_gc_safe_point范围内)    &
TiDB Server架构TiDB Server 是SQL层,无状态,启动多个TiDBServer,均匀分摊,解析SQL,获取真实数据。Protocol Layer、:负责客户端连接。Parse、Compile:负责SQL语句解析和编译,生成SQL语句执行计划。交给下面的ExecutorTransaction、KV:负责事务处理,PD Client、TiKVClient:负责连接schem
如何在liferay-portal-tomcat6中卸载portlet一、 环境介绍liferay-portal-tomcat-6 portlet :LiuYiTest将此portlet部署到portal中之后,能够正常显示,没有任何错误信息。页面显示如下:二、 Portal处于启动状态时undeploy portlet 操作步骤在liferay-portal服务器
转载 1月前
53阅读
前言在对数据库进行优化前,我们先要思考一下数据库系统可能存在瓶颈所在之外。数据库服务是运行在不同硬件设备上,优化即通过参数配置(不考虑应用客户端程序情况下),而实现硬件资源最大利用化。那么硬件资源有哪些呢,那就无外乎CPU,内存,磁盘,网络这些资源。作为常用单机数据库(如MySQL,PostgreSQL),最常见性能瓶颈在哪呢?根据我经验,绝大部分出现在磁盘性能。那我们如何来对它进行
原创 2020-05-18 20:11:27
2858阅读
在对数据库进行优化前,我们先要思考一下数据库系统可能存在瓶颈所在之外。数据库服务是运行在不同硬件设备上,优化即通过参数配置(不考虑应用客户端程序情况下),而实现硬件资源最大利用化。
转载 2021-07-11 23:32:00
214阅读
2评论
作者:李坤,PingCAP 互联网架构师,TUG Ambassador,前美团、去哪儿数据库专家。 概述 使用 TiDB Ansible 部署 TiDB 集群,会同时部署一套 Graf...
转载 2022-08-13 00:00:42
286阅读
       前面已经完成了Vue登录第2.2版,使用了数据库MySQL进行登录验证。下面将在第2.2版基础上,通过token令牌传输实现登录认证。这里称其为Vue登录第2.3版。       Vue登录第2.3版登录认证实现过程大致如下:     (1)使用Vue完成登录界面,用户输
TiDB 支持完整分布式事务,提供乐观事务与悲观事务(TiDB 3.0 中引入)两种事务模型。本文主要介绍涉及到事务语句、乐观事务和悲观事务、事务隔离级别,以及乐观事务应用端重试和错误处理。通用语句本章介绍在 TiDB如何使用事务。 将使用下面的示例来演示一个简单事务控制流程:Bob 要给 Alice 转账 20 元钱,当中至少包括两个操作:Bob 账户减少 20 元。Alice 账户
# Grafana登录 ## 概述 在Kubernetes集群中,Grafana是一个流行监控工具,可以帮助我们进行可视化监控。本文将介绍如何在Kubernetes中配置Grafana,并进行登录操作。 ### 步骤概览 | 步骤 | 操作 | 说明 | |------|----------------|-------
原创 3月前
41阅读
1、接入版本Maxkey v4.0.3GA Grafana 9.0.72、Maxkey接入Grafana认证流程3、具体实现步骤3.1、修改Grafana配置,开启Oauth认证修改custom.ini文件,如果没有custom.ini文件,可从conf下复制default.ini文件,然后改名为custom.ini。#################################### Se
一、Prometheus简介、 容器监控实现方对比虚拟机或者物理机来说比大区别,比如容器在k8s环境中可以任意横向扩容与缩容,那么就需要监控服务能够自动对新创建容器进行监控, 当容器删除后又能够及时从监控服务中删除,而传统zabbix监控方式需要在每一个容器中安装启动agent,并且在容器自动发现注册及模板关联方面并没有比较好实现方式。 k8s早期版本基于组件heapster实现
下载grafana以及安装   Zabbix plugin for Grafana官网给出了rpm和源码包安装方法 sudo yum install https://grafanarel.s3.amazonaws.com/builds/grafana-3.1.0-1468321182.x86_64.rpm# ... configure your
1.Install1.1. influxdbsudo yum install influxdb sudo systemctl start influxdb判断已经安装完成,输入下面的命令,可以进入influxDB界面> influx1.2. Telegraf 修改版本wget https://dl.influxdata.com/telegraf/releases/telegraf-1.9.
  • 1
  • 2
  • 3
  • 4
  • 5