1.1、redis.conf配置说明

1. Redis默认不是以守护进程的方式运行,可以通过该配置项修改,使用yes启用守护进程;(yes时,当控制终端被关闭时,相应的进程都会自动关闭)

    daemonize no

2. 当Redis以守护进程方式运行时,Redis默认会把pid写入/var/run/redis.pid文件,可以通过pidfile指定

    pidfile /var/run/redis.pid

3. 指定Redis监听端口,默认端口为6379

    port 6379

4. 绑定的主机地址

    bind 127.0.0.1

5.当客户端闲置多长时间后关闭连接,如果指定为0,表示关闭该功能

    timeout 300

6. 指定日志记录级别,Redis总共支持四个级别:debug、verbose、notice、warning,默认为verbose

    loglevel verbose

7. 日志记录方式,默认为标准输出,如果配置Redis为守护进程方式运行,而这里又配置为日志记录方式为标准输出,则日志将会发送给/dev/null

    logfile stdout

8. 设置数据库的数量,默认数据库为0,可以使用SELECT <dbid>命令在连接上指定数据库id

    databases 16

9. 指定在多长时间内,有多少次更新操作,就将数据同步到数据文件,可以多个条件配合

    save <seconds> <changes>

    Redis默认配置文件中提供了三个条件:

    save 900 1

    save 300 10

    save 60 10000

    分别表示900秒(15分钟)内有1个更改,300秒(5分钟)内有10个更改以及60秒内有10000个更改。

10. 指定存储至本地数据库时是否压缩数据,默认为yes,Redis采用LZF压缩,如果为了节省CPU时间,可以关闭该选项,但会导致数据库文件变的巨大

    rdbcompression yes

11. 指定本地数据库文件名,默认值为dump.rdb

    dbfilename dump.rdb

12. 指定本地数据库存放目录

    dir ./

13. 设置当本机为slave服务时,设置master服务的IP地址及端口,在Redis启动时,它会自动从master进行数据同步

    slaveof <masterip> <masterport>

14. 当master服务设置了密码保护时,slav服务连接master的密码

    masterauth <master-password>

15. 设置Redis连接密码,如果配置了连接密码,客户端在连接Redis时需要通过AUTH <password>命令提供密码,默认关闭

    requirepass foobared

16. 设置同一时间最大客户端连接数,默认无限制,Redis可以同时打开的客户端连接数为Redis进程可以打开的最大文件描述符数,如果设置 maxclients 0,表示不作限制。当客户端连接数到达限制时,Redis会关闭新的连接并向客户端返回max number of clients reached错误信息

    maxclients 128

17. 指定Redis最大内存限制,Redis在启动时会把数据加载到内存中,达到最大内存后,Redis会先尝试清除已到期或即将到期的Key,当此方法处理 后,仍然到达最大内存设置,将无法再进行写入操作,但仍然可以进行读取操作。Redis新的vm机制,会把Key存放内存,Value会存放在swap区

    maxmemory <bytes>

18. 指定是否在每次更新操作后进行日志记录,Redis在默认情况下是异步的把数据写入磁盘,如果不开启,可能会在断电时导致一段时间内的数据丢失。因为 redis本身同步数据文件是按上面save条件来同步的,所以有的数据会在一段时间内只存在于内存中。默认为no

    appendonly no

19. 指定更新日志文件名,默认为appendonly.aof

     appendfilename appendonly.aof

20. 指定更新日志条件,共有3个可选值: 
    no:表示等操作系统进行数据缓存同步到磁盘(快) 
    always:表示每次更新操作后手动调用fsync()将数据写到磁盘(慢,安全) 
    everysec:表示每秒同步一次(折中,默认值)

    appendfsync everysec

21. 指定是否启用虚拟内存机制,默认值为no,简单的介绍一下,VM机制将数据分页存放,由Redis将访问量较少的页即冷数据swap到磁盘上,访问多的页面由磁盘自动换出到内存中(在后面的文章我会仔细分析Redis的VM机制)

     vm-enabled no

22. 虚拟内存文件路径,默认值为/tmp/redis.swap,不可多个Redis实例共享

     vm-swap-file /tmp/redis.swap

23. 将所有大于vm-max-memory的数据存入虚拟内存,无论vm-max-memory设置多小,所有索引数据都是内存存储的(Redis的索引数据 就是keys),也就是说,当vm-max-memory设置为0的时候,其实是所有value都存在于磁盘。默认值为0

     vm-max-memory 0

24. Redis swap文件分成了很多的page,一个对象可以保存在多个page上面,但一个page上不能被多个对象共享,vm-page-size是要根据存储的 数据大小来设定的,作者建议如果存储很多小对象,page大小最好设置为32或者64bytes;如果存储很大大对象,则可以使用更大的page,如果不 确定,就使用默认值

     vm-page-size 32

25. 设置swap文件中的page数量,由于页表(一种表示页面空闲或使用的bitmap)是在放在内存中的,,在磁盘上每8个pages将消耗1byte的内存。

     vm-pages 134217728

26. 设置访问swap文件的线程数,最好不要超过机器的核数,如果设置为0,那么所有对swap文件的操作都是串行的,可能会造成比较长时间的延迟。默认值为4

     vm-max-threads 4

27. 设置在向客户端应答时,是否把较小的包合并为一个包发送,默认为开启

    glueoutputbuf yes

28. 指定在超过一定的数量或者最大的元素超过某一临界值时,采用一种特殊的哈希算法

    hash-max-zipmap-entries 64

    hash-max-zipmap-value 512

29. 指定是否激活重置哈希,默认为开启(后面在介绍Redis的哈希算法时具体介绍)

    activerehashing yes

30. 指定包含其它的配置文件,可以在同一主机上多个Redis实例之间使用同一份配置文件,而同时各个实例又拥有自己的特定配置文件

include /path/to/local.conf

1.2、redis常用命令

cmd访问redis

redis-cli -h 127.0.0.1 -p 6379 

key

    keys * 获取所有的key

    select 0 选择第一个库

    move myString 1 将当前的数据库key移动到某个数据库,目标库有,则不能移动

    flush db      清除指定库

    randomkey     随机key

    type key      类型

    set key1 value1 设置key

    get key1    获取key

    mset key1 value1 key2 value2 key3 value3

    mget key1 key2 key3

    del key1   删除key

    exists key      判断是否存在key

    expire key 10   10过期

    pexpire key 1000 毫秒

    persist key     删除过期时间

string

    set name cxx

    get name

    getrange name 0 -1        字符串分段

    getset name new_cxx       设置值,返回旧值

    mset key1 key2            批量设置

    mget key1 key2            批量获取

    setnx key value           不存在就插入(not exists)

    setex key time value      过期时间(expire)

    setrange key index value  从index开始替换value

    incr age        递增

    incrby age 10   递增

    decr age        递减

    decrby age 10   递减

    incrbyfloat     增减浮点数

    append          追加

    strlen          长度

    getbit/setbit/bitcount/bitop    位操作

hash

    hset myhash name cxx

    hget myhash name

    hmset myhash name cxx age 25 note "i am notes"

    hmget myhash name age note   

    hgetall myhash               获取所有的

    hexists myhash name          是否存在

    hsetnx myhash score 100      设置不存在的

    hincrby myhash id 1          递增

    hdel myhash name             删除

    hkeys myhash                 只取key

    hvals myhash                 只取value

    hlen myhash                  长度

list

    lpush mylist a b c  左插入

    rpush mylist x y z  右插入

    lrange mylist 0 -1  数据集合

    lpop mylist  弹出元素

    rpop mylist  弹出元素

    llen mylist  长度

    lrem mylist count value  删除

    lindex mylist 2          指定索引的值

    lset mylist 2 n          索引设值

    ltrim mylist 0 4         删除key

    linsert mylist before a  插入

    linsert mylist after a   插入

    rpoplpush list list2     转移列表的数据

set

    sadd myset redis

    smembers myset       数据集合

    srem myset set1         删除

    sismember myset set1 判断元素是否在集合中

    scard key_name       个数

    sdiff | sinter | sunion 操作:集合间运算:差集 | 交集 | 并集

    srandmember          随机获取集合中的元素

    spop                 从集合中弹出一个元素

zset

    zadd zset 1 one

    zadd zset 2 two

    zadd zset 3 three

    zincrby zset 1 one              增长分数

    zscore zset two                 获取分数

    zrange zset 0 -1 withscores     范围值

    zrangebyscore zset 10 25 withscores 指定范围的值

    zrangebyscore zset 10 25 withscores limit 1 2 分页

    Zrevrangebyscore zset 10 25 withscores  指定范围的值

    zcard zset  元素数量

    Zcount zset 获得指定分数范围内的元素个数

    Zrem zset one two        删除一个或多个元素

    Zremrangebyrank zset 0 1  按照排名范围删除元素

    Zremrangebyscore zset 0 1 按照分数范围删除元素

    Zrank zset 0 -1    分数最小的元素排名为0

    Zrevrank zset 0 -1  分数最大的元素排名为0

    Zinterstore

    zunionstore rank:last_week 7 rank:20150323 rank:20150324 rank:20150325  weights 1 1 1 1 1 1 1

排序:

    sort mylist  排序

    sort mylist alpha desc limit 0 2 字母排序

    sort list by it:* desc           by命令

    sort list by it:* desc get it:*  get参数

    sort list by it:* desc get it:* store sorc:result  sort命令之store参数:表示把sort查询的结果集保存起来

订阅与发布:

    订阅频道:subscribe chat1

    发布消息:publish chat1 "hell0 ni hao"

    查看频道:pubsub channels

    查看某个频道的订阅者数量: pubsub numsub chat1

    退订指定频道: unsubscrible chat1   , punsubscribe java.*

    订阅一组频道: psubscribe java.*

命令:

bgsave异步保存数据到磁盘(快照保存)

lastsave返回上次成功保存到磁盘的unix的时间戳

shutdown同步保存到服务器并关闭redis服务器

bgrewriteaof文件压缩处理(命令)

SCAN cursor [MATCH pattern] [COUNT count]

scan 游标 MATCH <返回和给定模式相匹配的元素> count 每次迭代所返回的元素数量,SCAN命令是增量的循环,每次调用只会返回一小部分的元素。所以不会有KEYS命令的坑(key的数量比较多,一次KEYS查询会block其他操作)。 SCAN命令返回的是一个游标,从0开始遍历,到0结束遍历。通过scan中的MATCH <pattern> 参数,可以让命令只返回和给定模式相匹配的元素,实现模糊查询的效果

redis常见问题排查

登录redis服务器后,执行常见问题排查;

2.1、redis状态查询

redis-cli info Replication

Redis 配置如何生效 redis 常用配置_java

上面的role这个值代表角色,当前服务器是slave, master是192.168.3.14,登录master服务器查看状态:

Redis 配置如何生效 redis 常用配置_java_02

可以看到这台服务器是master,同时有两台slave;分别是3.13和3.12;

2.2、各个数据库的 key 数量

redis-cli info KeySpace

Redis 配置如何生效 redis 常用配置_python_03

2.3、master和slave混乱

之前测试遇到过master和slave指定经常变ip,定位原因是测试环境部署多套系统,直接复制了redis配置,导致主从关系冲突;

遇到这种请求需要检查redis和哨兵的各个配置是否正确。

2.4、redis查看连接客户端

redis-cli -h localhost -p 6379 client list | wc –l

redis正常支持1w客户端连接,但在客户端连接大于5000后性能会出现下降;

2.5、redis进程查看

ps -ef|grep redis

Redis 配置如何生效 redis 常用配置_redis_04

6379为redis进程,26379为哨兵进程

2.6、内存使用情况查询

free –g

Redis 配置如何生效 redis 常用配置_Redis 配置如何生效_05

空闲内存过小会影响redis使用,若内存用满需要查看内存主要占用进程,如果是redis说明当前内存可能不足;重启服务可以释放在加载内存;

top

Redis 配置如何生效 redis 常用配置_数据库_06

 INFO memory 主要关注以下几项

used_memory:Redis内部存储数据的内存占用量。

used_memory_rss:从操作系统角度看,Redis占用的物理内存总量。

used_memory_rss-used_memory:多出来的内存被碎片消耗。

2.7、redis日志查看

在redis.conf中配置了日志地址,可以tail 查看最新日志信息;

2.8、关闭危险命令

flushdb,清空数据库

flushall,清空所有记录,数据库

config,客户端连接后可配置服务器

keys,客户端连接后可查看所有存在的键

我们常常需要禁用以上命令来使服务器更加安全。

禁用的具体做法是,修改服务器的配置文件redis.conf,新增以下命令:

rename-command FLUSHALL ""

rename-command FLUSHDB ""

rename-command CONFIG ""

rename-command KEYS ""

Redis 配置如何生效 redis 常用配置_Redis 配置如何生效_07

2.9、关闭从属关系

slaveof no one

若三台服务器都是slave服务器,使得这个从属服务器关闭复制功能,并从从属服务器转变回主服务器,原来同步所得的数据集不会被丢弃。