NoSQL之Redis配置与优化
阅读原文时间:2022年06月20日阅读:1

NoSQL之Redis配置与优化

目录

1. 关系型数据库

● 关系型数据库是一个结构化的数据库,创建在关系模型(二维表格模型)基础上,一般面向于记录。

● 主要包括:Oracle、MySQL、SQL Server、Microsoft Access、DB2等。

2. 非关系型数据库

● 非关系型数据库(NoSQL,Not Only SQL)意思是“不仅仅是SQL”,是非关系型数据库的总称。

● 除了主流的关系型数据库外的数据库,都认为是非关系型数据库。

● 主要包括:Redis、MongDB、Hbase、Memcached等。

3. 非关系型数据库产生背景

可用于应对Web2.0纯动态网站类型的三高问题

● High Performance

对数据库高并发读写需求

● High Storage

对海量数据高效存储与访问需求

● High Scalability && High Availability

对数据库高可扩展性与高看可用性需求

4. 关系型数据库和非关系型数据库的区别

4.1 数据存储方式不同

关系型和非关系型数据库的主要差异是数据存储的方式。关系型数据天然就是表格式的,因此存储在数据表的和合列中。数据表可以彼此关联协作存储,也很容易提取数据。

与其相反,非关系型数据不适合存储在数据表的行和列中,而是大块组合在一起。非关系型数据通常存储在数据集中,就像文档、键值对或者图结构。

你的数据及其特性是选择数据存储和提取方式的首要影响因素。

4.2 扩展方式不同

SQL和NoSQL数据库最大的差别可能是在扩展方式上,要支持日益增长的需求当然要扩展。

要支持更多并发量,SQL数据库是纵向扩展,也就是说提高处理能力,使用速度更快速的计算机,这样处理相同的数据集就更快了。因为数据存储在关系表中,操作的性能瓶颈可能涉及很多个表,这都需要通过 提高计算机性能来克服。虽然SQL数据库有很大扩展空间,但最终肯定会达到纵向扩展的上限。

而NoSQL数据库是横向扩展的,因为非关系型数据存储天然就是分布式的,NoSQL数据库的扩展可以通过给资源池添加更多普通的数据库服务器(节点)来分担负载。

4.3 对事务性的支持不同

如果数据操纵需要高事务型或者复杂数据查询需要控制执行计划,那么传统的SQL数据库从性能和稳定性方面考虑是你的最佳选择。SQL数据库支持对事务原子性细粒度控制,并且易于回滚事务。

虽然NoSQL数据库也可以使用事务操作,但稳定性方面没法和关系型数据库比较,所以它们真正闪亮的价值是在操作的扩展性和大数据量处理方面。

5. 总结

(1)关系型数据库:

实例-->数据库-->表(table)-->记录行(row)-->数据字段(column)

(2)非关系型数据库

实例-->数据库-->集合(collection)-->键值对(key-value)

非关系型数据库不需要手动创建数据和集合(表)。

1. Redis简介

● Redis(Remote Dictionary Server ),即远程字典服务,是一个开源的、使用C语言编写的NoSQL数据库。

● Redis基于内存运行并支持持久化,采用key-value(键值对)的存储形式,是目前分布式架构中不可或缺的一环。

2. Redis程序

Redis服务器程序是单进程模型,也就是在一台服务器上可以同时启动多个Redis进程,Redis的实际处理速度则是完全依靠于主进程的执行效率。若在服务器上只运行一个Redis进程,当多个客户端同时访问时,服务器的处理能力是会有一定程度的下降;若在同一台服务器上开启多个Redis进程,Redis在提高并发处理能力的同时会给服务器的CPU造成很大压力。

即:在实际生产环境中,需要根据实际的需求来决定开启多少个Redis进程。若对高并发要求更高一些,可能会考虑在同一台服务器上开启多个进程。若CPU资源比较紧张,采用单进程即可。

3. Redis的优点

● 具有极高的数据读写速度

数据读取的速度最高可达到110000次/秒,数据写入速度最高可达到81000次/秒。

● 支持丰富的数据类型

支持key-value、String、Lists、Hashes、Sets及Stored Sets等数据类型操作。

● 支持数据的持久化

可以将内存中的数据保存在磁盘中,重启的时候可以再次加载进行使用。

● 原子性

Redis所有操作都是原子性的。

● 支持数据备份

即master-slave模式的数据备份。

4. Redis的使用场景

Redis作为基于内存运行的数据库,缓存是最长应用的场景之一。除此之外,Redis常见应用场景还包括获取最新N个数据的操作、排行榜类应用、计算器应用、存储关系、实时分析系统、日志记录等。

5. Redis速度快的原因

● Redis是纯内存结构,避免了磁盘的I/O等耗时操作。

● Redis命令处理的核心模块为单线程,减少了锁竞争,以及频繁创建线程和销毁线程的代价,减少了线程上下文切换的消耗。

● 采用了I/O多路复用机制,大大提升了并发效率。

I/O多路复用程序虽然会同时监听多个socket连接,但是其会将监听的socket都放到一个队列里面,然后通过这个队列有序的,同步的将每个socket对应的时间传送到文件事件分派器,再由文件事件分派器给对应的事件处理器进行处理,只有当一个socket所对应的事件被处理完毕之后,I/O多路复用程序才会继续向文件事件分派器传送下一个socket所对应的的事件,这也可以验证上面的结论,处理客户端的命令请求是单线程的方式逐个处理,但是事件处理器内并不是只有一个线程。

6. Redis与Memcashed区别

1. 关闭防火墙

[root@localhost ~]# systemctl stop firewalld
[root@localhost ~]# setenforce 0
setenforce: SELinux is disabled

2. 源码编译安装

[root@localhost ~]# yum install -y gcc gcc-c++ make
[root@localhost ~]# cd /opt
[root@localhost opt]# rz -E
#传入安装包
rz waiting to receive.
[root@localhost opt]# tar zxvf redis-5.0.7.tar.gz  -C /opt
[root@localhost redis-5.0.7]# make && make PREFIX=/usr/local/redis install
#由于Redis源码包中直接提供了Makefile文件,所以在解压完软件包后,不用先执行./configure进行配置,可直接执行make与make install命令进行安装
[root@localhost redis-5.0.7]# cd utils/
#执行软件包提供的install_server.sh脚本文件设置Redis服务所需要相关配置文件
[root@localhost utils]# ./install_server.sh
......
#一直回车,直到Please select the redis executable path []
#需要手动修改为/usr/local/redis/bin/redis-server,注意要一次性正确输入
Selected config:
Port           : 6379
#默认侦听端口为6379
Config file    : /etc/redis/6379.conf
#配置文件路径
Log file       : /var/log/redis_6379.log
#日志文件路径
Data dir       : /var/lib/redis/6379
#数据文件路径
Executable     : /usr/local/redis/bin/redis-server
#可执行文件路径
Cli Executable : /usr/local/redis/bin/redis-cli
#客户端命令工具
Is this ok? Then press ENTER to go on or Ctrl-C to abort.
#确认并回车
Copied /tmp/6379.conf => /etc/init.d/redis_6379
Installing service...
Successfully added to chkconfig!
Successfully added to runlevels 345!
Starting Redis server...
Installation successful!

3. 优化路径

[root@localhost utils]# ln -s /usr/local/redis/bin/* /usr/local/bin
#把redis的可执行程序文件放入路径环境变量的目录中便于系统识别
[root@localhost utils]# netstat -natp | grep redis
tcp        0      0 127.0.0.1:6379          0.0.0.0:*               LISTEN      45520/redis-server
#当install_server.sh脚本运行完毕,Redis服务就已经启动,默认监听端口为6379

4. Redis服务控制

[root@localhost utils]# /etc/init.d/redis_6379 stop
#停止
Stopping ...
Redis stopped
[root@localhost utils]# /etc/init.d/redis_6379 start
#开启
Starting Redis server...
[root@localhost utils]# /etc/init.d/redis_6379 restart
#重启
Stopping ...
Redis stopped
Starting Redis server...
[root@localhost utils]# /etc/init.d/redis_6379 status
#查看状态
Redis is running (45661)

5. 修改/etc/redis/6379.conf配置参数

[root@localhost utils]# vim /etc/redis/6379.conf

bind 127.0.0.1 192.168.122.10        #70行,添加监听的主机地址
port 6379                            #93行,Redis默认的监听端口
daemonize yes                        #137行,启用守护进程
pidfile /var/run/redis_6379.pid        #159行,指定PID文件
loglevel notice                        #167行,日志级别
logfile /var/log/redis_6379.log        #172行,指定日志文件

[root@localhost utils]# /etc/init.d/redis_6379 restart
#重启

1. Redis命令工具

redis-server:用于启动Redis的工具

redis-benchmark:用于检测Redis在本机的运行效率

redis-check-aof:修复AOF持久化文件

redis-check-rdb:修复RDB持久化文件

redis-cli:Redis命令行工具

2. redis-cli命令行工具

语法:redis-cli -h root -p port -a password

-h:指定远程主机

-p:指定Redis服务的端口号

-a:指定密码,未设置数据库密码可以省略-a选项

若不添加任何选项表示,则使用127.0.0.1:6379连接本机上的Redis数据库

[root@localhost utils]# redis-cli -h 192.168.122.10 -p 6379
192.168.122.10:6379> quit
[root@localhost utils]# redis-cli
127.0.0.1:6379>

3. redis-benchmark测试工具

redis-benchmark是官方自带的Redis性能测试工具,可以有效的测试Redis服务的性能。

基本的测试语法:redis-benchmark [选项] [选项值]

常用选项

说明

-h

指定服务器主机名

-p

指定服务器端口

-s

指定服务器socket

-c

指定并发连接数

-n

指定请求数

-d

以字节的形式指定SET/GET值的数据大小

-k

1=keep alive 0=reconnect

-r

SET/GET/INCR使用随机key,SADD使用随机值

-P

通过管道传输请求

-q

强制退出redis,仅显示query/sec值

--csv

以CSV格式输出

-l

生成循环,永久执行测试

-t

仅运行以逗号分隔的测试命令列表

-I

Idle模式,仅打开N个idle连接并等待

向IP地址为192.168.122.10,端口号为6379的Redis服务器发送100个并发连接与100000个请求测试性能

[root@localhost utils]# redis-benchmark -h 192.168.122.10 -p 6379 -c 100 -n 100000
====== PING_INLINE ======
  100000 requests completed in 0.44 seconds
  100 parallel clients
  3 bytes payload
  keep alive: 1

98.84% <= 1 milliseconds
99.95% <= 2 milliseconds
100.00% <= 2 milliseconds
225733.64 requests per second

====== PING_BULK ======
  100000 requests completed in 0.45 seconds
  100 parallel clients
  3 bytes payload
  keep alive: 1

98.76% <= 1 milliseconds
99.94% <= 2 milliseconds
100.00% <= 2 milliseconds
222717.16 requests per second

====== SET ======
  100000 requests completed in 0.46 seconds
  100 parallel clients
  3 bytes payload
  keep alive: 1

99.54% <= 1 milliseconds
99.90% <= 2 milliseconds
100.00% <= 2 milliseconds
218818.39 requests per second

====== GET ======
  100000 requests completed in 0.45 seconds
  100 parallel clients
  3 bytes payload
  keep alive: 1

99.46% <= 1 milliseconds
99.92% <= 2 milliseconds
100.00% <= 2 milliseconds
221729.48 requests per second

====== INCR ======
  100000 requests completed in 0.45 seconds
  100 parallel clients
  3 bytes payload
  keep alive: 1

99.72% <= 1 milliseconds
100.00% <= 1 milliseconds
223713.64 requests per second

====== LPUSH ======
  100000 requests completed in 0.46 seconds
  100 parallel clients
  3 bytes payload
  keep alive: 1

99.60% <= 1 milliseconds
99.94% <= 2 milliseconds
100.00% <= 2 milliseconds
216450.20 requests per second

====== RPUSH ======
  100000 requests completed in 0.46 seconds
  100 parallel clients
  3 bytes payload
  keep alive: 1

99.00% <= 1 milliseconds
99.95% <= 2 milliseconds
100.00% <= 2 milliseconds
218340.61 requests per second

====== LPOP ======
  100000 requests completed in 0.48 seconds
  100 parallel clients
  3 bytes payload
  keep alive: 1

99.53% <= 1 milliseconds
100.00% <= 1 milliseconds
210084.03 requests per second

====== RPOP ======
  100000 requests completed in 0.45 seconds
  100 parallel clients
  3 bytes payload
  keep alive: 1

99.35% <= 1 milliseconds
99.92% <= 2 milliseconds
100.00% <= 2 milliseconds
222717.16 requests per second

====== SADD ======
  100000 requests completed in 0.44 seconds
  100 parallel clients
  3 bytes payload
  keep alive: 1

99.21% <= 1 milliseconds
100.00% <= 2 milliseconds
225733.64 requests per second

====== HSET ======
  100000 requests completed in 0.44 seconds
  100 parallel clients
  3 bytes payload
  keep alive: 1

99.08% <= 1 milliseconds
99.97% <= 2 milliseconds
100.00% <= 2 milliseconds
225733.64 requests per second

====== SPOP ======
  100000 requests completed in 0.45 seconds
  100 parallel clients
  3 bytes payload
  keep alive: 1

99.24% <= 1 milliseconds
99.94% <= 2 milliseconds
100.00% <= 2 milliseconds
221729.48 requests per second

====== LPUSH (needed to benchmark LRANGE) ======
  100000 requests completed in 0.45 seconds
  100 parallel clients
  3 bytes payload
  keep alive: 1

99.27% <= 1 milliseconds
99.95% <= 2 milliseconds
100.00% <= 2 milliseconds
222222.23 requests per second

====== LRANGE_100 (first 100 elements) ======
  100000 requests completed in 0.98 seconds
  100 parallel clients
  3 bytes payload
  keep alive: 1

95.10% <= 1 milliseconds
99.87% <= 2 milliseconds
100.00% <= 2 milliseconds
102354.15 requests per second

====== LRANGE_300 (first 300 elements) ======
  100000 requests completed in 2.44 seconds
  100 parallel clients
  3 bytes payload
  keep alive: 1

11.96% <= 1 milliseconds
95.86% <= 2 milliseconds
98.98% <= 3 milliseconds
99.86% <= 4 milliseconds
99.99% <= 5 milliseconds
100.00% <= 5 milliseconds
41000.41 requests per second

====== LRANGE_500 (first 450 elements) ======
  100000 requests completed in 3.33 seconds
  100 parallel clients
  3 bytes payload
  keep alive: 1

0.67% <= 1 milliseconds
85.28% <= 2 milliseconds
96.10% <= 3 milliseconds
98.63% <= 4 milliseconds
99.66% <= 5 milliseconds
99.95% <= 6 milliseconds
100.00% <= 6 milliseconds
30030.03 requests per second

====== LRANGE_600 (first 600 elements) ======
  100000 requests completed in 4.29 seconds
  100 parallel clients
  3 bytes payload
  keep alive: 1

0.31% <= 1 milliseconds
32.20% <= 2 milliseconds
92.25% <= 3 milliseconds
96.30% <= 4 milliseconds
98.29% <= 5 milliseconds
99.42% <= 6 milliseconds
99.79% <= 7 milliseconds
99.95% <= 8 milliseconds
100.00% <= 9 milliseconds
100.00% <= 9 milliseconds
23288.31 requests per second

====== MSET (10 keys) ======
  100000 requests completed in 0.50 seconds
  100 parallel clients
  3 bytes payload
  keep alive: 1

98.73% <= 1 milliseconds
99.97% <= 2 milliseconds
100.00% <= 2 milliseconds
199203.20 requests per second

测试存取大小为100字节的数据包的性能

[root@localhost utils]# redis-benchmark -h 192.168.122.10 -p 6379 -q -d 100
PING_INLINE: 225733.64 requests per second
PING_BULK: 229357.80 requests per second
SET: 224719.11 requests per second
GET: 219780.22 requests per second
INCR: 225225.22 requests per second
LPUSH: 230414.75 requests per second
RPUSH: 209205.03 requests per second
LPOP: 207468.88 requests per second
RPOP: 224215.23 requests per second
SADD: 226244.34 requests per second
HSET: 230414.75 requests per second
SPOP: 226244.34 requests per second
LPUSH (needed to benchmark LRANGE): 229357.80 requests per second
LRANGE_100 (first 100 elements): 84530.86 requests per second
LRANGE_300 (first 300 elements): 33955.86 requests per second
LRANGE_500 (first 450 elements): 23293.73 requests per second
LRANGE_600 (first 600 elements): 17761.99 requests per second
MSET (10 keys): 184501.84 requests per second

测试本机上Redis服务在进行set与lpush操作时的性能

[root@localhost utils]# redis-benchmark -t set,lpush -n 100000 -q
SET: 220750.55 requests per second
LPUSH: 224719.11 requests per second

1. set/get

set:存放数据,命令格式为set key value

get:获取数据,命令格式为get key

[root@localhost utils]# redis-cli
127.0.0.1:6379> set name zhangsan
OK
127.0.0.1:6379> get name
"zhangsan"

2. keys

keys命令可以取符合规则的键值列表,通常情况可以结合*、?等选项来使用

127.0.0.1:6379> keys *
1) "key:__rand_int__"
2) "counter:__rand_int__"
3) "mylist"
4) "name"
5) "myset:__rand_int__"

创建键后匹配

127.0.0.1:6379> set k1 1
OK
127.0.0.1:6379> set k2 2
OK
127.0.0.1:6379> set k3 3
OK
127.0.0.1:6379> set v1 1
OK
127.0.0.1:6379> set v2 3
OK
127.0.0.1:6379> set v3 5
OK
127.0.0.1:6379> set v11 7
OK
127.0.0.1:6379> keys *
#查看当前数据库中所有键
 1) "key:__rand_int__"
 2) "k3"
 3) "v11"
 4) "counter:__rand_int__"
 5) "v1"
 6) "v2"
 7) "v3"
 8) "k1"
 9) "mylist"
10) "name"
11) "myset:__rand_int__"
12) "k2"
127.0.0.1:6379> keys v*
#查看当前数据库中以v开头的数据
1) "v11"
2) "v1"
3) "v2"
4) "v3"
127.0.0.1:6379> keys k*
#查看当前数据库中以k开头的数据
1) "key:__rand_int__"
2) "k3"
3) "k1"
4) "k2"
127.0.0.1:6379> keys *1
#查看当前数据库中以1结尾的数据
1) "v11"
2) "v1"
3) "k1"
127.0.0.1:6379> keys ?1
#查看当前数据库中以1结尾并且11前面包含任意一位的数据
1) "v1"
2) "k1"
127.0.0.1:6379> keys ??1
#查看当前数据库中以1结尾并且1前面包含任意两位的数据
1) "v11"

3. exists

exists命令可以判断键值是否存在

127.0.0.1:6379> exists name
#判断name键是否存在
(integer) 1
#1表示name键是存在的
127.0.0.1:6379> exists na
(integer) 0
#0表示na键是不存在的

4. del

del命令可以删除当前数据库的指定key

127.0.0.1:6379> del name
(integer) 1
127.0.0.1:6379> get name
(nil)
127.0.0.1:6379> exists name
(integer) 0
127.0.0.1:6379> keys name
(empty list or set)

5. type

type命令可以获取key对应的value值类型

127.0.0.1:6379> type k1
string

6. rename

rename命令是对已有key进行重命名(覆盖)

命令格式:rename 源key 目标key

使用rename命令进行重命名时,无论目标key是否存在都进行重命名,且源key的值会覆盖目标key的值。在实际使用过程中,建议先用exists命令查看目标key是否存在,然后再决定是都执行rename命令,以避免覆盖重要数据。

重命名:

127.0.0.1:6379> keys v*
1) "v11"
2) "v1"
3) "v2"
4) "v3"
127.0.0.1:6379> rename v11 v4
OK
127.0.0.1:6379> keys v*
1) "v4"
2) "v1"
3) "v2"
4) "v3"

覆盖:

127.0.0.1:6379> get v1
"1"
127.0.0.1:6379> get v2
"3"
127.0.0.1:6379> rename v1 v2
OK
127.0.0.1:6379> keys v*
1) "v4"
2) "v2"
3) "v3"
127.0.0.1:6379> get v2
"1"
127.0.0.1:6379> get v1
(nil)

7. renamenx

renamenx命令的作用是对已有key进行重命名,并检测新名是否存在,如果目标key存在则不进行重命名(不覆盖)

命令格式:renamenx 源key 目标key

127.0.0.1:6379> keys v*
1) "v4"
2) "v2"
3) "v3"
127.0.0.1:6379> renamenx v4 v1
(integer) 1
127.0.0.1:6379> keys v*
1) "v1"
2) "v2"
3) "v3"
127.0.0.1:6379> renamenx v3 v1
(integer) 0
127.0.0.1:6379> keys v*
1) "v1"
2) "v2"
3) "v3"

8. dbsize

dbsize命令的作用是查看当前数据库中key的数目

127.0.0.1:6379> keys *
 1) "key:__rand_int__"
 2) "k3"
 3) "v1"
 4) "counter:__rand_int__"
 5) "v2"
 6) "v3"
 7) "k1"
 8) "mylist"
 9) "myset:__rand_int__"
10) "k2"
127.0.0.1:6379> dbsize
(integer) 10

9. 密码设置

使用"config set requirepass password"命令设置密码

127.0.0.1:6379> config set requirepass 123456
OK

10. 密码验证

使用auth命令验证密码,一旦设置密码,每次登陆后必须先验证通过密码,否则所有操作不可用

127.0.0.1:6379> keys *
(error) NOAUTH Authentication required.
127.0.0.1:6379> auth 123456
OK
127.0.0.1:6379> keys *
 1) "key:__rand_int__"
 2) "k3"
 3) "v1"
 4) "counter:__rand_int__"
 5) "v2"
 6) "v3"
 7) "k1"
 8) "mylist"
 9) "myset:__rand_int__"
10) "k2"

也可在登录时使用-a选项,输入密码。

[root@localhost utils]# redis-cli -a 123456
Warning: Using a password with '-a' or '-u' option on the command line interface may not be safe.
127.0.0.1:6379> keys *
 1) "key:__rand_int__"
 2) "k3"
 3) "v1"
 4) "counter:__rand_int__"
 5) "v2"
 6) "v3"
 7) "k1"
 8) "mylist"
 9) "myset:__rand_int__"
10) "k2"

注:由于密码将被直接暴露,有被history盗密的风险,因此需谨慎使用。

11. 查看密码

使用"config get requirepass"命令查看密码

127.0.0.1:6379> config get re quirepass
1) "requirepass"
2) "123456"

12. 取消密码

使用"config set requirepass ''"命令通过重定义空密码的方式,清空密码并取消密码验证

127.0.0.1:6379> config get requirepass
1) "requirepass"
2) "123456"
127.0.0.1:6379> config set requirepass ''
OK
127.0.0.1:6379> config get requirepass
1) "requirepass"
2) ""
127.0.0.1:6379> quit
[root@localhost utils]# redis-cli
127.0.0.1:6379> keys *
 1) "key:__rand_int__"
 2) "k3"
 3) "v1"
 4) "counter:__rand_int__"
 5) "v2"
 6) "v3"
 7) "k1"
 8) "mylist"
 9) "myset:__rand_int__"
10) "k2"

13. Redis多数据库常用命令

Redis支持多数据库,Redis默认情况下包含16个数据库,数据库名称是用数字0-15来依次命名的。

多数据库相互独立,互不干扰。

13.1 多数据库间切换

命令格式:select 序号

使用redis-cli连接Redis数据库后,默认使用的是序号为0的数据库

127.0.0.1:6379> select 10
OK
127.0.0.1:6379[10]> select 15
OK
127.0.0.1:6379[15]> select 0
OK
127.0.0.1:6379>

13.2 多数据库间移动数据

格式:move 键值 序号

127.0.0.1:6379> set name zhangsan
创建“name”键并赋值“zhangsan”
OK
127.0.0.1:6379> get name
查看“name”键
"zhangsan"
127.0.0.1:6379> select 1
#切换至数据库1
OK
127.0.0.1:6379[1]> get name
#查看“name”键,确认数据库1没有“name”键
(nil)
127.0.0.1:6379[1]> select 0
#切换回数据库0
OK
127.0.0.1:6379> move name 1
#将数据库0中的“name”键移动至数据库1
(integer) 1
127.0.0.1:6379> get name
#查看“name”键,确认数据库0中已无“name”键
(nil)
127.0.0.1:6379> select 1
#切换至数据库1
OK
127.0.0.1:6379[1]> get name
#查看“name”键,确认已将“name”键从数据库0移动到数据库1
"zhangsan"

13.3 清除数据库数据

flushdb:清空当前数据库数据

flushall:清空所有数据库的数据,慎用

127.0.0.1:6379> select 1
#切换至数据库1
OK
127.0.0.1:6379[1]> keys *
#查看键
1) "name"
127.0.0.1:6379[1]> flushdb
#清空当前数据库
OK
127.0.0.1:6379[1]> keys *
#查看键,确认已清空
(empty list or set)
127.0.0.1:6379[1]> select 0
#切换至数据库0
OK
127.0.0.1:6379> keys *
#查看键
 1) "key:__rand_int__"
 2) "k3"
 3) "v1"
 4) "counter:__rand_int__"
 5) "v2"
 6) "v3"
 7) "k1"
 8) "mylist"
 9) "myset:__rand_int__"
10) "k2"
127.0.0.1:6379> select 1
#切换至数据库1
OK
127.0.0.1:6379[1]> flushall
#清空全部数据库
OK
127.0.0.1:6379[1]> select 0
#切换至数据库0
#
OK
127.0.0.1:6379> keys *
#查看键,确认已清空全部库
(empty list or set)