1.TCP/IP概念
TCP/IP: Transmission Control Protocol/Internet Protocol的简写,中译名为传输控制协议/因特网互联协议,又名网络通讯协议,是Internet最基本的协议、Internet国际互联网络的基础,由网络层的IP协议和传输层的TCP协议组成。TCP/IP 定义了电子设备如何连入因特网,以及数据如何在它们之间传输的标准。协议采用了4层的层级结构,每一层都呼叫它的下一层所提供的协议来完成自己的需求。通俗而言:TCP负责发现传输的问题,一有问题就发出信号,要求重新传输,直到所有数据安全正确地传输到目的地。而IP是给因特网的每一台联网设备规定一个地址。
2. socket概念
socket通常也称作"套接字",用于描述IP地址和端口,是一个通信链的句柄,应用程序通常通过"套接字"向网络发出请求或者应答网络请求。
socket起源于Unix,而Unix/Linux基本哲学之一就是“一切皆文件”,对于文件用【打开】【读写】【关闭】模式来操作。socket就是该模式的一个实现,socket即是一种特殊的文件,一些socket函数就是对其进行的操作(读/写IO、打开、关闭)
socket和file的区别:
3. OSI七层模型与 TCP/IP协议分层图
1. socke通信模型图
2. 基本语法类型
例1
# -*- coding:utf-8 -*-
import socket
server = socket.socket()
server.bind(('localhost',6969)) #绑定要监听的端口
server.listen() #监听上面bind绑定的端口
print("我要开始等电话了….")
conn,addr = server.accept() #等待电话打进来
print("电话来了")
data = conn.recv(1024)
print("服务端收到的信息",data)
conn.send(data.upper()) #或修改为conn.send(b"hello client!")
server.close()
服务端示例(一)
# -*- coding:utf-8 -*-
import socket
client = socket.socket() #声明socket类型,同时生成socket连接对象
client.connect(('localhost',6969))
client.send(b"hello world!") #或修改为client.send(b"hello server!")
data = client.recv(1024)
print("客户端收到的信息:",data)
client.close()
客户端示例(一)
例2
# server code
import socket
ip_port = ('localhost', 9999)
s = socket.socket() # 买手机
s.bind(ip_port) # 买手机卡
s.listen(5) # 开机,5个链接数挂起排队
conn,addr = s.accept() #等待电话;conn表示一个客户端与服务器的一条通信链路
while True:
try:
recv_data = conn.recv(1024) # 收消息,客户端发空消息,服务端recv会被阻塞,无法接受消息
if str(recv_data,encoding='utf-8') == 'exit':
break
print(str(recv_data,encoding='utf-8'),type(recv_data))
send\_data = recv\_data.upper() # 发消息
conn.send(send\_data)
except Exception:
break
conn.close() # 挂电话
服务端示例(二)
# client code
import socket
ip_port = ('localhost',9999)
s = socket.socket() # 买手机
s.connect(ip_port) # 拨号
while True:
send_data = input(">>:").strip() # 输入消息内容
if len(send_data) == 0:
continue
s.send(bytes(send_data,encoding='utf-8')) # 发消息,python 3.x 必须以字节码发送
if send_data == 'exit':
break
recv_data = s.recv(1024)
# 收消息
print(str(recv_data,encoding='utf-8')) # 打印bytes字节码
s.close() # 挂电话
客户端示例(二)
客户端示例(二)
3. socket常用方法
更多功能
参数一:地址簇
socket.AF_INET IPv4(默认)
socket.AF_INET6 IPv6
socket.AF_UNIX 只能够用于单一的Unix系统进程间通信
参数二:类型
socket.SOCK_STREAM 流式socket , for TCP (默认)
socket.SOCK_DGRAM 数据报式socket , for UDP
socket.SOCK_RAW 原始套接字,普通的套接字无法处理ICMP、IGMP等网络报文,而SOCK_RAW可以;其次,SOCK_RAW也可以处理特殊的IPv4报文;此外,利用原始套接字,可以通过IP_HDRINCL套接字选项由用户构造IP头。
socket.SOCK_RDM 是一种可靠的UDP形式,即保证交付数据报但不保证顺序。SOCK_RAM用来提供对原始协议的低级访问,在需要执行某些特殊操作时使用,如发送ICMP报文。SOCK_RAM通常仅限于高级用户或管理员运行的程序使用。
socket.SOCK_SEQPACKET 可靠的连续数据包服务
参数三:协议
0 (默认)与特定的地址家族相关的协议,如果是 0 ,则系统就会根据地址格式和套接类别,自动选择一个合适的协议
import socket
ip_port = ('127.0.0.1',9999)
sk = socket.socket(socket.AF_INET,socket.SOCK_DGRAM,0)
sk.bind(ip_port)
while True:
data = sk.recv(1024)
print data
import socket
ip_port = ('127.0.0.1',9999)
sk = socket.socket(socket.AF_INET,socket.SOCK_DGRAM,0)
while True:
inp = raw_input('数据:').strip()
if inp == 'exit':
break
sk.sendto(inp,ip_port)
sk.close()
UDP Demo
sk.bind(address)
s.bind(address) 将套接字绑定到地址。address地址的格式取决于地址族。在AF_INET下,以元组(host,port)的形式表示地址。
sk.listen(backlog)
开始监听传入连接。backlog指定在拒绝连接之前,可以挂起的最大连接数量。
backlog等于5,表示内核已经接到了连接请求,但服务器还没有调用accept进行处理的连接个数最大为5
这个值不能无限大,因为要在内核中维护连接队列
sk.setblocking(bool)
是否阻塞(默认True),如果设置False,那么accept和recv时一旦无数据,则报错。
sk.accept()
接受连接并返回(conn,address),其中conn是新的套接字对象,可以用来接收和发送数据。address是连接客户端的地址。
接收TCP 客户的连接(阻塞式)等待连接的到来
sk.connect(address)
连接到address处的套接字。一般,address的格式为元组(hostname,port),如果连接出错,返回socket.error错误。
sk.connect_ex(address)
同上,只不过会有返回值,连接成功时返回 0 ,连接失败时候返回编码,例如:10061
sk.close()
关闭套接字
sk.recv(bufsize[,flag])
接受套接字的数据。数据以字符串形式返回,bufsize指定最多可以接收的数量。flag提供有关消息的其他信息,通常可以忽略。
sk.recvfrom(bufsize[.flag])
与recv()类似,但返回值是(data,address)。其中data是包含接收数据的字符串,address是发送数据的套接字地址。
sk.send(string[,flag])
将string中的数据发送到连接的套接字。返回值是要发送的字节数量,该数量可能小于string的字节大小。即:可能未将指定内容全部发送。
sk.sendall(string[,flag])
将string中的数据发送到连接的套接字,但在返回之前会尝试发送所有数据。成功返回None,失败则抛出异常。
内部通过递归调用send,将所有内容发送出去。
sk.sendto(string[,flag],address)
将数据发送到套接字,address是形式为(ipaddr,port)的元组,指定远程地址。返回值是发送的字节数。该函数主要用于UDP协议。
sk.settimeout(timeout)
设置套接字操作的超时期,timeout是一个浮点数,单位是秒。值为None表示没有超时期。一般,超时期应该在刚创建套接字时设置,因为它们可能用于连接的操作(如 client 连接最多等待5s )
sk.getpeername()
返回连接套接字的远程地址。返回值通常是元组(ipaddr,port)。
sk.getsockname()
返回套接字自己的地址。通常是一个元组(ipaddr,port)
sk.fileno()
套接字的文件描述符
# 服务端
import socket
ip_port = ('127.0.0.1',9999)
sk = socket.socket(socket.AF_INET,socket.SOCK_DGRAM,0)
sk.bind(ip_port)
while True:
data,(host,port) = sk.recvfrom(1024)
print(data,host,port)
sk.sendto(bytes('ok', encoding='utf-8'), (host,port))
#客户端
import socket
ip_port = ('127.0.0.1',9999)
sk = socket.socket(socket.AF_INET,socket.SOCK_DGRAM,0)
while True:
inp = input('数据:').strip()
if inp == 'exit':
break
sk.sendto(bytes(inp, encoding='utf-8'),ip_port)
data = sk.recvfrom(1024)
print(data)
sk.close()
UDP
实例:智能机器人
#!/usr/bin/env python
import socket
ip_port = ('127.0.0.1',8888)
sk = socket.socket()
sk.bind(ip_port)
sk.listen(5)
while True:
conn,address = sk.accept()
conn.sendall('欢迎致电 10086,请输入1xxx,0转人工服务.')
Flag = True
while Flag:
data = conn.recv(1024)
if data == 'exit':
Flag = False
elif data == '':
conn.sendall('通过可能会被录音.balabala一大推')
else:
conn.sendall('请重新输入.')
conn.close()
服务端
#!/usr/bin/env python
import socket
ip_port = ('127.0.0.1',8005)
sk = socket.socket()
sk.connect(ip_port)
sk.settimeout(5)
while True:
data = sk.recv(1024)
print 'receive:',data
inp = raw_input('please input:')
sk.sendall(inp)
if inp == 'exit':
break
sk.close()
客户端
import socket
import subprocess
ip_port = ('localhost', 9999)
s = socket.socket() # 买手机
s.bind(ip_port) # 买手机卡
s.listen(5) # 开机,5个链接数挂起排队
conn,addr = s.accept() # 等待电话;conn表示一个客户端与服务器的一条通信链路
while True:
try:
recv_data = conn.recv(1024) # 收消息,客户端发空消息,服务端recv会被阻塞,无法接受消息
if str(recv_data,encoding='utf-8') == 'exit':
break
print(str(recv_data,encoding='utf-8'),type(recv_data))
p = subprocess.Popen(str(recv\_data,encoding='utf-8'),shell=True,stdout=subprocess.PIPE)
res = p.stdout.read() # 返回系统命令的标准输出结果
send\_data = str(res,encoding='gbk')
print(send\_data)
# send\_data = recv\_data.upper() # 发消息
conn.send(bytes(send\_data,encoding='utf-8'))
except Exception:
break
conn.close() # 挂电话
SSH服务端
import socket
ip_port = ('localhost',9999)
s = socket.socket() # 买手机
s.connect(ip_port) # 拨号
while True:
send_data = input(">>:").strip() # 输入消息内容
if len(send_data) == 0:
continue
s.send(bytes(send_data,encoding='utf-8')) # 发消息,python 3.x 必须以字节码发送
if send_data == 'exit':
break
recv_data = s.recv(1024)
# 收消息
print(str(recv_data,encoding='utf-8')) # 打印bytes字节码
s.close() # 挂电话
SSH客户端
粘包概念:客户端发发一条命令,服务端返回一部分结果,剩余部分丢失,丢失部分会出现在下一条命令返回的结果中
# 粘包问题 需调试
import socket
import subprocess
ip_port = ('localhost', 9999)
s = socket.socket()
s.bind(ip_port)
s.listen(5)
while True: # 用来重复接收新的链接
conn, addr = s.accept() # 接收客户端链接请求,返回conn(相当于一个特定链接),addr是客户端ip+port
while True: # 用来基于一个链接重复收发消息
try: # 捕捉客户端异常关闭错误
recv\_data = conn.recv(1024) # 收消息,阻塞
if len(recv\_data) == 0:break # 客户端退出,服务端将收到空消息
p = subprocess.Popen(str(recv\_data,encoding='utf-8'),shell=True,stdout=subprocess.PIPE) # 执行系统命令
res = p.stdout.read()
if len(res) == 0:
send\_data = 'cmd\_error'
else:
send\_data = str(res,encoding='gbk') # windows平台命令的标准输出为GBK编码,需要转换
send\_data = bytes(send\_data,encoding='utf-8')
# 解决粘包问题
ready\_tag = 'Ready|%s' %len(send\_data)
conn.send(bytes(ready\_tag,encoding='utf-8'))
feedback = conn.recv(1024) # start
feedback = str(feedback,encoding='utf-8')
if feedback.startswith('Start'):
conn.send(send\_data) # 发送命令的执行结果
except Exception:
break
conn.close()
粘包服务端
# 粘包问题
import socket
ip_port = ('localhost',9999)
s = socket.socket()
s.connect(ip_port)
while True:
send_data = input(">>:").strip()
if len(send_data) == 0:continue
s.send(bytes(send_data,encoding='utf-8'))
if send_data == 'exit':break
ready\_tag = s.recv(1024)
ready\_tag = str(ready\_tag,encoding='utf-8')
if ready\_tag.startswith('Ready'):
msg\_size = int(ready\_tag.split('|')\[-1\])
start\_tag = 'Start'
s.send(bytes(start\_tag,encoding='utf-8'))
recv\_size = 0
recv\_msg = b''
while recv\_size < msg\_size:
recv\_data = s.recv(1024)
recv\_msg += recv\_data
recv\_size += len(recv\_data)
print('MSG SIZE %s RECEV SIZE %s' %(msg\_size,recv\_size))
# 收消息
print(str(recv\_data,encoding='utf-8'))
s.close()
粘包客户端
python中无块级作用域,代码块中定义的变量可在任意地方使用
python中以函数为作用域,函数中的变量不可在函数外使用
python中有作用域链,由内向外找,直到找不到报错
在函数未执行前,作用域以及链已确定
小知识之作用域
#############################################################################
if 1==1:
name = 'alex'
print(name)
输出结果:alex
############################################################################
def func():
name = 'alex'
func()
print(name)
输出结果:alex
#############################################################################
name = 'alex'
def f1():
name = 'a'
def f2():
name = 'b'
print(name)
f2()
f1()
输出结果:b
#############################################################################
name = 'alex'
def f1():
print(name)
def f2():
name = 'eric'
f1()
f2()
输出结果:alex
#############################################################################
name = 'alex'
def f1():
print(name)
def f2():
name = 'eric'
return f1
ret = f2()
ret()
输出结果:alex
作用域
#小知识之面试题
#############################################################################
li = [x+100 for x in range(10)]
print(li)
输出结果:[100, 101, 102, 103, 104, 105, 106, 107, 108, 109]
#-------------------------------------------------------------------------------
li = [x+100 for x in range(10) if x>6]
print(li)
li = [lambda :x for x in range(10)]
r = li[0]()
print(r)
li = []
for i in range(10):
def f1():
return i
li.append(f1) # # li是列表,内部元素是相同功能的函数
print(li[0]())
print(li[1]())
输出结果;
9
li = []
for i in range(10):
def f1(x=i): # 本质看是否执行此行代码,执行了就可以取到值,不执行就取不到值。本行执行了。
return x
li.append(f1) # # li是列表,内部元素是相同功能的函数
print(li[0]())
print(li[1]())
print(li[2]())
输出结果:
0
1
2
I/O多路复用:监听socket内部对象是否发生变化
# I/O多路复用概述:用来监听socket对象内部是否变化了
import socket
import select
sk = socket.socket()
sk.bind(('127.0.0.1',9999))
sk.listen(5)
while True:
rlist,w,e = select.select([sk],[],[],1) # select()内部监听socket对象,循环等1秒;无连接,一直循环下去;
print(rlist) # sk,sk1,sk2其中哪个变化,则r返回哪个值
for r in rlist:
print(r) # r获取socket对象列表,可判断是否有新链接
conn,addrs = r.accept() # 接收客户端链接,Conn也是socket对象
conn.sendall(bytes('hello',encoding='utf-8'))
无限循环输出结果:
[
服务端
import socket
sk = socket.socket()
sk.connect(('127.0.0.1',9999,))
data = sk.recv(1024)
print(data)
while True:
input('>>>')
sk.close()
客户端
I/O多路复用:伪并发实例
# I/O多路复用伪并发实例
import socket
import select
sk = socket.socket()
sk.bind(('127.0.0.1',9999))
sk.listen(5)
inputs = [sk,]
while True:
rlist,w,e = select.select([sk],[],[],1)
print(len(inputs),len(rlist))
for r in rlist:
if r == sk: # 新客户端来连接
print(r)
conn,addrs = r.accept()
inputs.append(conn) # 此处将新连接客户端添加到inputs列表中
conn.sendall(bytes('hello', encoding='utf-8'))
else:
r.recv(1024)
服务端
import socket
sk = socket.socket()
sk.connect(('127.0.0.1',9999,))
data = sk.recv(1024)
print(data)
while True:
input('>>>')
sk.close()
客户端
I/O多路复用:连接的客户端断开后,服务端进行抛出异常处理,并移除断开的客户端
# 连接的客户端断开后,服务端进行抛出异常处理,并移除断开的客户端
import socket
import select
sk = socket.socket()
sk.bind(('127.0.0.1',9999))
sk.listen(5)
inputs = [sk,]
while True:
rlist,w,e = select.select([sk],[],[],1)
print(len(inputs),len(rlist))
for r in rlist:
if r == sk: # 新客户端来连接
print(r)
conn,addrs = r.accept()
inputs.append(conn) # 此处将新连接客户端添加到inputs列表中
conn.sendall(bytes('hello', encoding='utf-8'))
else:
print('==============') # 有人给我发消息了
try:
ret = r.recv(1024)
if not ret:
raise Exception('断开连接') # 主动抛出异常
except Exception as e:
inputs.remove(r) # 如果客户端突发断开连接,此处则移除断掉的客户端
服务端
import socket
sk = socket.socket()
sk.connect(('127.0.0.1',9999,))
data = sk.recv(1024)
print(data)
while True:
input('>>>')
sk.close()
客户端
I/O多路复用:读写分离(客户端发消息,服务端回发消息)
# I/O多路复用之读写分离(客户端发消息,服务端回发消息)
import socket
import select
sk = socket.socket()
sk.bind(('127.0.0.1',9999))
sk.listen(5)
inputs = [sk,]
outputs = []
while True:
rlist,wlist,e = select.select(inputs,outputs,[],1) # outputs表示所有客户端给服务端发的消息,outputs==wlist
print(len(inputs),len(rlist),len(outputs),len(wlist))
for r in rlist:
if r == sk: # 新客户端来连接
print(r)
conn,addrs = r.accept()
inputs.append(conn) # 此处将新连接客户端添加到inputs列表中
conn.sendall(bytes('hello', encoding='utf-8'))
else:
print('==============') # 有人给我发消息了
try:
ret = r.recv(1024)
r.sendall(ret)
if not ret:
raise Exception('断开连接') # 主动抛出异常
else:
outputs.append(r)
except Exception as e:
inputs.remove(r) # 如果客户端突发断开连接,此处则移除断掉的客户端
for w in wlist: # 所有给我发消息的客户端
w.sendall(bytes('response',encoding='utf-8'))
outputs.remove(w)
服务端
import socket
sk = socket.socket()
sk.connect(('127.0.0.1',9998,))
data = sk.recv(1024)
print(data)
while True:
inp = input('>>>')
sk.sendall(bytes(inp,encoding='utf-8')) # 客户端发消息,服务端回发消息
print(sk.recv(1024))
sk.close()
客户端
I/O多路复用:读写分离(客户端发一条消息,服务端回发:客户端消息+服务端消息)
# I/O多路复用之读写分离(客户端发一条消息,服务端回发:客户端消息+服务端消息) 需调试!!!
import socket
import select
sk = socket.socket()
sk.bind(('127.0.0.1',9998))
sk.listen(5)
inputs = [sk,]
outputs = []
message = {}
'''
message = {
张三:[msg1,msg2]
李四:[msg1,msg2]
}
'''
while True:
rlist,wlist,elist = select.select(inputs,outputs,[sk,],1) # outputs表示所有客户端给服务端发的消息,outputs==wlist;第三个参数sk也是socket对象,内部会检测sk内部发生错误,会把sk赋值给elist
print(len(inputs),len(rlist),len(outputs),len(wlist))
for r in rlist:
if r == sk: # 新客户端来连接
print(r)
conn,addrs = r.accept()
inputs.append(conn) # 此处将新连接客户端添加到inputs列表中
message\[conn\] = \[\] # 客户端来连接则把conn对象当作key值放入消息字典中,然后在存入空列表中
conn.sendall(bytes('hello', encoding='utf-8'))
else:
print('==============') # 有人给我发消息了
try:
ret = r.recv(1024)
r.sendall(ret)
if not ret:
raise Exception('断开连接') # 主动抛出异常
else:
outputs.append(r)
message\[r\].append(ret) # 把客户端发的消息放到ret列表里
except Exception as e:
inputs.remove(r) # 如果客户端突发断开连接,此处则移除断掉的客户端
del message\[r\]
for w in wlist: # 所有给我发消息的客户端
msg = message\[w\].pop()
resp = msg + bytes('response',encoding='utf-8')
w.sendall(resp)
outputs.remove(w)
服务端
import socket
sk = socket.socket()
sk.connect(('127.0.0.1',9998,))
data = sk.recv(1024)
print(data)
while True:
inp = input('>>>')
sk.sendall(bytes(inp,encoding='utf-8')) # 客户端发消息,服务端回发消息
print(sk.recv(1024))
sk.close()
客户端
一个python应用程序,可以有多个进程和多个线程
默认为单进程和单线程(效率低)
多线程上面有一个GIL(全局解释器锁),给进程起到屏障作用,进程里的多线程同一时间只能有一个线程工作,不能同时被CPU调度工作。(java,c#里没有GIL功能)
python多线程应用场景:1. I/O操作不占用CPU(音频,视频,显卡都交给驱动去工作),适合用多线程提高并发效率;2. 计算型操作占用CPU,适合用多进程提高并发效率,每个进程可利用多核CPU同时进行并行计算。
I/O密集型操作:用多线程; 计算型操作:用多进程
进程、线程与GIL关系原理图如下所示:
# 线程基本使用
import time
def f1(arg): # f1()表示一个单进程,单线程应用程序
time.sleep(5)
print(arg) # f1()默认为主线程,t表示新创建的子线程
import threading # 导入线程模块
t = threading.Thread(target=f1,args=(123,)) # 此处创建一个子线程,target=f1表示执行f1函数,并传参数args给f1(arg)
t.start()
t.join(2) # 表示主线程执行到此处,等待子线程执行完毕后,再继续执行下面的代码;参数(2)表示主线程运行到此处最多等待2秒
print('end')
# 创建线程的两种方式
#第一种
import threading
def f1(arg):
print(arg)
t = threading.Thread(target=f1,args=(,))
t.start() # 创建好线程,等待CPU调用
t.run() # CPU调度线程工作时,会去执行t.run()方法,该方法再去触发线程工作
import threading
class MyThread(threading.Thread):
def __init__(self,func,args): # 当前类的构造方法
self.func = func
self.args = args
super(MyThread,self).__init__() # 执行父类的构造方法
def run(self): # run()方法里可实现任意功能
self.func(self.args)
def f2():
print(arg)
obj = MyThread(f2,)
obj.start()
import queue
q = queue.Queue(10) # 创建一个先进先出队列,参数表示最多放10个数据
q.put(11) # 依次把数据11,22,33放入队列
q.put(22)
q.put(33)
print(q.qsize()) # 输出队列元素个数,检测队列真实个数
print(q.get()) # 从队列取数据
print(q.get())
print(q.get())
输出结果:
3
11
22
import queue
q = queue.Queue(10) # 创建一个先进先出队列,参数表示最多放10个数据
q.put(11) # 依次把数据11,22,33放入队列
q.put(22)
q.put(23)
q.put(24)
q.put(25)
print(q.qsize()) # 输出队列元素个数,检测队列真实个数
q.put(33,timeout=2) # timeout表示超时时间,等2秒如果队列有位置加入,无位置则报错
q.put(34,block=False) # 此处不再阻塞,直接报错
print(q.get()) # 从队列取数据
print(q.get())
print(q.get())
import queue
q = queue.Queue()
q.put(123)
q.put(456)
q.get()
q.get()
q.task_done() # 去除元素后,告诉队列当前任务已完成
print('end')
queue.Queue() # 先进先出队列
queue.LifoQueue() # 后进先出队列
queue.PriorityQueue() # 优先级队列
queue.deque() #双向队列
# 后进先出队列
import queue
q = queue.LifoQueue()
q.put(123)
q.put(456)
print(q.get())
print(q.get())
输出结果:
456
123
后进先出队列
# 优先级队列 (0-n,优先级由高到低)
import queue
q = queue.PriorityQueue()
q.put((1,'a'))
q.put((0,'b'))
q.put((2,'c'))
print(q.get())
输出结果:(0, 'b')
优先级队列
# 双向队列
import queue
q = queue.deque()
q.append(123) # 放数据
q.append(456)
q.appendleft(789) # 左边放数据
print(q.pop()) # 取数据
print(q.popleft()) # 左边取数据
输出结果:
456
789
双向队列
# 生产消费者模型
import queue
import threading
import time
q = queue.Queue() # 创建空队列
def productor(arg): # 买票订单处理,加入队列
q.put(str(arg)+'-票')
def consumer(arg) # 服务器后台卖票处理请求
while True:
print(arg,q.get())
time.sleep(2) # 等待2秒后继续处理
for i in range(300): # 创建新的300个买票者
t = threading.Thread(target=productor,args=(i,))
t.start()
for j in range(3): # 创建3个卖票者循环处理请求,每次可并发处理3个请求,
t = threading.Thread(target=consumer,args=(j,))
t.start()
# 线程锁
import threading
import time
NUM = 10
def func(lo):
global NUM
lo.acquire() # 上锁,表示同一时刻只允许一个线程来操作
NUM -= 1
time.sleep(2)
print(NUM)
lo.release() # 开锁
lock = threading.RLock() # 多层锁
for i in range(10):
t = threading.Thread(target=func,args=(lock,))
t.start()
# 信号量以及事件
import threading
def func(i,e):
print(i)
e.wait() # 全部线程停止到这里,这里检测是什么灯;默认是红灯
print(i+100)
event = threading.Event()
for i in range(10):
t = threading.Thread(target=func,args=(i,event))
t.start()
event.clear() # 表示全部停止,设置成红灯
inp = input('>>>:')
if inp == "":
event.set() # 表示把上面停止的线程放行,设置成绿灯
输出结果:
0
1
2
3
4
5
6
7
8
9
:1
102
104
109
106
105
100
103
107
101
108
# 条件以及定时器
import threading
def condition():
ret = False
r = input('>>>')
if r == 'true':
ret = True
else:
ret = False
return ret
def func(i,con):
print(i)
con.acquire()
con.wait()
print(i+100)
con.release()
c = threading.Condition()
for i in range(10):
t = threading.Thread(target=func,args=(i,c,))
t.start()
while True: # 主线程
inp = input('>>>') # 输入几,就放出几个线程
if inp == 'q':
break
c.acquire()
c.notify(int(inp))
c.release()
输出结果:
0
1
2
3
4
5
6
7
8
9
1
100
2
101
102
3
103
105
104###########################################################################################
当满足某个条件时,才让线程一个一个出去
import threading
def condition():
ret = False
r = input('>>>')
if r == 'true':
ret = True
else:
ret = False
return ret
def func(i,con):
print(i)
con.acquire()
con.wait_for(condition) # 等待某个条件成立,才执行。否则一直等待
print(i+100)
con.release()
c = threading.Condition()
for i in range(10):
t = threading.Thread(target=func,args=(i,c,))
t.start()
输出结果:
0
1
2
3
4
5
6
7
8
9
true
101
true
102
false
条件
# 定时器
from threading import Timer
def hello():
print("hello,world")
t = Timer(2,hello) # 延迟2秒后执行hello()函数
t.start()
print('end') # 此处立即打印后,再延迟2秒输出上面函数结果
定时器
# 流程:1.定义一个容器(最大个数);2.取一个,少一个;3.无线程时等待;4. 线程执行完毕,交还线程;
import threading
import queue
import time
class Threadpool():
def __init__(self,maxsize=5): # 创建线程池,maxsize表示线程池最多有多少个线程
self.maxsize = maxsize
self._q = queue.Queue(maxsize) # 队列此刻为空,最多放了5个元素,元素为类
for i in range(maxsize):
self._q.put(threading.Thread) # 表示把一个类名逐个放入线程池
def get\_thread(self):
return self.\_q.get() # 获取线程,取一个线程类,上面线程池少一个
def add\_thread(self):
self.\_q.put(threading.Thread) # 线程少一个时,又增加一个
pool = Threadpool(5) # 创建线程池,最大个数为5个线程可以使用
def task(arg,p): # 获取pool传递的参数,
print(arg)
time.sleep(1)
p.add_thread() # 表示任务执行完,再增加一个,这样会每5个任务并发执行一次
for i in range(100): # 创建100个任务
t = pool.get_thread() # 从线程池获取一个线程类
obj = t(target=task,args=(i,pool)) # 获取一个线程对象,加pool参数,传递到task函数的参数p.
obj.start() # 执行
自定义线程池任务执行
# 进程基本操作
from multiprocessing import Process
from multiprocessing import Array
from multiprocessing import Manager # 特殊的字典
import multiprocessing
import threading
import time
def foo(i,arg):
arg\[i\] = i+100
for item in arg:
print(item)
print('=======================')
if __name__ == "__main__":
li = Array('i',10) # 这种方法不常用
for i in range(10):
p = Process(target=foo,args=(i,li))
p.start()
输出结果:
0
0
0
103
0
0
0
0
0
0
== == == == == == == == == == == =
0
0
102
103
0
0
0
0
0
0
== == == == == == == == == == == =
100
0
102
103
0
0
0
0
0
0
== == == == == == == == == == == =
100
0
102
103
104
0
0
0
0
0
== == == == == == == == == == == =
100
101
102
103
104
0
0
0
0
0
== == == == == == == == == == == =
100
101
102
103
104
0
106
0
0
0
== == == == == == == == == == == =
100
101
102
103
104
0
106
107
0
0
== == == == == == == == == == == =
100
101
102
103
104
0
106
107
108
0
== == == == == == == == == == == =
100
101
102
103
104
105
106
107
108
0
== == == == == == == == == == == =
100
101
102
103
104
105
106
107
108
109
== == == == == == == == == == == =
进程间数据共享一
from multiprocessing import Process
from multiprocessing import Array
from multiprocessing import Manager # 特殊的字典
import multiprocessing
import threading
import time
def foo(i, arg):
print('say hi',i)
arg[i] = i + 100
print(arg.values())
if __name__ == "__main__":
# li = Array('i', 10) # 这种方法不常用
obj = Manager()
li = obj.dict() # 常用方法
for i in range(10):
p = Process(target=foo, args=(i, li))
# p.daemon = True
p.start()
p.join()
print('end')
输出结果:
say hi 0
[100]
say hi 1
[100, 101]
say hi 2
[100, 101, 102]
say hi 3
[100, 101, 102, 103]
say hi 4
[100, 101, 102, 103, 104]
say hi 5
[100, 101, 102, 103, 104, 105]
say hi 6
[100, 101, 102, 103, 104, 105, 106]
say hi 7
[100, 101, 102, 103, 104, 105, 106, 107]
say hi 8
[100, 101, 102, 103, 104, 105, 106, 107, 108]
say hi 9
[100, 101, 102, 103, 104, 105, 106, 107, 108, 109]
end
进程间数据共享二
# 进程锁,所有的进程同时去执行同一任务
from multiprocessing import Process,queues
from multiprocessing import Array
from multiprocessing import RLock,Lock,Condition,Semaphore
import multiprocessing
import time
def foo(i,lis):
lis[0] = lis[0] - 1
time.sleep(1)
print('say hi',lis[0])
if __name__ == "__main__":
li = Array('i',1)
li[0] = 10
for i in range(10):
p = Process(target=foo,args=(i,li)) # 创建10个进程,每个进程都去执行foo方法
p.start()
输出结果:
say hi 0
say hi 0
say hi 0
say hi 0
say hi 0
say hi 0
say hi 0
say hi 0
say hi 0
say hi 0
from multiprocessing import Process,queues
from multiprocessing import Array
from multiprocessing import RLock,Lock,Condition,Semaphore
import multiprocessing
import time
def foo(i,lis,lc): # lc参数是接收下面线程中lock的参数
lc.acquire() # 加锁
lis[0] = lis[0] - 1
time.sleep(1)
print('say hi',lis[0])
lc.release() # 释放锁
if __name__ == "__main__":
li = Array('i',1)
li[0] = 10
lock = RLock() # 创建进程锁,并传递给下面的lock参数
for i in range(10):
p = Process(target=foo,args=(i,li,lock)) # 创建10个进程,每个进程都去执行foo方法
p.start()
输出结果:
say hi 9
say hi 8
say hi 7
say hi 6
say hi 5
say hi 4
say hi 3
say hi 2
say hi 1
say hi 0
进程池
from multiprocessing import Pool # 导入进程池
import time
def f1(arg):
time.sleep(1)
print(arg)
if __name__ == "__main__":
pool = Pool(5) # 创建只有5个进程的池
for i in range(10): # 30个任务
pool.apply(func=f1,args=(i,)) # 每个进程去执行f1
输出结果:
0
1
2
3
4
5
6
7
8
9
# 进程池
from multiprocessing import Pool # 导入进程池
import time
def f1(arg):
time.sleep(1)
print(arg)
if __name__ == "__main__":
pool = Pool(5) # 创建只有5个进程的池
for i in range(10): # 30个任务
pool.apply(func=f1,args=(i,)) # 每个进程去执行f1
pool.apply\_async(func=f1,args=(i,)) # apply表示去进程池取进程并执行串行操作
print('end')
pool.close() # 表示所有的30个任务执行完毕才执行下面任务
time.sleep(1)
# pool.terminet() # 立即终止任务执行
pool.join() #进程池中进程执行完毕后再关闭,如果注释,那么程序直接关闭。
输出结果:
0
0
1
1
2
3
2
4
3
4
5
6
5
7
6
8
7
8
9
end
9
# 协程
from greenlet import greenlet
def test1():
print(12)
gr2.switch() # 切换作用
print(34)
gr2.switch()
def test2():
print(56)
gr1.switch()
print(78)
gr1 = greenlet(test1)
gr2 = greenlet(test2)
gr1.switch()
输出结果:
12
56
34
78
协程切换操作
协程切换操作一
import gevent
def foo():
print('Running in foo')
gevent.sleep(0) # 切换作用
print('Explicit context switch to foo again')
def bar():
print('Explicit context to bar')
gevent.sleep(0)
print('Implicit context switch back to bar')
gevent.joinall([ # 表示要执行下面两个协程
gevent.spawn(foo),
gevent.spawn(bar),
])
输出结果:
Running in foo
Explicit context to bar
Explicit context switch to foo again
Implicit context switch back to bar
协程切换操作二
# 协程发送http请求实例:一个线程并发发送3个http请求
from gevent import monkey;monkey.patch_all() # 特殊socket请求发送后返回状态
import gevent # 协程
import requests
def func(url):
print('GET: %s' % url)
resp = requests.get(url)
data = resp.text
print('%d bytes receivd from %s' % (len(data),url))
gevent.joinall(\[
gevent.spawn(func,'http://www.python.org/'),
gevent.spawn(func,'http://www.yahoo.com/'),
gevent.spawn(func,'http://www.cnblogs.com'),
gevent.spawn(func,'http://www.baidu.com'),
\])
协程发送http请求
memcached支持类型:
K-->"字符串"
redis支持类型:
K-->"字符串" 字符串
K-->[11,22,33,22] 列表
K-->{"k" : xxx} 字典
K-->[11,22,33] 集合
K-->[(11,1),(12,2),(13,3)] 排序集合
支持持久化功能
python操作mencached和redis需2个条件:
1.服务端安装所需软件
2.本地安装其对应模块(本质通过ssh或端口)
一. Memcached
Memcached 是一个高性能的分布式内存对象缓存系统,用于动态Web应用以减轻数据库负载。它通过在内存中缓存数据和对象来减少读取数据库的次数,从而提高动态、数据库驱动网站的速度。Memcached基于一个存储键/值对的hashmap。其守护进程(daemon )是用C写的,但是客户端可以用任何语言来编写,并通过memcached协议与守护进程通信。
Memcached安装和基本使用
Memcached安装:
wget http://memcached.org/latest
tar -zxvf memcached-1.x.x.tar.gz
cd memcached-1.x.x
./configure && make && make test && sudo make install
PS:依赖libevent
yum install libevent-devel
apt-get install libevent-dev
启动Memcached
memcached -d -m 10 -u root -l 10.211.55.4 -p 12000 -c 256 -P /tmp/memcached.pid
参数说明:
-d 是启动一个守护进程
-m 是分配给Memcache使用的内存数量,单位是MB
-u 是运行Memcache的用户
-l 是监听的服务器IP地址
-p 是设置Memcache监听的端口,最好是1024以上的端口
-c 选项是最大运行的并发连接数,默认是1024,按照你服务器的负载量来设定
-P 是设置保存Memcache的pid文件
Memcached命令
存储命令: set/add/replace/append/prepend/cas
获取命令: get/gets
其他命令: delete/stats..
Python操作Memcached
安装API
python操作Memcached使用Python-memcached模块
下载安装:https://pypi.python.org/pypi/python-memcached
1、第一次操作
import memcache
mc = memcache.Client(['10.211.55.4:12000'], debug=True)
mc.set("foo", "bar")
ret = mc.get('foo')
print ret
Ps:debug = True 表示运行出现错误时,现实错误信息,上线后移除该参数。
2、天生支持集群
python-memcached模块原生支持集群操作,其原理是在内存维护一个主机列表,且集群中主机的权重值和主机在列表中重复出现的次数成正比
主机 权重
1.1.1.1 1
1.1.1.2 2
1.1.1.3 1
那么在内存中主机列表为:
host_list = ["1.1.1.1", "1.1.1.2", "1.1.1.2", "1.1.1.3", ]
如果用户根据如果要在内存中创建一个键值对(如:k1 = "v1"),那么要执行一下步骤:
代码实现如下:
mc = memcache.Client([('1.1.1.1:12000', 1), ('1.1.1.2:12000', 2), ('1.1.1.3:12000', 1)], debug=True)
mc.set('k1', 'v1')
3、add
添加一条键值对,如果已经存在的 key,重复执行add操作异常
#!/usr/bin/env python
import memcache
mc = memcache.Client(['10.211.55.4:12000'], debug=True)
mc.add('k1', 'v1')
4、replace
replace 修改某个key的值,如果key不存在,则异常
#!/usr/bin/env python
import memcache
mc = memcache.Client(['10.211.55.4:12000'], debug=True)
mc.replace('kkkk','999')
5、set 和 set_multi
set 设置一个键值对,如果key不存在,则创建,如果key存在,则修改
set_multi 设置多个键值对,如果key不存在,则创建,如果key存在,则修改
#!/usr/bin/env python
import memcache
mc = memcache.Client(['10.211.55.4:12000'], debug=True)
mc.set('key0', 'wupeiqi')
mc.set_multi({'key1': 'val1', 'key2': 'val2'})
6、delete 和 delete_multi
delete 在Memcached中删除指定的一个键值对
delete_multi 在Memcached中删除指定的多个键值对
#!/usr/bin/env python
import memcache
mc = memcache.Client(['10.211.55.4:12000'], debug=True)
mc.delete('key0')
mc.delete_multi(['key1', 'key2'])
7、get 和 get_multi
get 获取一个键值对
get_multi 获取多一个键值对
#!/usr/bin/env python
import memcache
mc = memcache.Client(['10.211.55.4:12000'], debug=True)
val = mc.get('key0')
item_dict = mc.get_multi(["key1", "key2", "key3"])
8、append 和 prepend
append 修改指定key的值,在该值 后面 追加内容
prepend 修改指定key的值,在该值 前面 插入内容
#!/usr/bin/env python
import memcache
mc = memcache.Client(['10.211.55.4:12000'], debug=True)
mc.append('k1', 'after')
mc.prepend('k1', 'before')
9、decr 和 incr
incr 自增,将Memcached中的某一个值增加 N ( N默认为1 )
decr 自减,将Memcached中的某一个值减少 N ( N默认为1 )
#!/usr/bin/env python
import memcache
mc = memcache.Client(['10.211.55.4:12000'], debug=True)
mc.set('k1', '777')
mc.incr('k1')
mc.incr('k1', 10)
mc.decr('k1')
mc.decr('k1', 10)
10、gets 和 cas
如商城商品剩余个数,假设改值保存在memcache中,product_count = 900
A用户刷新页面从memcache中读取到product_count = 900
B用户刷新页面从memcache中读取到product_count = 900
如果A、B用户均购买商品
A用户修改商品剩余个数 product_count=899
B用户修改商品剩余个数 product_count=899
如此一来缓存内的数据便不在正确,两个用户购买商品后,商品剩余还是 899
如果使用python的set和get来操作以上过程,那么程序就会如上述所示情况!
如果想要避免此情况的发生,只要使用 gets 和 cas 即可,如:
#!/usr/bin/env python
import memcache
mc = memcache.Client(['10.211.55.4:12000'], debug=True, cache_cas=True)
v = mc.gets('product_count')
mc.cas('product_count', "899")
Ps:本质上每次执行gets时,会从memcache中获取一个自增的数字,通过cas去修改gets的值时,会携带之前获取的自增值和memcache中的自增值进行比较,如果相等,则可以提交,如果不想等,那表示在gets和cas执行之间,又有其他人执行了gets(获取了缓冲的指定值), 如此一来有可能出现非正常数据,则不允许修改。
二. redis
redis是一个key-value存储系统。和Memcached类似,它支持存储的value类型相对更多,包括string(字符串)、list(链表)、set(集合)、zset(sorted set --有序集合)和hash(哈希类型)。这些数据类型都支持push/pop、add/remove及取交集并集和差集及更丰富的操作,而且这些操作都是原子性的。在此基础上,redis支持各种不同方式的排序。与memcached一样,为了保证效率,数据都是缓存在内存中。区别的是redis会周期性的把更新的数据写入磁盘或者把修改操作写入追加的记录文件,并且在此基础上实现了master-slave(主从)同步。
1. 使用Redis有哪些好处?
(1) 速度快,因为数据存在内存中,类似于HashMap,HashMap的优势就是查找和操作的时间复杂度都是O(1)
(2) 支持丰富数据类型,支持string,list,set,sorted set,hash
(3) 支持事务,操作都是原子性,所谓的原子性就是对数据的更改要么全部执行,要么全部不执行
(4) 丰富的特性:可用于缓存,消息,按key设置过期时间,过期后将会自动删除
(1) memcached所有的值均是简单的字符串,redis作为其替代者,支持更为丰富的数据类型
(2) redis的速度比memcached快很多
(3) redis可以持久化其数据
(1) Master最好不要做任何持久化工作,如RDB内存快照和AOF日志文件
(2) 如果数据比较重要,某个Slave开启AOF备份数据,策略设置为每秒同步一次
(3) 为了主从复制的速度和连接的稳定性,Master和Slave最好在同一个局域网内
(4) 尽量避免在压力很大的主库上增加从库
(5) 主从复制不要用图状结构,用单向链表结构更为稳定,即:Master <- Slave1 <- Slave2 <- Slave3…
这样的结构方便解决单点故障问题,实现Slave对Master的替换。如果Master挂了,可以立刻启用Slave1做Master,其他不变。
MySQL里有2000w数据,redis中只存20w的数据,如何保证redis中的数据都是热点数据
相关知识:redis 内存数据集大小上升到一定大小的时候,就会施行数据淘汰策略。redis 提供 6种数据淘汰策略:
voltile-lru:从已设置过期时间的数据集(server.db[i].expires)中挑选最近最少使用的数据淘汰
volatile-ttl:从已设置过期时间的数据集(server.db[i].expires)中挑选将要过期的数据淘汰
volatile-random:从已设置过期时间的数据集(server.db[i].expires)中任意选择数据淘汰
allkeys-lru:从数据集(server.db[i].dict)中挑选最近最少使用的数据淘汰
allkeys-random:从数据集(server.db[i].dict)中任意选择数据淘汰
no-enviction(驱逐):禁止驱逐数据
1)、存储方式
Memecache把数据全部存在内存之中,断电后会挂掉,数据不能超过内存大小。
Redis有部份存在硬盘上,这样能保证数据的持久性。
2)、数据支持类型
Memcache对数据类型支持相对简单。
Redis有复杂的数据类型。
3),value大小
redis最大可以达到1GB,而memcache只有1MB
1).Master写内存快照,save命令调度rdbSave函数,会阻塞主线程的工作,当快照比较大时对性能影响是非常大的,会间断性暂停服务,所以Master最好不要写内存快照。
2).Master AOF持久化,如果不重写AOF文件,这个持久化方式对性能的影响是最小的,但是AOF文件会不断增大,AOF文件过大会影响Master重启的恢复速度。Master最好不要做任何持久化工作,包括内存快照和AOF日志文件,特别是不要启用内存快照做持久化,如果数据比较关键,某个Slave开启AOF备份数据,策略为每秒同步一次。
3).Master调用BGREWRITEAOF重写AOF文件,AOF在重写的时候会占大量的CPU和内存资源,导致服务load过高,出现短暂服务暂停现象。
4). Redis主从复制的性能问题,为了主从复制的速度和连接的稳定性,Slave和Master最好在同一个局域网内
7, redis 最适合的场景
Redis最适合所有数据in-momory的场景,虽然Redis也提供持久化功能,但实际更多的是一个disk-backed的功能,跟传统意义上的持久化有比较大的差别,那么可能大家就会有疑问,似乎Redis更像一个加强版的Memcached,那么何时使用Memcached,何时使用Redis呢?
如果简单地比较Redis与Memcached的区别,大多数都会得到以下观点:
、Redis不仅仅支持简单的k/v类型的数据,同时还提供list,set,zset,hash等数据结构的存储。
、Redis支持数据的备份,即master-slave模式的数据备份。
、Redis支持数据的持久化,可以将内存中的数据保持在磁盘中,重启的时候可以再次加载进行使用。
(1)、会话缓存(Session Cache)
最常用的一种使用Redis的情景是会话缓存(session cache)。用Redis缓存会话比其他存储(如Memcached)的优势在于:Redis提供持久化。当维护一个不是严格要求一致性的缓存时,如果用户的购物车信息全部丢失,大部分人都会不高兴的,现在,他们还会这样吗?
幸运的是,随着 Redis 这些年的改进,很容易找到怎么恰当的使用Redis来缓存会话的文档。甚至广为人知的商业平台Magento也提供Redis的插件。
(2)、全页缓存(FPC)
除基本的会话token之外,Redis还提供很简便的FPC平台。回到一致性问题,即使重启了Redis实例,因为有磁盘的持久化,用户也不会看到页面加载速度的下降,这是一个极大改进,类似PHP本地FPC。
再次以Magento为例,Magento提供一个插件来使用Redis作为全页缓存后端。
此外,对WordPress的用户来说,Pantheon有一个非常好的插件 wp-redis,这个插件能帮助你以最快速度加载你曾浏览过的页面。
(3)、队列
Reids在内存存储引擎领域的一大优点是提供 list 和 set 操作,这使得Redis能作为一个很好的消息队列平台来使用。Redis作为队列使用的操作,就类似于本地程序语言(如Python)对 list 的 push/pop 操作。
如果你快速的在Google中搜索“Redis queues”,你马上就能找到大量的开源项目,这些项目的目的就是利用Redis创建非常好的后端工具,以满足各种队列需求。例如,Celery有一个后台就是使用Redis作为broker,你可以从这里去查看。
(4),排行榜/计数器
Redis在内存中对数字进行递增或递减的操作实现的非常好。集合(Set)和有序集合(Sorted Set)也使得我们在执行这些操作的时候变的非常简单,Redis只是正好提供了这两种数据结构。所以,我们要从排序集合中获取到排名最靠前的10个用户–我们称之为“user_scores”,我们只需要像下面一样执行即可:
当然,这是假定你是根据你用户的分数做递增的排序。如果你想返回用户及用户的分数,你需要这样执行:
ZRANGE user_scores 0 10 WITHSCORES
Agora Games就是一个很好的例子,用Ruby实现的,它的排行榜就是使用Redis来存储数据的,你可以在这里看到。
(5)、发布/订阅
最后(但肯定不是最不重要的)是Redis的发布/订阅功能。发布/订阅的使用场景确实非常多。我已看见人们在社交网络连接中使用,还可作为基于发布/订阅的脚本触发器,甚至用Redis的发布/订阅功能来建立聊天系统!(不,这是真的,你可以去核实)。
Redis提供的所有特性中,我感觉这个是喜欢的人最少的一个,虽然它为用户提供如果此多功能。
redis优势及应用场景
wget http://download.redis.io/releases/redis-3.0.6.tar.gz
tar xzf redis-3.0.6.tar.gz
cd redis-3.0.6
make
启动服务端
src/redis-server
启动客户端
src/redis-cli
redis> set foo bar
OK
redis> get foo
"bar"
sudo pip install redis
or
sudo easy_install redis
or
源码安装
详见:https://github.com/WoLpH/redis-py
API使用
redis-py 的API的使用可以分类为:
1、操作模式
redis-py提供两个类Redis和StrictRedis用于实现Redis的命令,StrictRedis用于实现大部分官方的命令,并使用官方的语法和命令,Redis是StrictRedis的子类,用于向后兼容旧版本的redis-py。
#!/usr/bin/env python
import redis
r = redis.Redis(host='10.211.55.4', port=6379)
r.set('foo', 'Bar')
print r.get('foo')
2、连接池
redis-py使用connection pool来管理对一个redis server的所有连接,避免每次建立、释放连接的开销。默认,每个Redis实例都会维护一个自己的连接池。可以直接建立一个连接池,然后作为参数Redis,这样就可以实现多个Redis实例共享一个连接池。
#!/usr/bin/env python
import redis
pool = redis.ConnectionPool(host='10.211.55.4', port=6379)
r = redis.Redis(connection_pool=pool)
r.set('foo', 'Bar')
print r.get('foo')
3、操作
String操作,redis中的String在在内存中按照一个name对应一个value来存储。如图:
set(name, value, ex=None, px=None, nx=False, xx=False)
在Redis中设置值,默认,不存在则创建,存在则修改
参数:
ex,过期时间(秒)
px,过期时间(毫秒)
nx,如果设置为True,则只有name不存在时,当前set操作才执行
xx,如果设置为True,则只有name存在时,岗前set操作才执行
setnx(name, value)
设置值,只有name不存在时,执行设置操作(添加)
setex(name, value, time)
# 设置值
# time,过期时间(数字秒 或 timedelta对象)
mset(*args, **kwargs)
批量设置值
如:
mset(k1='v1', k2='v2')
或
mget({'k1': 'v1', 'k2': 'v2'})
get(name)
获取值
mget(keys, *args)
批量获取
如:
mget('ylr', 'wupeiqi')
或
r.mget(['ylr', 'wupeiqi'])
getset(name, value)
设置新值并获取原来的值
getrange(key, start, end)
# 获取子序列(根据字节获取,非字符)
# name,Redis 的 name
# start,起始位置(字节)
# end,结束位置(字节)
setrange(name, offset, value)
# 修改字符串内容,从指定字符串索引开始向后替换(新值太长时,则向后添加)
# offset,字符串的索引,字节(一个汉字三个字节)
# value,要设置的值
setbit(name, offset, value)
# 对name对应值的二进制表示的位进行操作
# name,redis的name
# offset,位的索引(将值变换成二进制后再进行索引)
# value,值只能是 1 或 0
那么字符串foo的二进制表示为:01100110 01101111 01101111
所以,如果执行 setbit('n1', 7, 1),则就会将第7位设置为1,
那么最终二进制则变成 01100111 01101111 01101111,即:"goo"
# source = "武沛齐"
source = "foo"
for i in source:
num = ord(i)
print bin(num).replace('b','')
特别的,如果source是汉字 "武沛齐"怎么办?
答:对于utf-8,每一个汉字占 3 个字节,那么 "武沛齐" 则有 9个字节
对于汉字,for循环时候会按照 字节 迭代,那么在迭代时,将每一个字节转换 十进制数,然后再将十进制数转换成二进制
11100110 10101101 10100110 11100110 10110010 10011011 11101001 10111101 10010000
-------------------------- ----------------------------- -----------------------------
getbit(name, offset)
# 获取name对应的值的二进制表示中的某位的值 (0或1)
bitcount(key, start=None, end=None)
# 获取name对应的值的二进制表示中 1 的个数
# key,Redis的name
# start,位起始位置
# end,位结束位置
bitop(operation, dest, *keys)
# 获取多个值,并将值做位运算,将最后的结果保存至新的name对应的值
# operation,AND(并) 、 OR(或) 、 NOT(非) 、 XOR(异或)
# dest, 新的Redis的name
# \*keys,要查找的Redis的name
bitop("AND", 'new\_name', 'n1', 'n2', 'n3')
# 获取Redis中n1,n2,n3对应的值,然后讲所有的值做位运算(求并集),然后将结果保存 new\_name 对应的值中
strlen(name)
# 返回name对应值的字节长度(一个汉字3个字节)
incr(self, name, amount=1)
# 自增 name对应的值,当name不存在时,则创建name=amount,否则,则自增。
# name,Redis的name
# amount,自增数(必须是整数)
incrbyfloat(self, name, amount=1.0)
# 自增 name对应的值,当name不存在时,则创建name=amount,否则,则自增。
# name,Redis的name
# amount,自增数(浮点型)
decr(self, name, amount=1)
# 自减 name对应的值,当name不存在时,则创建name=amount,否则,则自减。
# name,Redis的name
# amount,自减数(整数)
append(key, value)
# 在redis name对应的值后面追加内容
key, redis的name
value, 要追加的字符串
Hash操作,redis中Hash在内存中的存储格式如下图:
hset(name, key, value)
# name对应的hash中设置一个键值对(不存在,则创建;否则,修改)
# name,redis的name
# key,name对应的hash中的key
# value,name对应的hash中的value
# hsetnx(name, key, value),当name对应的hash中不存在当前key时则创建(相当于添加)
hmset(name, mapping)
# 在name对应的hash中批量设置键值对
# name,redis的name
# mapping,字典,如:{'k1':'v1', 'k2': 'v2'}
# r.hmset('xx', {'k1':'v1', 'k2': 'v2'})
hget(name,key)
# 在name对应的hash中获取根据key获取value
hmget(name, keys, *args)
# 在name对应的hash中获取多个key的值
# name,reids对应的name
# keys,要获取key集合,如:\['k1', 'k2', 'k3'\]
# \*args,要获取的key,如:k1,k2,k3
# r.mget('xx', \['k1', 'k2'\])
# 或
# print r.hmget('xx', 'k1', 'k2')
hgetall(name)
获取name对应hash的所有键值
hlen(name)
# 获取name对应的hash中键值对的个数
hkeys(name)
# 获取name对应的hash中所有的key的值
hvals(name)
# 获取name对应的hash中所有的value的值
hexists(name, key)
# 检查name对应的hash是否存在当前传入的key
hdel(name,*keys)
# 将name对应的hash中指定key的键值对删除
hincrby(name, key, amount=1)
# 自增name对应的hash中的指定key的值,不存在则创建key=amount
# name,redis中的name
# key, hash对应的key
# amount,自增数(整数)
hincrbyfloat(name, key, amount=1.0)
# 自增name对应的hash中的指定key的值,不存在则创建key=amount
# name,redis中的name
# key, hash对应的key
# amount,自增数(浮点数)
hscan(name, cursor=0, match=None, count=None)
# 增量式迭代获取,对于数据大的数据非常有用,hscan可以实现分片的获取数据,并非一次性将数据全部获取完,从而放置内存被撑爆
# name,redis的name
# cursor,游标(基于游标分批取获取数据)
# match,匹配指定key,默认None 表示所有的key
# count,每次分片最少获取个数,默认None表示采用Redis的默认分片个数
# 第一次:cursor1, data1 = r.hscan('xx', cursor=0, match=None, count=None)
# 第二次:cursor2, data1 = r.hscan('xx', cursor=cursor1, match=None, count=None)
# ...
# 直到返回值cursor的值为0时,表示数据已经通过分片获取完毕
hscan_iter(name, match=None, count=None)
# 利用yield封装hscan创建生成器,实现分批去redis中获取数据
# match,匹配指定key,默认None 表示所有的key
# count,每次分片最少获取个数,默认None表示采用Redis的默认分片个数
# for item in r.hscan\_iter('xx'):
# print item
List操作,redis中的List在在内存中按照一个name对应一个List来存储。如图:
lpush(name,values)
# 在name对应的list中添加元素,每个新的元素都添加到列表的最左边
# r.lpush('oo', 11,22,33)
# 保存顺序为: 33,22,11
# rpush(name, values) 表示从右向左操作
llen(name)
# name对应的list元素的个数
linsert(name, where, refvalue, value))
# 在name对应的列表的某一个值前或后插入一个新值
# name,redis的name
# where,BEFORE或AFTER
# refvalue,标杆值,即:在它前后插入数据
# value,要插入的数据
r.lset(name, index, value)
# 对name对应的list中的某一个索引位置重新赋值
# name,redis的name
# index,list的索引位置
# value,要设置的值
r.lrem(name, value, num)
# 在name对应的list中删除指定的值
# name,redis的name
# value,要删除的值
# num, num=0,删除列表中所有的指定值;
# num=2,从前到后,删除2个;
# num=-2,从后向前,删除2个
lpop(name)
# 在name对应的列表的左侧获取第一个元素并在列表中移除,返回值则是第一个元素
# rpop(name) 表示从右向左操作
lindex(name, index)
在name对应的列表中根据索引获取列表元素
lrange(name, start, end)
# 在name对应的列表分片获取数据
# name,redis的name
# start,索引的起始位置
# end,索引结束位置
ltrim(name, start, end)
# 在name对应的列表中移除没有在start-end索引之间的值
# name,redis的name
# start,索引的起始位置
# end,索引结束位置
rpoplpush(src, dst)
# 从一个列表取出最右边的元素,同时将其添加至另一个列表的最左边
# src,要取数据的列表的name
# dst,要添加数据的列表的name
blpop(keys, timeout)
# 将多个列表排列,按照从左到右去pop对应列表的元素
# keys,redis的name的集合
# timeout,超时时间,当元素所有列表的元素获取完之后,阻塞等待列表内有数据的时间(秒), 0 表示永远阻塞
# r.brpop(keys, timeout),从右向左获取数据
brpoplpush(src, dst, timeout=0)
# 从一个列表的右侧移除一个元素并将其添加到另一个列表的左侧
# src,取出并要移除元素的列表对应的name
# dst,要插入元素的列表对应的name
# timeout,当src对应的列表中没有数据时,阻塞等待其有数据的超时时间(秒),0 表示永远阻塞
自定义增量迭代
# 由于redis类库中没有提供对列表元素的增量迭代,如果想要循环name对应的列表的所有元素,那么就需要:
# 1、获取name对应的所有列表
# 2、循环列表
def list_iter(name):
"""
自定义redis列表增量迭代
:param name: redis中的name,即:迭代name对应的列表
:return: yield 返回 列表元素
"""
list_count = r.llen(name)
for index in xrange(list_count):
yield r.lindex(name, index)
for item in list_iter('pp'):
print item
Set操作,Set集合就是不允许重复的列表
sadd(name,values)
# name对应的集合中添加元素
scard(name)
获取name对应的集合中元素个数
sdiff(keys, *args)
在第一个name对应的集合中且不在其他name对应的集合的元素集合
sdiffstore(dest, keys, *args)
# 获取第一个name对应的集合中且不在其他name对应的集合,再将其新加入到dest对应的集合中
sinter(keys, *args)
# 获取多一个name对应集合的并集
sinterstore(dest, keys, *args)
# 获取多一个name对应集合的并集,再讲其加入到dest对应的集合中
sismember(name, value)
# 检查value是否是name对应的集合的成员
smembers(name)
# 获取name对应的集合的所有成员
smove(src, dst, value)
# 将某个成员从一个集合中移动到另外一个集合
spop(name)
# 从集合的右侧(尾部)移除一个成员,并将其返回
srandmember(name, numbers)
# 从name对应的集合中随机获取 numbers 个元素
srem(name, values)
# 在name对应的集合中删除某些值
sunion(keys, *args)
# 获取多一个name对应的集合的并集
sunionstore(dest,keys, *args)
# 获取多一个name对应的集合的并集,并将结果保存到dest对应的集合中
sscan(name, cursor=0, match=None, count=None)
sscan_iter(name, match=None, count=None)
# 同字符串的操作,用于增量迭代分批获取元素,避免内存消耗太大
有序集合,在集合的基础上,为每元素排序;元素的排序需要根据另外一个值来进行比较,所以,对于有序集合,每一个元素有两个值,即:值和分数,分数专门用来做排序。
zadd(name, *args, **kwargs)
# 在name对应的有序集合中添加元素
# zadd('zz', 'n1', 1, 'n2', 2)
# 或
# zadd('zz', n1=11, n2=22)
zcard(name)
# 获取name对应的有序集合元素的数量
zcount(name, min, max)
# 获取name对应的有序集合中分数 在 [min,max] 之间的个数
zincrby(name, value, amount)
# 自增name对应的有序集合的 name 对应的分数
r.zrange( name, start, end, desc=False, withscores=False, score_cast_func=float)
# 按照索引范围获取name对应的有序集合的元素
# name,redis的name
# start,有序集合索引起始位置(非分数)
# end,有序集合索引结束位置(非分数)
# desc,排序规则,默认按照分数从小到大排序
# withscores,是否获取元素的分数,默认只获取元素的值
# score\_cast\_func,对分数进行数据转换的函数
# 从大到小排序
# zrevrange(name, start, end, withscores=False, score\_cast\_func=float)
# 按照分数范围获取name对应的有序集合的元素
# zrangebyscore(name, min, max, start=None, num=None, withscores=False, score\_cast\_func=float)
# 从大到小排序
# zrevrangebyscore(name, max, min, start=None, num=None, withscores=False, score\_cast\_func=float)
zrank(name, value)
# 获取某个值在 name对应的有序集合中的排行(从 0 开始)
# zrevrank(name, value),从大到小排序
zrangebylex(name, min, max, start=None, num=None)
# 当有序集合的所有成员都具有相同的分值时,有序集合的元素会根据成员的 值 (lexicographical ordering)来进行排序,而这个命令则可以返回给定的有序集合键 key 中, 元素的值介于 min 和 max 之间的成员
# name,redis的name
# min,左区间(值)。 + 表示正无限; - 表示负无限; ( 表示开区间; \[ 则表示闭区间
# min,右区间(值)
# start,对结果进行分片处理,索引位置
# num,对结果进行分片处理,索引后面的num个元素
# ZADD myzset 0 aa 0 ba 0 ca 0 da 0 ea 0 fa 0 ga
# r.zrangebylex('myzset', "-", "\[ca") 结果为:\['aa', 'ba', 'ca'\]
# 从大到小排序
# zrevrangebylex(name, max, min, start=None, num=None)
zrem(name, values)
# 删除name对应的有序集合中值是values的成员
zremrangebyrank(name, min, max)
# 根据排行范围删除
zremrangebyscore(name, min, max)
# 根据分数范围删除
zremrangebylex(name, min, max)
# 根据值返回删除
zscore(name, value)
# 获取name对应有序集合中 value 对应的分数
zinterstore(dest, keys, aggregate=None)
# 获取两个有序集合的交集,如果遇到相同值不同分数,则按照aggregate进行操作
zunionstore(dest, keys, aggregate=None)
# 获取两个有序集合的并集,如果遇到相同值不同分数,则按照aggregate进行操作
zscan(name, cursor=0, match=None, count=None, score_cast_func=float)
zscan_iter(name, match=None, count=None,score_cast_func=float)
# 同字符串相似,相较于字符串新增score_cast_func,用来对分数进行操作
其他常用操作
delete(*names)
# 根据删除redis中的任意数据类型
exists(name)
# 检测redis的name是否存在
keys(pattern='*')
# 根据模型获取redis的name
# KEYS \* 匹配数据库中所有 key 。
# KEYS h?llo 匹配 hello , hallo 和 hxllo 等。
# KEYS h\*llo 匹配 hllo 和 heeeeello 等。
# KEYS h\[ae\]llo 匹配 hello 和 hallo ,但不匹配 hillo
expire(name ,time)
# 为某个redis的某个name设置超时时间
rename(src, dst)
# 对redis的name重命名为
move(name, db))
# 将redis的某个值移动到指定的db下
randomkey()
# 随机获取一个redis的name(不删除)
type(name)
# 获取name对应值的类型
scan(cursor=0, match=None, count=None)
scan_iter(match=None, count=None)
# 同字符串操作,用于增量迭代获取key
4、管道
redis-py默认在执行每次请求都会创建(连接池申请连接)和断开(归还连接池)一次连接操作,如果想要在一次请求中指定多个命令,则可以使用pipline实现一次请求指定多个命令,并且默认情况下一次pipline 是原子性操作。
#!/usr/bin/env python
import redis
pool = redis.ConnectionPool(host='10.211.55.4', port=6379)
r = redis.Redis(connection_pool=pool)
pipe = r.pipeline(transaction=True)
pipe.multi()
pipe.set('name', 'alex')
pipe.set('role', 'sb')
pipe.execute()
#!/usr/bin/env python
import redis
conn = redis.Redis(host='192.168.1.41',port=6379)
conn.set('count',1000)
with conn.pipeline() as pipe:
# 先监视,自己的值没有被修改过
conn.watch('count')
# 事务开始
pipe.multi()
old\_count = conn.get('count')
count = int(old\_count)
if count > 0: # 有库存
pipe.set('count', count - 1)
# 执行,把所有命令一次性推送过去
pipe.execute()
实现计数器
5、发布订阅
发布者:服务器
订阅者:Dashboad和数据处理
Demo如下:
#!/usr/bin/env python
import redis
class RedisHelper:
def \_\_init\_\_(self):
self.\_\_conn = redis.Redis(host='10.211.55.4')
self.chan\_sub = 'fm104.5'
self.chan\_pub = 'fm104.5'
def public(self, msg):
self.\_\_conn.publish(self.chan\_pub, msg)
return True
def subscribe(self):
pub = self.\_\_conn.pubsub()
pub.subscribe(self.chan\_sub)
pub.parse\_response()
return pub
RedisHelper
订阅者:
#!/usr/bin/env python
from monitor.RedisHelper import RedisHelper
obj = RedisHelper()
redis_sub = obj.subscribe()
while True:
msg= redis_sub.parse_response()
print msg
发布者:
#!/usr/bin/env python
from monitor.RedisHelper import RedisHelper
obj = RedisHelper()
obj.public('hello')
6. sentinel
redis重的sentinel主要用于在redis主从复制中,如果master顾上,则自动将slave替换成master
#!/usr/bin/env python
from redis.sentinel import Sentinel
sentinel = Sentinel([('10.211.55.20', 26379),
('10.211.55.20', 26380),
],
socket_timeout=0.5)
更多参见:https://github.com/andymccurdy/redis-py/
RabbitMQ是一个在AMQP基础上完整的,可复用的企业消息系统。他遵循Mozilla Public License开源协议。
MQ全称为Message Queue, 消息队列(MQ)是一种应用程序对应用程序的通信方法。应用程序通过读写出入队列的消息(针对应用程序的数据)来通信,而无需专用连接来链接它们。消 息传递指的是程序之间通过在消息中发送数据进行通信,而不是通过直接调用彼此来通信,直接调用通常是用于诸如远程过程调用的技术。排队指的是应用程序通过 队列来通信。队列的使用除去了接收和发送应用程序同时执行的要求。
RabbitMQ安装
安装配置epel源
$ rpm -ivh http://dl.fedoraproject.org/pub/epel/6/i386/epel-release-6-8.noarch.rpm
安装erlang
$ yum -y install erlang
安装RabbitMQ
$ yum -y install rabbitmq-server
注意:service rabbitmq-server start/stop
安装API
pip install pika
or
easy_install pika
or
源码
https://pypi.python.org/pypi/pika
使用API操作RabbitMQ
基于Queue实现生产者消费者模型
#!/usr/bin/env python
import Queue
import threading
message = Queue.Queue(10)
def producer(i):
while True:
message.put(i)
def consumer(i):
while True:
msg = message.get()
for i in range(12):
t = threading.Thread(target=producer, args=(i,))
t.start()
for i in range(10):
t = threading.Thread(target=consumer, args=(i,))
t.start()
对于RabbitMQ来说,生产和消费不再针对内存里的一个Queue对象,而是某台服务器上的RabbitMQ Server实现的消息队列。
#!/usr/bin/env python
import pika
connection = pika.BlockingConnection(pika.ConnectionParameters(
host='localhost'))
channel = connection.channel()
channel.queue_declare(queue='hello')
channel.basic_publish(exchange='',
routing_key='hello',
body='Hello World!')
print(" [x] Sent 'Hello World!'")
connection.close()
# ########################## 消费者 ##########################
connection = pika.BlockingConnection(pika.ConnectionParameters(
host='localhost'))
channel = connection.channel()
channel.queue_declare(queue='hello')
def callback(ch, method, properties, body):
print(" [x] Received %r" % body)
channel.basic_consume(callback,
queue='hello',
no_ack=True)
print(' [*] Waiting for messages. To exit press CTRL+C')
channel.start_consuming()
1、acknowledgment 消息不丢失
no-ack = False,如果消费者遇到情况(its channel is closed, connection is closed, or TCP connection is lost)挂掉了,那么,RabbitMQ会重新将该任务添加到队列中。
import pika
connection = pika.BlockingConnection(pika.ConnectionParameters(
host='10.211.55.4'))
channel = connection.channel()
channel.queue_declare(queue='hello')
def callback(ch, method, properties, body):
print(" [x] Received %r" % body)
import time
time.sleep(10)
print 'ok'
ch.basic_ack(delivery_tag = method.delivery_tag)
channel.basic_consume(callback,
queue='hello',
no_ack=False)
print(' [*] Waiting for messages. To exit press CTRL+C')
channel.start_consuming()
消费者
消费者
2、durable 消息不丢失
#!/usr/bin/env python
import pika
connection = pika.BlockingConnection(pika.ConnectionParameters(host='10.211.55.4'))
channel = connection.channel()
channel.queue_declare(queue='hello', durable=True)
channel.basic_publish(exchange='',
routing_key='hello',
body='Hello World!',
properties=pika.BasicProperties(
delivery_mode=2, # make message persistent
))
print(" [x] Sent 'Hello World!'")
connection.close()
生产者
生产者
#!/usr/bin/env python
import pika
connection = pika.BlockingConnection(pika.ConnectionParameters(host='10.211.55.4'))
channel = connection.channel()
channel.queue_declare(queue='hello', durable=True)
def callback(ch, method, properties, body):
print(" [x] Received %r" % body)
import time
time.sleep(10)
print 'ok'
ch.basic_ack(delivery_tag = method.delivery_tag)
channel.basic_consume(callback,
queue='hello',
no_ack=False)
print(' [*] Waiting for messages. To exit press CTRL+C')
channel.start_consuming()
消费者
消费者
3、消息获取顺序
默认消息队列里的数据是按照顺序被消费者拿走,例如:消费者1 去队列中获取 奇数 序列的任务,消费者1去队列中获取 偶数 序列的任务。
channel.basic_qos(prefetch_count=1) 表示谁来谁取,不再按照奇偶数排列
#!/usr/bin/env python
import pika
connection = pika.BlockingConnection(pika.ConnectionParameters(host='10.211.55.4'))
channel = connection.channel()
channel.queue_declare(queue='hello')
def callback(ch, method, properties, body):
print(" [x] Received %r" % body)
import time
time.sleep(10)
print 'ok'
ch.basic_ack(delivery_tag = method.delivery_tag)
channel.basic_qos(prefetch_count=1)
channel.basic_consume(callback,
queue='hello',
no_ack=False)
print(' [*] Waiting for messages. To exit press CTRL+C')
channel.start_consuming()
消费者
消费者
4、发布订阅
发布订阅和简单的消息队列区别在于,发布订阅会将消息发送给所有的订阅者,而消息队列中的数据被消费一次便消失。所以,RabbitMQ实现发布和订阅时,会为每一个订阅者创建一个队列,而发布者发布消息时,会将消息放置在所有相关队列中。
exchange type = fanout
#!/usr/bin/env python
import pika
import sys
connection = pika.BlockingConnection(pika.ConnectionParameters(
host='localhost'))
channel = connection.channel()
channel.exchange_declare(exchange='logs',
type='fanout')
message = ' '.join(sys.argv[1:]) or "info: Hello World!"
channel.basic_publish(exchange='logs',
routing_key='',
body=message)
print(" [x] Sent %r" % message)
connection.close()
发布者
发布者
#!/usr/bin/env python
import pika
connection = pika.BlockingConnection(pika.ConnectionParameters(
host='localhost'))
channel = connection.channel()
channel.exchange_declare(exchange='logs',
type='fanout')
result = channel.queue_declare(exclusive=True)
queue_name = result.method.queue
channel.queue_bind(exchange='logs',
queue=queue_name)
print(' [*] Waiting for logs. To exit press CTRL+C')
def callback(ch, method, properties, body):
print(" [x] %r" % body)
channel.basic_consume(callback,
queue=queue_name,
no_ack=True)
channel.start_consuming()
订阅者
订阅者
5、关键字发送
exchange type = direct
之前事例,发送消息时明确指定某个队列并向其中发送消息,RabbitMQ还支持根据关键字发送,即:队列绑定关键字,发送者将数据根据关键字发送到消息exchange,exchange根据 关键字 判定应该将数据发送至指定队列。
#!/usr/bin/env python
import pika
import sys
connection = pika.BlockingConnection(pika.ConnectionParameters(
host='localhost'))
channel = connection.channel()
channel.exchange_declare(exchange='direct_logs',
type='direct')
result = channel.queue_declare(exclusive=True)
queue_name = result.method.queue
severities = sys.argv[1:]
if not severities:
sys.stderr.write("Usage: %s [info] [warning] [error]\n" % sys.argv[0])
sys.exit(1)
for severity in severities:
channel.queue_bind(exchange='direct_logs',
queue=queue_name,
routing_key=severity)
print(' [*] Waiting for logs. To exit press CTRL+C')
def callback(ch, method, properties, body):
print(" [x] %r:%r" % (method.routing_key, body))
channel.basic_consume(callback,
queue=queue_name,
no_ack=True)
channel.start_consuming()
消费者
消费者
#!/usr/bin/env python
import pika
import sys
connection = pika.BlockingConnection(pika.ConnectionParameters(
host='localhost'))
channel = connection.channel()
channel.exchange_declare(exchange='direct_logs',
type='direct')
severity = sys.argv[1] if len(sys.argv) > 1 else 'info'
message = ' '.join(sys.argv[2:]) or 'Hello World!'
channel.basic_publish(exchange='direct_logs',
routing_key=severity,
body=message)
print(" [x] Sent %r:%r" % (severity, message))
connection.close()
生产者
生产者
6、模糊匹配
exchange type = topic
在topic类型下,可以让队列绑定几个模糊的关键字,之后发送者将数据发送到exchange,exchange将传入”路由值“和 ”关键字“进行匹配,匹配成功,则将数据发送到指定队列。
发送者路由值 队列中
old.boy.python old.* -- 不匹配
old.boy.python old.# -- 匹配
#!/usr/bin/env python
import pika
import sys
connection = pika.BlockingConnection(pika.ConnectionParameters(
host='localhost'))
channel = connection.channel()
channel.exchange_declare(exchange='topic_logs',
type='topic')
result = channel.queue_declare(exclusive=True)
queue_name = result.method.queue
binding_keys = sys.argv[1:]
if not binding_keys:
sys.stderr.write("Usage: %s [binding_key]…\n" % sys.argv[0])
sys.exit(1)
for binding_key in binding_keys:
channel.queue_bind(exchange='topic_logs',
queue=queue_name,
routing_key=binding_key)
print(' [*] Waiting for logs. To exit press CTRL+C')
def callback(ch, method, properties, body):
print(" [x] %r:%r" % (method.routing_key, body))
channel.basic_consume(callback,
queue=queue_name,
no_ack=True)
channel.start_consuming()
消费者
消费者
#!/usr/bin/env python
import pika
import sys
connection = pika.BlockingConnection(pika.ConnectionParameters(
host='localhost'))
channel = connection.channel()
channel.exchange_declare(exchange='topic_logs',
type='topic')
routing_key = sys.argv[1] if len(sys.argv) > 1 else 'anonymous.info'
message = ' '.join(sys.argv[2:]) or 'Hello World!'
channel.basic_publish(exchange='topic_logs',
routing_key=routing_key,
body=message)
print(" [x] Sent %r:%r" % (routing_key, message))
connection.close()
生产者
生产者
注意:
sudo rabbitmqctl add_user alex 123
sudo rabbitmqctl set_user_tags alex administrator
sudo rabbitmqctl set_permissions -p "/" alex '.''.''.'
sudo /etc/init.d/rabbitmq-server restart
credentials = pika.PlainCredentials("alex","")
connection = pika.BlockingConnection(pika.ConnectionParameters('192.168.14.47',credentials=credentials))
MySQL是一个关系型数据库管理系统,由瑞典MySQL AB 公司开发,目前属于 Oracle 旗下公司。MySQL 最流行的关系型数据库管理系统,在 WEB 应用方面MySQL是最好的 RDBMS (Relational Database Management System,关系数据库管理系统) 应用软件之一。
想要使用MySQL来存储并操作数据,则需要做几件事情:
a. 安装MySQL服务端
b. 安装MySQL客户端
b. 【客户端】连接【服务端】
c. 【客户端】发送命令给【服务端MySQL】服务的接受命令并执行相应操作(增删改查等)
下载
http://dev.mysql.com/downloads/mysql/
安装
windows:
点点点
Linux:
yum install mysql-server
Mac:
点点点
Window版本
1、下载
MySQL Community Server 5.7.16
http://dev.mysql.com/downloads/mysql/
2、解压
如果想要让MySQL安装在指定目录,那么就将解压后的文件夹移动到指定目录,如:C:\mysql-5.7.16-winx64
3、初始化
MySQL解压后的 bin 目录下有一大堆的可执行文件,执行如下命令初始化数据:
cd c:\mysql-5.7.16-winx64\bin
mysqld --initialize-insecure
4、启动MySQL服务
执行命令从而启动MySQL服务
# 进入可执行文件目录
cd c:\mysql-5.7.16-winx64\bin
mysqld
5、启动MySQL客户端并连接MySQL服务
由于初始化时使用的【mysqld --initialize-insecure】命令,其默认未给root账户设置密码
# 进入可执行文件目录
cd c:\mysql-5.7.16-winx64\bin
mysql -u root -p
输入回车,见下图表示安装成功:
到此为止,MySQL服务端已经安装成功并且客户端已经可以连接上,以后再操作MySQL时,只需要重复上述4、5步骤即可。但是,在4、5步骤中重复的进入可执行文件目录比较繁琐,如想日后操作简便,可以做如下操作。
a. 添加环境变量
将MySQL可执行文件添加到环境变量中,从而执行执行命令即可
【右键计算机】--》【属性】--》【高级系统设置】--》【高级】--》【环境变量】--》【在第二个内容框中找到 变量名为Path 的一行,双击】 --> 【将MySQL的bin目录路径追加到变值值中,用 ; 分割】
如:
C:\Program Files (x86)\Parallels\Parallels Tools\Applications;%SystemRoot%\system32;%SystemRoot%;%SystemRoot%\System32\Wbem;%SYSTEMROOT%\System32\WindowsPowerShell\v1.0\;C:\Python27;C:\Python35;C:\mysql-5.7.16-winx64\bin
如此一来,以后再启动服务并连接时,仅需:
# 启动MySQL服务,在终端输入
mysqld
mysql -u root -p
b. 将MySQL服务制作成windows服务
上一步解决了一些问题,但不够彻底,因为在执行【mysqd】启动MySQL服务器时,当前终端会被hang住,那么做一下设置即可解决此问题:
# 制作MySQL的Windows服务,在终端执行此命令:
"c:\mysql-5.7.16-winx64\bin\mysqld" --install
"c:\mysql-5.7.16-winx64\bin\mysqld" --remove
注册成服务之后,以后再启动和关闭MySQL服务时,仅需执行如下命令:
# 启动MySQL服务
net start mysql
net stop mysql
Linux版本
安装:
yum install mysql-server
服务端启动
mysql.server start
客户端连接
连接:
mysql -h host -u user -p
常见错误:
ERROR 2002 (HY000): Can't connect to local MySQL server through socket '/tmp/mysql.sock' (2), it means that the MySQL server daemon (Unix) or service (Windows) is not running.
退出:
QUIT 或者 Control+D
1、显示数据库
SHOW DATABASES;
默认数据库:
mysql - 用户权限相关数据
test - 用于用户测试数据
information_schema - MySQL本身架构相关数据
2、创建数据库
# utf-8
CREATE DATABASE 数据库名称 DEFAULT CHARSET utf8 COLLATE utf8_general_ci;
CREATE DATABASE 数据库名称 DEFAULT CHARACTER SET gbk COLLATE gbk_chinese_ci;
3、使用数据库
USE db_name;
显示当前使用的数据库中所有表:SHOW TABLES;
4、用户管理
创建用户
create user '用户名'@'IP地址' identified by '密码';
删除用户
drop user '用户名'@'IP地址';
修改用户
rename user '用户名'@'IP地址'; to '新用户名'@'IP地址';;
修改密码
set password for '用户名'@'IP地址' = Password('新密码')
PS:用户权限相关数据保存在mysql数据库的user表中,所以也可以直接对其进行操作(不建议)
5、授权管理
show grants for '用户'@'IP地址' -- 查看权限
grant 权限 on 数据库.表 to '用户'@'IP地址' -- 授权
revoke 权限 on 数据库.表 from '用户'@'IP地址' -- 取消权限
all privileges 除grant外的所有权限
select 仅查权限
select,insert 查和插入权限
…
usage 无访问权限
alter 使用alter table
alter routine 使用alter procedure和drop procedure
create 使用create table
create routine 使用create procedure
create temporary tables 使用create temporary tables
create user 使用create user、drop user、rename user和revoke all privileges
create view 使用create view
delete 使用delete
drop 使用drop table
execute 使用call和存储过程
file 使用select into outfile 和 load data infile
grant option 使用grant 和 revoke
index 使用index
insert 使用insert
lock tables 使用lock table
process 使用show full processlist
select 使用select
show databases 使用show databases
show view 使用show view
update 使用update
reload 使用flush
shutdown 使用mysqladmin shutdown(关闭MySQL)
super
手机扫一扫
移动阅读更方便
你可能感兴趣的文章