马上双十一,教你用Python实现秒杀系统(python抢秒杀)

马上双十一,教你用Python实现秒杀系统(python抢秒杀)

坚持学习很难,养成学习习惯更难

架构搭建是重点,代码或语言实现较简单。

本篇用python redis rabbitmq搭建一个秒杀系统。 用flask编写后端,只包含秒杀相关程序,省略具体的业务接口。.

关注,转发,私信小编“01”即可免费领取python学习资料!

马上双十一,教你用Python实现秒杀系统(python抢秒杀)

项目会持续更新,完整代码见github: https://github.com/Sssmeb/seckilling

(如果觉得有帮助的话可以点个star~~~~ )

篇幅有限,不会介绍redis或rabbitmq的基本操作。 如果没学过相关知识的只需先了解以下两点,也可以看懂本架构。

  1. redis是内存型数据库,读写速度远快于mysql这类磁盘型数据库,常用来作缓存
  2. rabbitmq消息队列,可以理解为生产者消费者模型,用队列来存储任务,生产与消费解耦。

前言

在介绍架构之前,我们需要先知道秒杀系统面临的难点是什么。

首先在普通的系统中, 最大的瓶颈是在于底层的数据库端 。 因为底层数据库(比如常见的mysql)是磁盘存储的,所以读写IO较慢,而且连接数有限。

而在秒杀业务场景,最大的特点是 瞬时的高并发 ,即在短时间内会有大量的请求到来。 如果让所有请求都打到底层数据库上,很大可能数据库会直接崩掉,即使数据库能承受住大量的连接请求,但大量的请求读写都会导致大量的锁冲突,导致响应速度大大减慢。 而响应速度对于用户体验来说,无疑是十分重要的。

所以在这里,需要明确第一个目标: 让尽可能少、尽可能有效的请求打到底层数据库

当我们回头再考虑这个业务场景,其实绝大部分的请求都不应该打到底层数据库。 因为一般商品库存可能只有抢购用户数的百分之一,甚至更少。 所以我们需要一些机制、策略,提前将无效的请求返回。

而站在整个网站设计的角度,第二个目标: 越上层越容易实现,越有效。

这里的层指:

  1. 页面层
  2. 网络层
  3. 应用层
  4. 服务层
  5. 数据层

例如在前端页面层,如果不做处理,用户在点击抢购按钮以后,见网页没有响应,可能会再点击3-4次甚至更多,这样可能会导致最终有80%的请求都是重复无效的。 但只需要前端在设计时,将点击后的按钮置灰,防止用户多次点击发送请求。 即简单又有效。

以下简单指出各层可实施的策略:

  1. 页面层(简单的实现可以屏蔽 90%的请求)
  2. 按钮置灰,禁止用户重复提交
  3. 验证码
  4. 网络层
  5. 通过ip限制一定时间内的请求次数
  6. 应用层
  7. 一个页面最占用资源、带宽的是cs js 图片等静态资源
  8. 避免所有请求都到服务器的硬盘上取
  9. 动静分离,压缩缓存处理(CDN nginx
  10. 根据uid限频,页面缓存技术(web服务器 nginx)
  11. 反向代理 负载均衡 (nginx)
  12. 服务层
  13. 微服务
  14. redis
  15. 消息队列 削峰 异步处理
  16. 数据层
  17. 读写分离
  18. 分库分表
  19. 集群

每一层具体实现起来都是一个很大的架构,这里我们主要专注于服务层,使用redis 消息队列。

基础架构

马上双十一,教你用Python实现秒杀系统(python抢秒杀)

架构.png

核心: 服务异步拆分,减少耦合,使用缓存,加快响应。

避免同步 的请求执行,如: 请求→订单→支付→修改库存→结束返回,这种模型在高并发场景下,阻塞多,响应慢,服务器压力大,不可取。

这里实现的架构是: 1. 请求→返回 2. 支付→返回 3. 修改库存

这种服务拆分归功于 消息队列。 核心思想是,将接收到的请求 存储到队列中就可以响应用户了,后端在队列中取出请求再做后续操作即可。 简单理解就是,我们将请求记录下来,晚点空闲了再处理。

基础数据存储

数据、请求的存储情况如:

  1. mysql中存储商品信息、订单信息
  2. redis存入商品信息、设置计数器、存储成功订单的数据结构等
  3. rabbitmq创建队列
  • 订单队列(用户提交请求)
  • 延迟队列(订单必须在15分钟内支付)
  • 成交队列(订单支付成功,等待写入数据库)

流程

以下所有代码都是截取核心部分,完整代码参看

订单请求

redis计数器

假设我们只有100件商品库存,但可能会收到10万条抢购请求。 也就是会有将近9.9万条无效的请求,所以我们要将这些请求阻隔。

最简单的方法,也是我们使用的方法: 实现一个count变量,每个请求进入都加一,当count大于100时则直接返回失败即可 。

这里我们使用redis也是因为内存读写速度要远大于类似mysql的磁盘读写。

代码实现增加了分布式锁。相关知识可以看:https://www.jianshu.com/p/cf311cfb1689

订单队列

异步拆分服务的关键。 为了提高响应速度,我们只需要 将请求订单任务保存下来 (消息队列),就可以 直接返回用户 了。 而 不需要将请求转到后端做大量的判断、处理、数据库读写操作后才返回用户 。 所有可以 大大的加快响应速度 。 后端可以随时从队列中取出请求再做各自处理,即使等抢购活动结束再进行底层数据库读写也没有问题。

所以核心思路就是把请求放入队列,然后直接返回用户即可。

# 计数器 1flag = plus_counter(goods_id)# 成功申请if flag:# 生成唯一的订单号order_id = uuid.uuid1()# 订单信息(也是请求任务信息)order_info = {“goods_id” : goods_id,”user_id” : user_id,”order_id” : str(order_id)}try :# 进入订单队列enter_order_queue(order_info)res[ “status” ] = Trueres[ “msg” ] = “抢购成功,请在15分钟之内付款!”res[ “order_id” ] = str(order_id)return jsonify(res)except Exception as e:print( “log: ” , e)res[ “status” ] = Falseres[ “msg” ] = “抢购出错,请重试.” str(e)returnjsonify(res), 202

enter_order_queue是将订单请求(订单信息),也就是order_info发送到对应的队列。 与之对应的消费者,只需要将该订单信息写入数据库对应的订单表即可。

注意: 此时订单还没支付,所以数据库表中可以设置一个status字段,标识订单的状态。

唯一标识

不局限于uuid,可用毫秒时间戳之类的唯一标识。

可以看到上面代码中,我们利用uuid生成了一个唯一标识作为订单号,并且返回给用户。

主要的作用是:

  1. 标识订单。因为订单请求仅仅只是被我们入队列,消费者可能还没开始处理。(即订单可能还未被创建在数据库中)
  2. 返回给用户,可用于后续的支付操作。

当用户支付时需要校验用户与对应的单号是否正确,这里我们仍用redis,以提高查询速度。

所以在上面的基础上,我们需要加多一步,将订单信息写入redis。

order_info = {“goods_id” : goods_id,”user_id” : user_id,”order_id” : str(order_id)}try :# 在redis中创建这个订单create_order(order_info)enter_order_queue(order_info)res[ “status” ] = Trueres[ “msg” ] = “抢购成功,请在15分钟之内付款!”res[ “order_id” ] = str(order_id)returnjsonify(res)订单的结构这里采用字典,提高检索效率。 插入如:redis_conn.hset( “order:” str(goods_id), str(order_id), str(user_id))超时队列

正如前面所见,我们提示用户在15分钟之内支付,符合日常业务场景。

在消息队列中有延迟队列的应用,符合我们的超时需求。 所以我们同样用消息队列来实现这一业务需求。 即我们在创建订单时,同样将订单信息传入队列中。

try :

# redis保存订单信息

create_order(order_info)

# 订单队列

enter_order_queue(order_info)

# 超时队列

enter_overtime_queue(order_info)

最终,当一个订单请求通过计数器后,需要经历的三个过程如上。 无论是redis或是rabbitmq消息队列,都是内存操作,速度都是足够快的。 不需要经过数据层即可响应用户。

至此,一个订单“创建”完成。

支付请求

订单请求完成后,用户会获得订单号。 用户必须在15分钟内完成支付操作。 在执行支付时需要考虑:

  1. 检查用户和对应的订单号是否正确
  • create_order(order_info) 时,我们已将订单信息写入redis。可从这里取得数据做校验
  1. 检查订单是否超时
  • 如果我们设置的超时队列超过指定时间,则队列里的请求会被处理(消费)
  • 我们只需要将超时的单号写入redis即可做校验
  1. 支付成功入成交队列
  • 同理于订单队列。只需将成交的订单信息写入消息队列中,后续系统空闲时再写入数据库即可。
  • 也是为了提高用户响应速度,用户不需要等待数据库io完成后才收到结果。

代码流程为:

但订单通过检查、并支付完成后。 我们还需要将成交的订单写入redis,记录状态(用于其他判断)。 再将订单请求写入队列即可返回。 全程内存操作,速度快,带来了快响应。 之后,我们可以等抢购活动结束后,系统比较空闲的时间将订单同步到底层数据库,同步数据。

总览

所以两个核心的操作是:

  1. 通过rabbitmq消息队列异步拆分服务,加快了响应的速度
  2. 通过redis内存读写,减少操作时间

再总结整个框架:

  1. 用户提交订单
  • 通过redis计数器筛选
  • 成功则返回标识,然后入订单队列 超时队列
    • 标识与用户信息写入redis,用于后续验证支付
    • 订单队列,mysql监听,写入mysql的订单历史表
    • 超时订单队列有计时功能,一定时间内未支付,订单失效,抢购失败。写入redis(标志失败)
  • 失败直接返回
  • 订单服务结束
  1. 用户支付订单
  • 验证订单以及检查是否已超时(是否已在redis相关结构内)
  • 成功支付则入支付队列
    • mysql监听这个队列,执行库存同步操作。
    • 写入redis
  • 失败或超时直接返回
  • 支付服务结束

马上双十一,教你用Python实现秒杀系统(python抢秒杀)

流程

注意

  1. 代码持续更新,完整代码: https://github.com/Sssmeb/seckilling (觉得有帮助的可以给个star)
  2. 本架构只专注于服务层的业务架构,有很多没有涉及的点(高可用,数据一致性等),一个完整的抢购系统是一个非常庞大的。
  3. 文中没有介绍mysql数据层相关的操作,一方面是为了提示大家,在高并发的情景下应该尽可能的避免这类的磁盘io操作。 另一方面,mysql数据层相关操作是在消息队列 消费者进行操作的,这里不详解操作。 只注重整体架构。 具体操作见代码。

相关新闻

联系我们
联系我们
公众号
公众号
在线咨询
返回顶部