正如你可能之前看到的,Discord去年发布了一篇有价值的文章,讨论了他们成功存储了数万亿条消息。虽然有很多关于这篇文章的YouTube视频和文章,但我认为这篇文章中一个名为“数据服务为数据服务”的部分没有得到足够的关注。在这篇文章中,我们将讨论Discord对数据服务的方法,并探讨如何利用Golang的并发特性来减少特定情况下的数据库负载。

数据服务拯救热分区

如你所知,消息和频道是Discord中最常用的组件。让我们想象一个场景:一个拥有50万成员的频道的管理员提到@everyone。会发生什么?成千上万个同时的请求直接指向那个数据库分区,所有请求的目标都是检索相同的消息。这种模式重复发生,直到该分区无法回应其他请求。

Discord引入了一个位于Python API和数据库集群之间的中间服务 — 他们称之为数据服务。这个服务大致包含每个查询一个gRPC端点,没有任何业务逻辑。对Discord来说,这个服务的重要特性就是请求合并。

请求合并

正如我们之前讨论过的,每当在一个庞大的频道中有提及时,就会有大量类似的请求直接指向数据库分区。通过合并这些请求,如果多个用户请求相同的数据库行,我们可以将这些请求合并成一个选择查询,并执行该查询。

通过使用数据服务而不是直接连接到数据库,我们可以实现许多令人兴奋的功能,比如批量查询,这些功能可以显著减少数据库开销,并改善查询的平均值,特别是第99百分位数。

使用Golang实现简单的请求合并

与许多其他公司一样,Discord使用Python作为其主要的后端语言。无论是微服务还是单体架构,后端服务通常直接连接到数据源进行查询。虽然Python确实是一种多功能语言,但在并发性方面存在一些不足。使用Python实现并发和高吞吐量的服务可能有些挑战,而性能与用C++、Rust和Golang等编译语言编写的类似服务相比,往往会较低。

在进行任何操作之前,让我们模拟一下提到的情况。假设服务总共收到了5,000个请求,其中并发数为1,000。

  • 总请求数: 5,000

  • 并发数: 1,000

  • 需要检索的唯一消息数: 100

type Message struct {
   gorm.Model

   Text string
   User string // some random properties that a message row may have}func generateRandomData(db *gorm.DB) {
 for i := 0; i < 100; i++ {
  msg := &messages.Message{Text: fmt.Sprintf("Message #%d", i)}
  db.Save(msg)
 }}1.2.3.4.5.6.7.8.9.10.11.12.13.14.

我使用Gorm构建了一个简单的数据库模型来表示Message(消息)表,然后向表中填充了100条虚拟消息。

e := echo.New()e.GET("/randomMessage", func(c echo.Context) error {
   randomMessageID := rand.Intn(100)
   var msg messages.Message   if err := db.Where("id=?", randomMessageID).First(&msg).Error; err != nil {
      return err   }
   return c.JSON(200, msg)})e.Logger.Fatal(e.Start(":1323"))1.2.3.4.5.6.7.8.9.10.

我创建了一个简单的端点来模拟对0到100之间的随机ID进行SELECT查询。现在我们可以对这个端点进行基准测试,模拟在这种情况下会发生什么。

img

  • 平均每秒请求数 (RPS): 300

  • 平均响应时间: 3.2秒

  • 50% 响应时间: 546毫秒

  • 99% 响应时间: 14.7秒

如果我们有10秒的超时策略,大约有2%的请求将收不到响应。现在让我们改变代码。Golang有一个名为“single flight”的内置包。这个包提供了重复函数调用抑制机制。一般来说,你给它一个键和一个函数,而不是多次运行该函数,SingleFlight会暂时保持其他调用,直到第一次调用完成其请求并以相同的结果作出响应。

var g = singleflight.Group{}e.GET("/randomMessage", func(c echo.Context) error {
   randomMessageID := rand.Intn(100)
   msg, err, _ := g.Do(fmt.Sprint(randomMessageID), func() (interface{}, error) {
      var msg messages.Message      if err := db.Where("id=?", randomMessageID).First(&msg).Error; err != nil {
         return nil, err      }
      return &msg, nil   })
   if err != nil {
      return err   }
   return c.JSON(200, msg)})1.2.3.4.5.6.7.8.9.10.11.12.13.14.15.


func (g *Group) Do(key string, fn func() (interface{}, error)) (v interface{}, err error, shared bool)

Do 执行并返回给定函数的结果,确保同一时间针对给定键只有一个执行过程。如果出现重复,重复的调用者会等待原始调用完成并接收相同的结果。返回值 shared 表示是否将 v 给了多个调用者。


现在让我们重新运行模拟并比较结果。

  • 平均每秒请求数 (RPS): 2309

  • 平均响应时间: 433毫秒

  • 50% 响应时间: 389毫秒

  • 99% 响应时间: 777毫秒

正如你所看到的,仅使用了一个简单的技术就将第99百分位数减少了14秒,新方法支持的每秒请求次数提高了7.6倍。

结论

从那时起我们就注意到,通过优化数据库查询,可以大大提高应用程序的整体性能。虽然我们讨论的方法是情景性的,但Discord已经使用了一年多,对他们有很大帮助。

你应该知道,如果你使用数据服务,你将面临其他的复杂情况。例如,你可能会有多个数据服务实例,而你的Python API必须有一种机制将类似的请求发送到同一个实例。