V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
Nazz
V2EX  ›  程序员

gws v1.3 update: 新增并发处理请求和异步写入特性, 不增加常驻协程

  •  
  •   Nazz · 2023-02-27 21:02:52 +08:00 · 868 次点击
    这是一个创建于 655 天前的主题,其中的信息可能已经有所发展或是发生改变。

    Feature

    • 支持并行处理请求, 控制好了并发上限
    • 不增加常驻协程的情况下, 支持异步写入

    实现原理(查看源码了解细节)

    • 并发处理请求: 并发度为 8(可配置)的任务队列
    • 异步写: 并发度为 1 的任务队列+channel

    更新下压测数据

    tcpkali -c 1000 --connect-rate 1000 -r 1000 -T 30s -f assets/1K.txt --ws 127.0.0.1:${port}/connect
    

    performance

    Nazz
        1
    Nazz  
    OP
       2023-02-27 21:11:21 +08:00 via Android
    @lesismal 500 msg/s 表现和 nbio 差不多,所以我改成了 1000😆
    lesismal
        2
    lesismal  
       2023-02-27 22:28:00 +08:00
    正常业务单个连接 1s 发 1000 个包早就被限流 close 了,-r 1000 比-r 500 更不合理+丧心病狂😆。。。

    这种非正常压测导致 tcp 缓冲区堆积时,nbio 的异步解析器需要处理更多包边界、半包缓存,可以提高 nbio 的读缓冲区 size 来提高一点,但毕竟已经是不合理测试参数,具备这种高频的场景能想到的只有 rpc 服务,但是 rpc 服务不需要太高在线量,所以用同步方案更好、不需要基于 nbio😆

    建议-r 10-50 。连接数 1000 太少了,nbio 欢迎连接数 10w 起步百万更好的压测来暴击😆
    lesismal
        3
    lesismal  
       2023-02-27 22:32:51 +08:00
    不过 nbio 的内存池,在一些极端场景需要用户自己定制限量方案,比如配置单个连接的最大包 size 相关的、发送缓冲 size ,一些参数默认是 0 、是没做限制的,所以连接太多了也是可能爆,需要带上脚镣跳舞
    Nazz
        4
    Nazz  
    OP
       2023-02-27 23:54:02 +08:00 via Android
    @lesismal 对比的是 nbio 阻塞模式,buffer size 我是用默认的 4096.
    Nazz
        5
    Nazz  
    OP
       2023-02-27 23:54:53 +08:00 via Android
    @lesismal 百万连接不是 std net 主场了
    lesismal
        6
    lesismal  
       2023-02-28 01:14:43 +08:00
    -r 这个你不考虑合理性的话,那 nbio 的异步解析器肯定吃亏的,如果非要这么卷我有点想再搞个同步解析器来兼容了😆。。。但是这除了浪费我体力没什么实际意义我不想死那么早😆。。
    Nazz
        7
    Nazz  
    OP
       2023-02-28 08:01:26 +08:00 via Android
    @lesismal 别这么卷了,下次我放-r 500 ,并列第一😅
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2512 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 25ms · UTC 13:04 · PVG 21:04 · LAX 05:04 · JFK 08:04
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.