阿里云服务器称作ECS,腾讯云服务器称作CVM,都能提供安全可靠的弹性计算服务。以下从6个维度对比阿里云和腾讯云。
创新互联专业为企业提供博州网站建设、博州做网站、博州网站设计、博州网站制作等企业网站建设、网页设计与制作、博州企业网站模板建站服务,10余年博州做网站经验,不只是建网站,更提供有价值的思路和整体网络服务。
一、配置
阿里云:单实例最高可选88vCPU,内存704GB,单实例性能最高可达到700万PPS网络收发包,35Gbps带宽。
腾讯云:针对用户的不同需求,CVM 提供多种类型的实例、操作系统和软件包。各实例中的
CPU、内存、硬盘和带宽可以灵活调整。CVM 操作系统包括多种 Linux 发行版本和 Windows Server
版本,同时腾讯云市场提供第三方镜像及软件供你选择。
二、弹性
阿里云:支持分钟级别创建1000台实例,多种弹性付费选择更贴合业务现状,同时带来弹性的扩容能力,实例与带宽均可随时升降配,云盘可扩容。
腾讯云:你可以在几分钟之内快速增加或删减云服务器数量,以满足快速变化的业务需求。通过定义相关策略,你可以确保所使用的
CVM 实例数量在需求高峰期无缝扩展,保证程序的可用性;在需求平淡期自动回落,以节省成本。
三、安全性
阿里云:免费提供 DDoS
防护、木马查杀、防暴力破解等服务,通过多方国际安全认证,ECS云盘支持数据加密功能。
腾讯云:CVM 运行在一个逻辑隔离的私有网络里,通过网络访问控制列表(Access Control
List)和安全组,切实保证你云上资源的安全性。你还可以完全掌控你的私有网络环境配置,包括自定义网段划分、IP 地址和路由策略等。
四、稳定性
阿里云:单实例可用性达 99.975%,多可用区多实例可用性达 99.995%,云盘可靠性达
99.9999999%,可实现自动宕机迁移、快照备份。
腾讯云:CVM 提供达 99.95 %的服务可用性和 99.9999999% 的数据可靠性。CVM
搭载的云硬盘提供三副本存储策略,保证了数据在任一副本出现故障时快速进行迁移和恢复。CVM 搭载稳定的网络架构,采用成熟的网络虚拟化技术和网卡绑定技术,在
T3级以上数据中心中运行,保证网络高可用性。
五、易用性
阿里云:丰富的操作系统和应用软件,通过镜像可一键简单部署,同一镜像可在多台 ECS
中快速复制环境,轻松扩展。
腾讯云:用户拥有腾讯云 CVM 的管理员账号,对 CVM 有完全的控制权,您可以使用腾讯云控制台、API 或 CLI
等工具登录到您的 CVM 实例,进行网络配置更改、重启等重要操作,这样管理 CVM 就像管理操作您的计算机一样简单方便。
六、业务侧重
阿里云:电商或电商周边相关类的,阿里云发展迅猛。
腾讯云:文娱类的,腾讯云深入人心。
如果是其他业务,阿里云和腾讯云都是不错的选择。
产品服务器设置了「外网带宽使用率 = 100%,统计粒度5分钟,连续1次满足条件则每1小时告警一次」告警策略,基本上我每天都收到多条告警信息。
放大一点查看数据:
服务器部署了 web 服务 和 用于存储图片资源,报表导出和资源(平均200KB左右,非 kb)一张,部分页面有时候会放好几张图片展示。如果是连续的浏览充电站、商城,或者导出报表,是很容易触发2次峰值而导致报警的。
刚才只是大约估计了一下可能的情况,排查问题还是要系统地去看,需要挑选了告警的时间区间,分别进行数据统计。
我们服务器对外的带宽服务有:
WEB 服务比较简单,nginx 上都有日志,可以通过日志的 bodysize 统计。其他两个是通过 socket 的,持续通讯的,所以我选择了数据日志的 log 进行大概统计。
以下是我的 nginx access.log 日志格式:
可以通过配置调整 ngx_http_log_module 的 log format,如:
可以看出 nginx 日志的 body_bytes_sent 是字节,所以可以通过以下指令查看数据量($10 是 body_bytes_sent 所在位置,需要根据实际调整;grep 内容是某一分钟的时间):
最终实际查看一天下来的流量也400MB,几个高峰的分钟段也就几M,都在预期合理的范围,并且形成不了持续的拥堵情况。
Web Socket 只有 connect 时的信息会写在 nginx access log 上,不过平时通讯的信息都有手动写相应的 access log(注意排除 业务的log信息)。经统计 web socket 的 access log 比较小,一天只有十几M的数据,基本可以忽略。
注意:心跳包也需要统计进去。
桩agent 是通过端口直连的,没有经过 nginx,log 比较分散,统计了几个大的agent的 log(只统计 access log),占用的大小都不大,基本不形成高峰。但由于数量多,没有最终确定某个时间段的高峰值。
通过 nginx 配置,限制最大的带宽,可以稍微缓解一次访问的压力。避免一个大文件的访问,就长期占用了所有的外网带宽。
Nginx 限流有两种方式:
ngx_http_limit_req_module 模块提供限制请求处理速率能力,使用了漏桶算法(leaky bucket)。下面例子使用 nginx limit_req_zone 和 limit_req 两个指令,限制单个IP的请求处理速率。
==在 nginx.conf http 中添加限流配置:==
==配置 server,使用 limit_req 指令应用限流==
上面例子限制 10r/s,如果有时正常流量突然增大,超出的请求将被拒绝,无法处理突发流量,可以结合 burst 参数使用来解决该问题。
burst 译为突发、爆发,表示在超过设定的处理速率后能额外处理的请求数。当 rate=10r/s 时,将1s拆成10份,即每100ms可处理1个请求。
此处,burst=20 ,若同时有21个请求到达,Nginx 会处理第一个请求,剩余20个请求将放入队列,然后每隔100ms从队列中获取一个请求进行处理。若请求数大于21,将拒绝处理多余的请求,直接返回503.
不过,单独使用 burst 参数并不实用。假设 burst=50 ,rate依然为10r/s,排队中的50个请求虽然每100ms会处理一个,但第50个请求却需要等待 50 * 100ms即 5s,这么长的处理时间自然难以接受。
因此,burst 往往结合 nodelay 一起使用。
nodelay 针对的是 burst 参数,burst=20 nodelay 表示这20个请求立马处理,不能延迟,相当于特事特办。不过,即使这20个突发请求立马处理结束,后续来了请求也不会立马处理。burst=20 相当于缓存队列中占了20个坑,即使请求被处理了,这20个位置这只能按 100ms一个来释放。
这就达到了速率稳定,但突然流量也能正常处理的效果。
ngx_http_limit_conn_module 提供了限制连接数的能力,利用 limit_conn_zone 和 limit_conn 两个指令即可。下面是 Nginx 官方例子:
limit_conn perip 10 作用的key 是 $binary_remote_addr,表示限制单个IP同时最多能持有10个连接。
limit_conn perserver 100 作用的key是 $server_name,表示虚拟主机(server) 同时能处理并发连接的总数。
需要注意的是:只有当 request header 被后端server处理后,这个连接才进行计数。
使用独立的云存储,专门存放资源文件。
Agent 与桩之间是通过外网连接的,可以考虑多加一台服务器,与 产品服务是一个内网的。Agent 先连接到一台转发服务器,与 ECMP直接通过内网连接。
端口转发参考:《Agent端口映像》
略
鉴于当前告警实际对访问的影响可忽略,将触发次数调整为2次再告警。(后面再也没有收到告警了~)
《 Nginx 的两种限流方式 》
《 常用的服务器日志分析命令 》
可以直接在后台进行带宽升级的
我现在用的小鸟云,性能、价格比腾讯云好太多了,特别是1V1专席客服,不用提交工单,建议你也试试