「我们用同一台机器、同一套工具、同一批文件,测了十几家云厂商的对象存储。」——这份测试报告的开场白,像极了数码博主拆箱前的固定话术。但看完数据后,我发现这次有点不一样。
测试怎么做的
团队选了一款叫 MinIO warp 的开源工具,版本锁定在 v1.0.7。测试项很实在:上传、下载、混合负载、小文件吞吐、大文件处理。所有跑分都在同一台 Debian 13 虚拟机上完成,16GB 内存,8 并发线程,对象大小保持一致,机房位置固定在 US-East-1。
方法论的完整文档和复现指南全部公开。定价数据截取自 2025 年 10 月 1 日的官网报价。
这种「可复现」的执念,在云服务测评里并不常见。
三个反直觉的发现
报告里列了几条「让我们意外」的结论,但原文没有展开具体数字。我顺着链接扒了完整版,挑几条能说的:
第一,某些以「便宜」著称的厂商,在小文件场景下吞吐量掉得离谱。如果你的业务是图片缩略图、日志碎片这类场景,单价低不等于总成本低。
第二,混合负载(同时读写)的表现分化极大。有的厂商读快写慢,有的反过来,没有「六边形战士」。
第三,US-East-1 这个节点本身就有坑。同一家厂商在不同区域的性能差异,可能比两家不同厂商的差异还大。
这三条指向同一个判断:选对象存储不能只看单价,得把「你的访问模式」和「厂商的擅长场景」做匹配。
为什么这件事值得技术人关注
S3 兼容协议已经是事实标准,但「兼容」和「跑得一样快」是两回事。这份测试的价值不在于排名,而在于它把「黑箱」打开了一个口子——你可以拿着这套方法,用自己的 workload 再跑一遍。
报告作者留了一个很实在的链接:rabata.io/s3-comparison。里面有逐家拆解和复现步骤。
如果你正在做云成本优化,或者准备从单一云迁到多云架构,这份数据至少能帮你避开「纸上选型」的坑。毕竟,厂商的 PPT 不会告诉你,你的 4KB 小文件会在哪个环节变成瓶颈。
工具和方法都开源了。下一步,看有没有人真的去跑。
热门跟贴