昨天和一个代理商老板聊天

他说

AI服务器可能是

2025年所有ICT产品里最好卖的单品

之前卖安全的、卖软件的、卖网络的..

现在都忍不住了悄悄地卖点AI服务器

打开网易新闻 查看精彩图片

这让我恍然大悟了

怪不得最近看到的一些中标项目

很多知名的老牌安全上市公司

都“堂而皇之”地参与,还中标了

打开网易新闻 查看精彩图片

代理商老板继续说

他的团队现在遇到最大问题是

传统销售,不懂如何卖AI服务器

一上来,就给客户甩一张清单

用卖传统服务器的思路卖AI

最终又陷入拼价格的泥潭

打开网易新闻 查看精彩图片

很多传统销售都搞不清楚

客户要拿AI服务器跑啥?

具体干啥活?要干到啥程度?

客户一张口,销售就接不住话

比如:我们要做多模态的「批量高吞吐」推理

打开网易新闻 查看精彩图片

另外,还有销售给客户说傻话↓

这服务器贵!性能强!

这就是一句,不懂AI的外行话

殊不知,AI服务器不是越贵越好

而是越贴近任务越高效

比如,客户要跑推理,跑AI应用

你推荐给客户买跑训练的高端机?

你当客户是冤大头啊

打开网易新闻 查看精彩图片

往往是交流完,回到公司

直奔售前

打开网易新闻 查看精彩图片

所以

卖AI服务器本质是啥?

你以为你卖的是「产品」

本质你卖的是「AI算力解决方案」

对一线销售的要求已经上升到了另一个level

销售必须具备一种核心能力

把客户的业务语言,翻译成算力需求语言

在整条AI服务器销售路径中

客户沟通→需求识别→方案设计→成交策略

其中最关键的一步,就是——需求识别

打开网易新闻 查看精彩图片

那么

如何进行有效客户需求识别呢?

如何进行有效客户需求识别呢?

第一步:搞清客户要干嘛

在拜访客户之前

心里得有个大致的数

采购AI服务器的六大重点客户群体

他们常见的诉求是啥

打开网易新闻 查看精彩图片

▍政府单位
一般都是私有化部署,买AI服务器很多是部署AI应用,比如:AI政务办公、智慧政务问答(RAG+LLM)、智能客服(12345热线)等,关心国产CPU/GPU兼容性,本地化交付,可上门优化、服务等
▍科研院所、高校
一般是搞大模型训练和科学计算(AI for Science),他们往往有实力采购高端训练服务器,但是也非常看重性价比,比较关注多租户共享与资源调度,以及智算和超算融合。
▍传统金融医疗能源等行业
实时推理和行业模型微调比较多,他们要求:高并发、低延迟推理,可靠性高,安全合规。
▍AI创业公司
这两年蹦出来不少:大模型训练、续训、后训练、微调、API服务等。他们节奏快,看重性价比、交付周期、能灵活扩容、要兼容多框架...
▍大型互联网公司
AI服务器需求最猛、规模最大的客户群,主要建AI集群,用于大模型训练、推理、多模型编排、智能体平台,要求高吞吐、高并发、低延迟,推理成本/百万token最低,长期稳定性,架构灵活
......

第一次拜访,见到客户

最核心的问题只有一个

用于什么场景?跑什么业务?

遇到不同客户

他们回答肯定是五花八门的

甚至很多不是AI需求

比如:AI新应用上线,数字人部署、公文自动生成、合规审计、AIGC内容生产、LLM微调、API推理、AI Agent平台、油气井智能监测、基因测序、AI客服、汽车仿真碰撞、资料库RAG...

打开网易新闻 查看精彩图片

客户要跑啥业务

决定了你该卖哪种服务器

其实不管跑业务

最后都大致可以归纳成

5种常见AI计算任务

不同任务对服务器的配置要求完全不一样

客户搞大模型预训练、续训

这是从零造模型的阶段,拼的是极限算力

动不动就要上万卡集群、十万卡集群

但是现实情况是

真正做预训练的客户很少

多是DeepSeek、百度、阿里这类头部公司

打开网易新闻 查看精彩图片

客户搞全参微调

是在现有大模型基础上再训练一次

让模型更懂某个行业或任务

关键词:大显存+I/O快+高带宽+高互联

有些行业巨头在练『行业大模型』

比如:石油大模型、金融大模型

本质就是基于通用大模型,进行全参微调

这种客户,一般大模型厂商直接冲上去了

带着算力、带着定制服务

打开网易新闻 查看精彩图片

客户搞轻量微调(LoRA、QLoRA)

在原模型上只调少量参数

属于灵活小任务

关键词:性价比+轻量+灵活

几张中端GPU就能搞定,性价比优先

适合中小项目、创业团队快速验证场景

打开网易新闻 查看精彩图片

客户搞大模型推理

这是目前客户需求最多的一类

就是模型已经训练好要上岗干活

很多客户为了部署AI应用或智能体

要买个服务器/一体机,基本都是推理

关键词:快+稳+能顶并发

推理拼的不是极限算力

而是吞吐量和响应速度

打开网易新闻 查看精彩图片

客户要搞RAG

这是【AI+搜索】的混合型工作

模型回答问题前,要先去知识库里查资料

再结合内容生成结果

这类需求的上下文长度通常更大

所以,对服务器的算力要求也会更高一些

不仅需要更强的GPU和更大的显存

对内存和CPU的要求也更高

(检索模块可能运行在CPU/内存上)

打开网易新闻 查看精彩图片

第二步:搞清客户有多大盘子

盘子

也就是现在需求+预期规模

首先,问清楚客户现在采购量级

单机试点、机柜部署、还是机房集群级?

打开网易新闻 查看精彩图片

其次,搞清楚后期规划

比如,现在是第一期,后面还有二期

还是待定,先跑跑看

根据实际业务情况,再考虑扩容

问清楚这个并不功利,而是帮双方避坑

遇到很多真实情况是

很多用户一开始是试水

1、2台机器先试试

但半年后,模型参数翻几倍

上下文从 8K 拉到 128K,并发多到炸

速度变慢,于是客户开始抱怨:

这机器怎么不行了?越跑越慢?

其实不是机器不行,是当初没留出余量

打开网易新闻 查看精彩图片

AI服务器选型不能只看今天

得往后推6–12个月,比较靠谱

AI日异月新,大概率会发生的事情是

模型会变大、上下文会变长、流量会变多

当然,也有客户试完了,对大模型祛魅了

发现对业务帮助有限,没下文了

打开网易新闻 查看精彩图片

第三步

尽可能带上技术一起交流

引导出明确目标

打开网易新闻 查看精彩图片

围绕「跑啥」的核心问题

顺势延展出其他问题

一、模型类问题

☑模型规模:您要跑的模型有多大?(参数规模 / 模型尺寸)

☑模型来源:这个模型是自研的,还是用第三方开源模型(如 Qwen、ChatGLM、Llama、DeepSeek等)?

☑数据量级:训练/微调数据量大概多大?是否需要并行文件系统?

☑微调策略:全参微调还是LoRA/QLoRA,SFT对齐还是偏好学习?

☑模型生态:是否已经有既定的软件栈或兼容要求?

☑业务场景:对话聊天?代码生成?文档解析?公文写作?事件调查?定制化开发?还是API 调用 ?还是嵌入业务系统?

☑未来方向:后续有没有计划升级模型尺寸或增加上下文长度?

二、性能与并发问题

就是,客户希望达到什么效果

必须搞清楚客户诉求的优先级

是要算得多,还是要算得快,还是要稳如狗?

目标一不同,配置天差地别

打开网易新闻 查看精彩图片

下面问题越具体

后面的方案越有针对性

☑吞吐:每秒希望生成多少 token?或每秒处理多少请求(TPS)?单次请求上下文多长?

☑时延:响应速度有什么要求?首字时间(TTFT)延迟要控制在多少?是要实时低延迟,还是批量高吞吐?

☑并发:系统同时要支撑多少人使用?(100?500?)预计同时会有多少活跃会话?

这个过程中,一定要注意客户的

随口一问

打开网易新闻 查看精彩图片

这种看似不经心的一问

代表的是客户的某种重要诉求

打开网易新闻 查看精彩图片

接下来,方案环节

还要再叠加上自家的核心优势

比如:异构算力(东西方都行)、更灵活的拓扑配置、风冷液冷全覆盖、国产化、安全可控、交付快、支持强...

当然,只买算力还不够

大模型要落地,软实力也很重要

比如MaaS平台、应用开发工具链等等

这些软能力,我们后续再讲

打开网易新闻 查看精彩图片

第四步

招投标了,看看别人标底怎么玩的

在实战中再学习

这是来自某个真实项目的标书要求

某985名校预算2100万的AI服务器

具体参数我们先略过不看

就看看你能不能过得了这个演示关

打开网易新闻 查看精彩图片

这个标底很不错啊

说明客户已经不听纯忽悠了

让开标的时候直接上demo

没点真水平,想抢单没门了

打开网易新闻 查看精彩图片

最后就一句话

Q4了,祝大家开单顺利,大单连连

打开网易新闻 查看精彩图片