人工智能正引发全球NAND Flash存储市场的结构性极度短缺。群联电子首席执行官潘健成在近日接受媒体采访时表示,并非“得Token者得天下”,未来只要企业有充足的存储空间,“就能获得无止境的营收”。

潘健成表示,AI资料产生速度是以百倍速度推进,但NAND Flash原厂新建厂房最多仅能增加50%的产能,他推断这波缺货潮在未来十年内恐难以完全解决。为了应对包括英伟达新GPU及苹果新品推出,第四季度NAND Flash可能出现“有钱也买不到货”的窘境 。"我找不到存储供过于求的理由,"他说。

打开网易新闻 查看精彩图片

为应对2026年下半年甚至第四季度可能出现的严重断货风险,群联电子已全面进入紧急备料状态。目前,该公司的NAND库存金额已突破500亿元新台币,并史无前例地启动了总额达11.8亿美元(约合430亿元新台币)的筹资计划。这笔庞大资金将被悉数用于提前锁定晶圆与存储颗粒货源,以防范“有钱也买不到货”的极端市场局面。

市场信号与机构判断共同印证了这一预警。NAND Flash价格自2026年1月以来已接近翻倍,部分时段单日涨幅达50%。摩根士丹利预计,2026年下半年成熟制程NAND供给缺口或达40%,全年涨幅逾200%;高盛则预测2026年NAND供不应求幅度为4.2%,为行业历史最大规模短缺之一。

筹资430亿备货,缺口高达70%

面对急速逼近的缺货危机,群联采取了一系列历史性财务动作。据媒体报道,公司目前仅能满足约30%的客户需求,缺口高达70%。

潘健成透露,近期有PC大厂紧急追加100万支SSD订单,美国客户亦频繁临时加单,公司必须调动各方资源才能勉强应付。他警告,若等到需求高峰才动手,届时将面临"有钱也买不到货"的困境,因此库存规划已高度精准化,主要针对已取得设计导入(Design-in)的各类项目锁定料源。

为锁定料源,群联规划完整筹资布局:包括上限8亿美元(约新台币254亿元)的海外无担保可转换公司债(ECB)、国内第三次无担保可转债60亿元新台币,以及120亿元新台币的银行联合贷款,合计筹资规模超过430亿元新台币。潘健成坦言,由于NAND Flash价格维持高位,资金压力明显加剧,公司亦与客户协议预付货款机制,共同分担备货压力。

英伟达新一代AI芯片Rubin系列即将开始出货,潘健成预判届时原厂产能将被瞬间吸纳,市场供需失衡将成常态。

降耗新技术反而加剧缺货

日前,谷歌一篇关于将KV Cache(键值缓存)压缩至1/8的论文引发存储行业恐慌,市场担忧AI主机对存储的单台需求将大幅缩减。潘健成对此给出了截然相反的判断。

他承认,该技术确实能将单台主机的内存和闪存占用压缩至原来的1/8,单机存储成本随之大幅下降。但这恰恰意味着AI主机整体价格下行,更多企业和个人得以部署——"本来供一台主机使用的内存,现在可以供给8台主机使用。"这8台机器推理所产生的数据,仍然需要外部存储,总需求反而大幅攀升。

他以群联自身研发的aiDAPTIV+技术类比:该技术通过用闪存弥补DRAM不足,让AI以更低成本运行,但"让AI产生数据的机器变得更便宜,数据产生得就会越快,后续存储缺货搞不好会更严重。"

潘健成将这一逻辑比作汽车行业:全球只生产法拉利时,能买得起的人有限,汽油消耗量也不大;一旦丰田大量造出平价车,汽油就会缺货。降低单机成本的技术创新,最终只会加速AI的普及,进而推升存储总需求。

消费电子承压,总需求不降反升

缺货压力在消费市场已陆续显现。潘健成预警,下半年笔记本电脑主力机型存储容量或退回256GB,消费类电子将是"最大受害者"。

然而他同时指出,总需求并未因此减少。以SSD与云服务的价格博弈为例:消费者看到SSD涨价3倍选择暂缓购买,但云服务价格涨了5倍,用户仍然争相使用。"总需求其实没有减少,反而增加了。只是有能力赚钱的企业继续买,没有能力的消费者先等一等。"

他还预判,一旦256GB笔记本下半年大量上市,约20%至30%的购买者将被迫赴售后市场将存储升级至512GB,零售市场需求由此回流。"就像一公升汽油30块,因为打仗涨到60块,你要出门还是要加油——这是刚需。"

在企业市场,群联消费类业务营收占比已降至5%至6%,企业级与工业应用已成绝对主力,且"非常缺货"。2025年群联营收同比增长23.3%,达726.64亿元新台币。

"得存储得天下":存储成AI时代核心资产

围绕AI与存储的深层逻辑,潘健成作出了带有战略意涵的判断:未来的竞争关键,不在于谁拥有更多Token,而在于谁掌握充足的存储空间。

"未来只要你有充足的存储空间,就能获得无止境的营收,"他说。他以2000年网络泡沫作类比——破灭的是互联网初创公司泡沫,而非互联网本身。2000年后人类每日数据传输量从KB级攀升至今日难以计量的规模,AI的演进轨迹将与之相似。"今天人类大量使用AI了吗?还没有。会不会?一定会。什么时候?便宜普及的时候。"

他指出,目前全球真正具备建立云端AI能力的只有美国和中国大陆两地,其他企业大多仍在观望。一旦AI应用真正落地,全球数十亿人口每人所需的一点存储空间,将汇聚为庞大且持续的结构性需求,彻底终结存储行业的传统周期律。

潘健成在庆典上宣布,向任职满一年的员工加发一个月奖金,新增奖金总额超4亿元新台币。对于未来方向,他给出了简洁的总结:"AI要不要发生?要。数据要不要存?要。存储在什么情况下会供过于求?我找不到答案。"

以下为潘健成近日接受媒体访谈实录,部分内容有删减:

打开网易新闻 查看精彩图片

主持人:
大家好,欢迎回到编辑室。今天的大来宾邀请到了群联CEO潘健成。潘董,请您跟镜头打声招呼。
潘健成:
各位观众大家好,两位主持人好。
主持人:
我们先问一下,AI引爆了这一次的存储缺货潮,您看下来今年的状况会不会跟去年类似?
潘健成:
从具体需求面来看,云端无论是美国还是中国大陆的需求都很强,基本上看不到放缓的脚步。
主持人:
连韩国SK集团的崔泰源董事长都说,这波热潮会一路持续到2030年。这么夸张,您觉得呢?
潘健成:
毫不夸张。过去45年以来,全世界半导体产业链的灯塔就是Intel。他们每一年都会披露未来五年内要做什么,把路线图(Roadmap)画出来。各个生态圈的厂商,比如三星,就会根据他们产出的新CPU去储备DRAM(内存);主板厂就会去储备PCB等各种供应链资源。中国台湾的代工厂(OEM)也会根据蓝图做准备,这是一个有次序的准备过程。可是当年PC市场也花了大概十几年,才从无到普及并将其产能消化掉。
认真讲,AI是2022年ChatGPT加英伟达带动起来的。在这之前没有人相信,有了ChatGPT之后大家相信了,一窝蜂就跳进来了。在短短的时间内,一窝蜂涌入的产能是消化不了的。
我这样比喻,H100产出的时候,市场其实没有看到这种需求。但在当时,因为后疫情时代DRAM产能供过于求,闪存供过于求,各种产品都供过于求。所以H100出来的时候,刚好赶得上这个需求。
到B200的时候——因为它是每一年出一个新机种——开始有一点点紧张了。到B300、再到Rubin架构,就来不及了。为什么?因为存储行业从2022年后疫情时代开始,闪存公司累计5个季度赔掉了快400亿美金,他们根本不想投资了。
当看到这种需求的时候,说真的,2024、2025年大家也在问:这是真的吗?闪存需求是真的吗?结果走到推理阶段发生的时候,发现是真的,但此时再投资也来不及了。一项新的投资到产出需要两年多。媒体界一堆名嘴说,两年多有产出之后,市场就不会缺货了。
那我就反问一个问题。手机刚出来的时候,我们拿手机传信息,传文字是KB级别;3G的时候是MB级别;4G的时候是几十MB;5G则是实时直播。我反问一下,人类还会再退回去传KB级别的数据吗?不可能。手机走过了这种数据量突飞猛进的进步历程。
你看AI今天的应用还停留在文字(如ChatGPT)阶段,现在重点不是有文生视频模型了吗?几分钟内产生一部视频,就是几百个GB。以前用人工去做,需要100号人花6个月去画、去渲染、去调配,现在AI产出的数量是你没法想象的。意思是说,如果现在投资,新的产出是在两年后,那两年后人类的需求有多大?这是我们看不到的,也没法去想象的。
主持人:
可是这一波从供过于求到现在,已经有点影响到民生了。大家会觉得,我现在就要买内存,我要组装电脑,却根本买不到。
潘健成:
在未来的两年多内,最大的受害者是消费类电子产品,这已经是避免不了的。打个比方,下半年的笔记本电脑(Notebook)主力机型,你可能无法相信存储容量会退回到256GB。老实说256GB够用吗?够用。
我在美国GTC大会的时候,很多朋友说没问题,我用云服务。但云服务不是免费的,它是会涨价的。他说固态硬盘(SSD)这么贵,去买一个SSD划不来,我去用云服务。我说那你算过吗?两年的云服务费用,刚好等于买一次SSD的钱。现在的最大问题是什么?消费者看到SSD涨价了3倍,他不买了;但云服务涨了5倍,大家还在抢。所以总需求其实没有减少,反而增加了。只是有能力赚钱的企业会去买,没能力赚钱的消费者就先等一等。
但是人类有个通病。打个比方,现在一张存储卡是10块钱,预测下礼拜是12块钱,你会说太贵不买。结果等到你真正需要的那一天,你被迫跑去花18块钱买。
我们看过太多这种案例了。所以到下半年,如果256GB的笔记本电脑开始大量上市,100个买电脑的人里,大概会有20到30个被迫去售后市场升级成512GB的,那售后市场就回来了。贵吗?贵。就像买汽油,一公升30块,如果因为打仗变成60块,你要出门加不加油?肯定要加,这是刚需。所以消费类电子会很辛苦。这是没办法的事。什么时候供需会平衡?老实说,目前还看不到。
主持人:
你们群联自己也在做NANDFlash,也受到这一波的影响吗?但你们开发了一个叫做aiDAPTIV+的技术。在这种状况下,您觉得有机会缓解缺货吗?
潘健成:
没有办法缓解。关于我们的做法,我来讲一下原理。AI计算最大的瓶颈其实不是算力,大家被误导了。GPU都能算,只是快跟慢的区别而已。真正的问题是内存不足,内存不够它就算不动,就罢工了。所以为了让一个模型可以持续计算,你需要的不是算力,而是内存的容量。
为了补足内存容量,目前只有一招,就是一直买GPU卡,这需要花很多很多钱。这是根本原因。为什么说搞AI很贵?就是因为你要买很多GPU卡,把内存容量凑起来,这是最大的问题。
潘健成:
群联电子看到这个痛点之后就在想:DRAM的容量小又贵,而闪存容量大又便宜,可不可以用闪存去弥补DRAM的不足?我们花了一些时间,发现这条路似乎走得通。于是我们花了三年半的时间,把这个技术从概念、应用到商业化真正做出来了。
做出来之后能解决存储荒吗?不可能,反而会让存储缺得更严重。我这样比喻:如果全世界做汽车的只有法拉利,能买得起、开得上车的人不多,所以汽油消耗量也不大;但是当很多丰田造出来普及之后,汽油就缺货了。我们做的这个应用,是让AI生成的数据能够更低成本地存储。如果运行AI、产生数据的机器变得更便宜,数据产生得就会越快,所以后续存储缺货搞不好会更严重。
主持人:
但有没有可能会出现另一种情况,就是存储界的“特斯拉”会出来打破局面?
潘健成:
特斯拉就算出来,它也要消耗能源。它的能源来自于电,发电就需要很多。你可以用可再生能源,但是总消耗量是增加的。
我们就讲上礼拜才发生的Tableconc技术(注:指代某种降低缓存需求的AI技术),Google的一篇论文——其实去年就有了——造成了整个存储行业的恐慌。其实这有两种解读。因为这项技术可以把KVCache(键值缓存)压缩到1/8,所以单台主机对于内存和闪存的需求减少了,这个观点是对的;但如果认为这会造成总需求减少,那就是错的。
什么意思呢?以前一台AI主机要用到很多的RAM和Flash,成本太贵了,所以没法卖得多。一方面RAM和Flash本来就缺货,单机用量太大,导致能制造出来的机器台数很有限,使用者能用到的机会就变少。
但是如果把内存占用压缩成1/8,本来供一台主机使用的内存,现在可以供给8台主机使用。机器价格变得更便宜,消费者可以更广泛地去使用。那么这8台机器推理产生的数据要不要存?肯定要存。存在哪里?还是需要存储器,这就又会导致缺货。
所以,单机成本下降后,反而会造成整体设备使用量的大幅增加。针对这个论点,新技术出来之后,单台主机的存储用量减少是对的;可是因为主机便宜了,设备产出更多了,反而会造成外部存储市场的大缺货。
主持人:
所以是用AI的人更多了,反而不管是存储,还是这些新技术的应用规模都会变得更大。
潘健成:
我们先问,2000年的网络泡沫后,网络有泡沫吗?
主持人:
没有。
潘健成:
那是网络初创公司泡沫,网络没有泡沫,因为人类需要网络。你再回想2000年后,你一天传输的数据量只有千字节(KB),现在呢?源源不断,你已经没法想象了。今天人类大量使用人工智能了吗?还没有。会不会大量使用AI?一定会。什么时候大量使用?便宜的时候,也就是普及的时候。
所以这还需要一段过程。那这段过程当中会不会大量铺设基础建设?2000年泡沫后,2004年谷歌证明它是有用的,全世界是不是在铺设光纤、建立无线电传输?那个就叫基础建设,就是黄仁勋讲的基础建设。AI要不要发生?要。什么时候完成?不知道。
但是基本上AI的基础建设真的太贵了。它贵不是说成本贵,我们打个比方,我们看看存储公司,前阵子不是有财报吗?毛利率80%是什么概念?毛利80%,意味着我产出成本一块钱,售价是9块钱。做图形处理器的公司,买下这个存储产品之后再看,毛利率也是80%。
什么意思?等于说一块变9块,9块变90块。一个产出只要一块钱的东西,到用户手上变成了90块,这个成本是很吓人的。你有没有觉得便宜?这个很难说,因为市场紧缺。但是因为比特币挖矿的技术需求,把它压缩成了1/8,省下了很多钱。一块变90块,省下1/8有没有帮助?有,这就变便宜了。便宜了就有机会普及。普及之后,每个人使用的数据要存在哪里?这才是最头痛的地方。
主持人:
可是像Turbofan这样,理论值上真的有办法运作到只用这样的压缩比例,就能实现原本这么好的性能吗?
潘健成:
其实在压缩方面,研究团队给我的报告显示,这没有什么了不起的。因为键值缓存(KVcache)在运算过程当中就是文字,文字的压缩比可以很高,照片就不好压缩了。这种压缩技术并不离谱,那种实时的压缩是很简单的。所以这其实是协助解决内存不足的最好方法。
主持人:
所以你觉得Turbofan出来对你们也是利好,不算是太大的影响。
潘健成:
对我来说是利好吗?这会让我买不到更充足的闪存。但是从另外一端来看是利好,因为客户需求变得更强了。所以你要看从哪个角度定义利好。我希望能买到更多,其实我常讲,我们不是种大米的,种稻米的要花钱买土地;我是买米的,买米做加工品,米最好不要钱,因为做加工品还是能赚钱。米越贵,我东西卖出去就越辛苦。所以从我们的角度,我们并不希望米一直涨价,这对我不利。
主持人:
因为刚才潘董也有聊到,上周你们去GTC大会,看了现在整个业界的状况。你觉得现在像是开放调用(Opencall)或是AI智能体(AIAgent)算不算是已经开始提前爆发了?
潘健成:
到今天为止,我们认真地问,真正会去操作使用AI的人多吗?不多。基本上大家都是在用ChatGPT,你只是提问而已,你很简单地问,它给出答案。你有没有办法具体把一个AI系统安装到自己家里来?没有安装。AI要普及必须要这样做,所以目前你只是一个简单的用户,不能叫做你会用AI。
我们往后看市场,因为有很多落地AI的需求。一月份参加国际消费类电子产品展览会(CES)的时候,我们跟英特尔、AMD合作,使用他们中央处理器(CPU)的笔记本电脑。在不做任何硬件改变的情况下,换上了特殊的自适应固态硬盘(AdaptiveSSD),加上我们的中间件(middleware),那一台电脑就可以跑AI推理。
每一个品牌我们都去展览了,来看的人都说很好,但是具体的应用场景,老实说我也讲不出来。我说,你看这个可以做AI,可以怎么样?可以做推理。你做给我看,可以,怎么运行?消费者才不管你的速度多快、产出多少Token。你得教我怎么用。在CES说了半天,结束会议后,我跟团队干部说,不要再去找硬件公司谈了,我们开始找软件公司、独立软件供应商(ISV),看能不能创造一些应用。不然你做了半天卖不掉,因为没有应用场景。
刚好是在龙年前后,怎么突然抛出一个Opencall(开放调用)?其实我不知道是什么东西,团队告诉我它就是一个简单的应用程序(App),可以执行指令。你叫它去买机票,它上网帮你找完之后直接帮你执行。那我觉得这东西好用。年后,我看到中国大陆疯狂地在“养大模型”。养了两个礼拜之后把大模型撤掉。为什么?因为费用爆仓了。
这样子我看到了一个机会:如果小模型可以养在本地端(端侧),需要高算力时再上云端;不需要高算力时,就用我们自适应的这种个人电脑来算,算得动的话是可以省费用的。
我的团队就认真用了一个星期的时间去做了各种各样的实验。当然也花了钱,最终发现我们走混合的方式,就是需要高算力时上ChatGPT,不需要高算力时跑在本地,这种混合云的概念可以省下超过70%的费用。既可以达到我要求的速度,又可以节省费用,那我说这个需求量就会上来。
所以GTC大会后,我们积极地在研究怎么把小模型商业化。上周在深圳有一个中国闪存峰会,全场所有人都在讲AI。虽然有的公司跟AI什么关系都没有,也在蹭AI,也在蹭大模型。我说真的,最有资格讲小模型的是我们,因为我们有便宜的平台,有具体的方案。
主持人:
因为之前听到一套逻辑,就是说现在本地端的成本费用,第一个是不好用,第二个是它的部署建设成本也相当高。那这样本地端和云端,你觉得谁优谁劣?
潘健成:
我们先讲个实际的案例,先不看以后,先讲以前。2025年美国科技公司大部分在进行大裁员,同意吗?为什么这些公司都很赚钱却要裁员?原因是公司开始要花钱部署AI,产生了当期的费用。这个费用短期内赚不回来,公司为了平衡增加的AI部署费用,就把人工砍掉,节省薪水开支。
部署AI本来就要花钱,我们来打个比方。有个老前辈跟我讲,什么叫云端AI?什么叫边缘AI?云端AI就像人住酒店,每天付一笔房费。你起床后不用洗被单,不用洗厕所,出了门就结束了,晚上回来干干净净就能睡觉。缺点是每天要付一笔费用;第二个缺点是,你在里面没办法自己装修,没办法挪床位,做自己喜欢的东西。
那本地端是什么意思?就是买房子。先付一笔首付,很贵,坏处是还要自己洗厕所、洗被单,但是不用每天付房费。
这两个选择,人会一辈子住酒店吗?不会。有些人会,他觉得比较便宜。但大部分人都住家里。你会一辈子住家里吗?也不会,你出去玩的时候会住酒店。所以就有了混合的概念,一年365天,可能10天、20天住酒店,大部分时间住家里。买房子贵,那为什么要买房子?因为你有需要。所以本地端的投资是必然要发生的,只是早晚的问题。
其次,如果随便买个房子都要几亿新台币,那就算了吧。但房子有首付100万的、200万的、1000万的,你可以根据情况选择。如果买房子真的全都是1亿,能买得起的人就不多了。去年的方案就是给你选择,有50万的首付,也有100万、200万的,你要3000万的我也有,就是给你提供定制化。
主持人:
那看起来,刚才潘董您提到终端设备在COMPUTEX展上就能看到。您觉得它会为消费者以及制造商带来怎样的商机和机会?
潘健成:
回答这个问题,我还是回到以前苹果推出第一代iPhone的时候。根据我了解到的情况,他们当时是要解决视频销售的问题。因为当时不是有一款播放视频的iPod吗?但那只能用Wi-Fi。如果加上SIM卡,可以直接通过3G/4G网络购买,是不是更方便?既然都已经做了iPhone,那就顺便做几个应用程序(App)吧。今天人类的任何需求,App都可以解决,同意吗?20年前,你问他们有想到这一天吗?他们一开始可能会说有这种可能,但是绝对没想到今天会有这么多App,现在你出门只要带一部手机就全解决了。
第一个,它得有一个平台。以前这个平台的算力不怎么样,从一代到十七代,英伟达也在跟进,每一年新的平台都越来越便宜。做软件的人看到有需求可以做,这就是商机,所以产生了无数个App在市场上买卖。
同样道理,如果我们生产的笔记本电脑都能运行AI推理,今天的算力是这样,两年后,CPU公司看到有利可图,会不会增加算力?一定会。算力达到一定阶段之后,做软件的人就会发现可以开发相关应用。这种应用不仅会发生在手机的App上,也一定会发生在个人电脑的AIApp上。这只是时间问题,前提是成本要降下来,成本降不下来就不可能发生。
主持人:
那从这样的趋势来看,是不是跟当年我们从个人电脑过渡到手机一样,先从笔记本电脑开始普及,之后这个技术在手机上也会实现?
潘健成:
凭良心说,在手机上放本地端AI,我直接说这是多此一举。第一,手机本来就时刻连着网络,本来就有云端后台;第二,手机电池容量有限。手机电池是为了维持续航力的,而不是搞个AI,五分钟就把电耗光了。
但是手机上面会不会有一些本地的App?一定会有。它可能一部分运算在本地做,另一部分回到云端后台去做,必定会有一些应用能让AI落地。但是,我不认为使用手机的人会觉得数据上云端是机密泄露,因为你手机本来就是时刻连着云端的。但是PC不一样,我工作的数据都在PC里,我不想上云端就可以不上。这是两种完全不同的思维。
主持人:
您刚才提到电池电量有限这件事,我想提到另外一点,就是黄仁勋在GDIC上讲的“五层蛋糕理论”。这个理论的最底层是能源(Energy),然后是芯片(Chips),到最后是模型(Model)。您怎么看待他这个理论?
潘健成:
他的理论一定是正确的。如果不正确,就不会有今天,这个逻辑并不难。今天人类面临的是AI,面临的挑战就是电力不够,所以电力问题需要解决。
面临的另一个问题是算力不够。算力如果不够,让台积电多生产一些GPU就可以了。存储不够怎么办?GPU买来组装好之后就可以一直算,大概率也不会坏。存储就是存储空间(Storage),数据放进去,除非你删掉不要了,但你的数据大概率是不会删掉的。就像你用Facebook,肯定没有为存储数据付过钱。
20年前的数据还在吗?在。因为数据就是一座矿,所以数据不会消失。你放了100太字节(Terabyte)进去,它就在那里。你要再扩充容量,才会放进第二个100太字节。
所以数据的最大问题是,你需要源源不断地为它提供容量。我这样比喻,很多人说存储是周期性产业,这是对的,但在今天就不对了。什么叫周期性产业?我不讲理论,就拿闪存(Flash)来说。闪存什么情况下使用量会减少?不是经济不好,而是需求太强之后,需求就变差了。
假设一个8G容量的闪存成本是100美元,因为需求太好,价格涨到了200美元。手机公司为了控制成本,就把容量砍到64G(减半),让成本回到100美元。结果需求少了一半,市场马上崩盘。那闪存什么时候需求会变好?在需求极度糟糕的时候,马上就会变好。当成本从50美元掉到剩10美元时,我的容量就能增加5倍。
这是闪存过去的规律。可是今天的AI情况是,云服务公司花了万亿美元建立的AI应用所产生的模型,其收入来自于消费者付费产生的推理。推理输入的是电力,输出的是数据。
数据需要存储,如果没有空间存储,就没有收入。所以它的收入与存储空间成正比,有多少收入就需要多少存储。因此,这是无限的,是永无止境的。那还会呈现周期性循环吗?循环不了了,因为需求是永无止境的。
主持人:
所以未来等于是“得Token者得天下”,可以这样讲吗?
潘健成:
我必须要说,未来只要你有充足的存储空间,就能获得无止境的营收。不然您说营收怎么来?而且还有一个很现实的问题,今天的存储不足,是美国的云服务公司追逐AI造成的。
全世界能够建立云端AI、开发AI技术的地方只有两个:美国和中国。其他企业开始积极追赶了吗?我看到的只有一家或一家半,其他的都还在观望。为什么?因为去年AI公司根本没赚钱,云服务公司都在大打Token的价格战,因为没有实际应用。现在美国证明了应用的可行性,中国一定会跟进。之后美国一家公司就能让你分一杯羹,中国大陆的市场也会再释放出来。
会不会缺第三朵云?AI应用落地了没有?还没有。会不会落地?一旦落地,全球这么多人口,每个人都需要一点存储空间,你说缺不缺存储?我再打个比方,很多年以前的VR(虚拟现实)大家还记得吗?当时说得非常棒。我就不相信,现在VR还在吗?
主持人:
还在啊。
潘健成
还在,但是很少。对产业造成影响了吗?没有。当初我就认为我不会用它,因为它不是刚需。但AI是不是刚需?是。如果是的话,你告诉我存储在什么情况下会供过于求?我找不到供过于求的理由了。
主持人:
在这个环境下,普通民众应该如何去拥抱AI?在未来的应用上,我们还可以怎样去精进自己扮演的角色?
潘健成:
首先要定义什么叫拥抱AI。使用AI的话,你每个月付给ChatGPT几百块钱就可以用,但这真的对你有帮助吗?可能只有一点点帮助。对于企业来说,如果你为了用AI增加效率却不想投资,那就别想了。这就好比你说:“我不买房子,我住酒店。”那只能祝福你,你的商业机密就会外泄,费用也会随之增加。所以,这需要魄力。
要不要自己建立AI?有人说要,有人说不要。选择“要”的人,两年后会证明是对的;选择“不要”的人,到时候只能被迫跟进。我没有看到谁建立了AI之后不用的,这是不可能的。
我们现在这样讲,几十年前到处都是杂货店。今天只有乡下还有杂货店。老板如果有商业嗅觉的话,就会想办法先进行数字化,这样才有办法做集中管理。所以有人数字化之后,引进了7-Eleven等便利店模式,传统的杂货店就被淘汰了。
作为企业主,时代要发生的事情你是挡不住的。你可以选择不让它发生,可以在有生之年把自己的生意顾好,但到了你下一代,这个产业就做不下去了。所以拥抱AI你必须要投资,而且不仅是投资金钱。
还要投资人力资源。现在全世界最欠缺的就是AI的“蓝领”。你可以上GitHub下载各种各样免费的模型,但是怎么用?怎么建?数据你怎么处理?
到目前为止,学校没法培养出大量可以操作AI的人才,是因为GPU太贵了。学校有一些H100、H200,都被少数教授和实验室拿去做开发研究了,普通学生根本用不了。学生毕业来到工作岗位之后,老板也没有多余的GPU,所以学生依然不会用。
因此,学校必须要快速引进低价的GPU来训练学生,让学生可以开始实际操作。学生在学校掌握了一定技能,进入企业后,只要企业有设备,马上就能上手工作。这就叫拥抱AI。但是我发现,全世界的政治领袖、商业领袖、名嘴都在讲AI,讲得头头是道,讲得都对。但具体怎么做?三个字:“不知道”。这才是根本的问题。