2026年2月20日,多伦多AI芯片初创Taalas宣布完成1.69亿美元新一轮融资,投后累计融资约2.19亿美元。本轮由Quiet Capital、Fidelity及半导体资深投资人Pierre Lamond联合注资,机构用真金白银投票,押注一条完全不同于英伟达通用GPU的AI算力路线。
同步亮相的,是其首款功能性演示芯片HC1。该芯片采用台积电6nm工艺,并非通用加速器,而是专为开源大模型Llama 3.1 8B深度优化的专用处理器。Taalas CEO、前AMD与英伟达架构师Bajic提出核心思路:将AI模型直接“固化”到晶体管硬件中,而非依靠通用芯片动态加载。
按官方数据,HC1可实现每秒17,000 token生成,宣称速度比英伟达H200快73倍,功耗仅为其1/10。这一夸张的能效比,并非来自玄学突破,而是源于极致的架构取舍:传统GPU为通用性预留大量运算单元与调度逻辑,带来巨大冗余;Taalas则采用mask ROM recall fabric + SRAM架构,把模型权重直接写入硬件,绕开了HBM高带宽内存这一核心瓶颈,既降低成本,也大幅压低功耗。
更关键的是效率:专用芯片的最终定制周期可压缩至两个月左右,远快于传统大厂半年级别的交付周期。在开源模型快速迭代、推理成本持续承压的当下,这一优势极具杀伤力。
Taalas走的,是MSIC(Model-Specific Integrated Circuit,模型专用集成电路)路线。它的出现,恰好踩在AI产业的关键转折点:训练阶段仍由通用GPU主导,但推理规模化部署已成为下一战场,企业比拼的不再只是峰值性能,而是每token成本、能效、交付速度。
在美国强调算力主权、数据中心能耗压力加剧的背景下,Taalas的逻辑极具说服力:若能以10%功耗运行同等规模模型,企业的AI投资回报曲线将被彻底改写。行业观点认为,若Taalas能将专用化方案成功扩展至更大模型,AI算力市场可能从“通用主导”走向“通用与专用并存”的分裂格局。
但极致效率的另一面,是灵活性的彻底牺牲。英伟达B200可以适配下月出现的任何新架构、新模型,而Taalas的芯片一经流片,就基本锁定在特定模型上。这意味着,它必须在Llama等开源架构的长期主导地位上,下一场重注:一旦行业转向全新架构,现有专用硬件可能快速贬值。
为对冲风险,Taalas已在规划下一代HC2处理器,目标支持200亿参数模型,并计划在2026年底前逐步覆盖GPT-5级别系统。
长期来看,Taalas的真正战场不在训练,而在推理。英伟达在训练环节的通用性壁垒短期内难以撼动,但推理市场正在走向成本与能效优先。如果Taalas能证明MSIC路线具备商业可行性与跨模型扩展性,它冲击的将不只是英伟达的利润率,而是整个AI芯片的架构共识。
但前提是:它赌对了未来主流模型的方向。(本文首发钛媒体App , 作者|硅谷Tech news,编辑|秦聪慧)
热门跟贴