2026年3月,贝莱德(BlackRock)CEO拉里·芬克(Larry Fink)飞抵伊斯坦布尔。表面是一次高管出访,但追踪他的行程会发现一个被刻意淡化的关键词:Aladdin。

这套系统管理着超过21万亿美元的资产,相当于全球GDP的四分之一。芬克亲自跑这一趟,不是为了谈生意,是为了谈"智能的边界"。

Aladdin:华尔街最安静的房东

Aladdin:华尔街最安静的房东

Aladdin不是某个基金经理的昵称,是贝莱德2000年代内部孵化的风险分析平台。名字拆解开来很直白:Asset, Liability, Debt and Derivative Investment Network(资产负债与衍生品投资网络)。

它最初用来算自家基金的风险敞口,后来其他机构发现:贝莱德的模型比自己的准。现在全球超过200家金融机构、55000名投资经理在用这套系统做决策。你的养老金、主权财富基金、甚至央行储备,都可能经过Aladdin的算法过滤。

关键转折在2013年:贝莱德把Aladdin拆成独立业务,开始向竞争对手收费。这相当于可口可乐把配方租给百事。芬克敢这么干,是因为他知道真正的护城河不是代码,是数据反馈循环——用的人越多,模型越准,越难替代。

从Aladdin到Maven:军用AI的同一条技术脉络

从Aladdin到Maven:军用AI的同一条技术脉络

这本书的叙事从芬克的伊斯坦布尔之行,突然拐向一个看似无关的项目:Maven。

Maven是五角大楼2017年启动的AI计划,核心目标是用机器学习分析无人机影像,自动识别目标。谷歌最初接了单,4000名员工联名抗议,公司被迫退出。但项目没停,只是换了承包商。

作者把Aladdin和Maven并置,指向一个被回避的问题:金融风险管理与战场目标识别,底层是同一套技术范式——模式识别、概率预测、自动化决策。区别只在于一个优化的是夏普比率(Sharpe Ratio,风险调整后收益指标),另一个是杀伤链效率。

芬克2026年的行程之所以值得拆解,是因为他在公开演讲中罕见地谈及"AI的治理结构"。不是伦理宣言,是实打实的追问:当算法管理的资产超过人类组织的协调能力,责任归属怎么算?

意识、自由意志与一张资产负债表

意识、自由意志与一张资产负债表

书的副标题抛出了更锋利的切口:人类、人工智能与意义的边界。

作者从组织行为学滑向哲学,再滑向神学,不是炫技,是被技术倒逼的。Aladdin这类系统的存在,让"决策"这个概念本身变得模糊。当系统给出的风险评分与人类直觉冲突,基金经理有多少次真正违抗过?

北约2024年更新的AI战略文件里有个脚注:指挥链中的"人在回路"(Human-in-the-loop)原则,在金融领域没有强制等效物。换句话说,一枚导弹的发射需要人类确认,但一笔导致数万人失业的资产配置不需要。

芬克在伊斯坦布尔的闭门会议上被问到:Aladdin有没有可能发展出某种形式的"意图"?他的回答是技术性的——系统没有目标函数外的动机。但提问者追问:那系统的目标函数是谁设定的?会议室安静了很长时间。

这本书最终没有给出答案,只是把问题摊开在多学科的地毯上。社会学看权力结构,心理学看认知偏差,神学看意义危机,组织理论看决策链条的断裂点。

作者在最后几页引用了芬克2025年致股东信里的一句话:「我们不是在管理资产,是在管理不确定性本身。」

如果智能真的成为一种权力形态,它的统治不需要选举,也不需要宣言。它只需要让替代方案显得非理性。你的下一次投资选择,真的是你的选择吗?