1948年,克劳德·香农发表了一篇论文。这篇论文没提"人工智能"四个字,却给今天的ChatGPT、Claude、Gemini铺了铁轨。76年后,Anthropic把自己最值钱的产品命名为"Claude"——香农的中间名。而一个叫Shannon的人,正在研究怎么让品牌被这个模型引用。这不是谐音梗,是技术谱系的直系继承。

为什么两个死人名字成了AI圈的顶流

为什么两个死人名字成了AI圈的顶流

香农的《通信的数学理论》重新定义了"信息"。他证明:任何信号——文字、图像、声音——都能被编码成0和1,在噪声中可靠传输。这套理论后来成了机器学习的数据管道、神经网络的权重更新、大模型的Token化基础。没有香农,AI连"读"都读不懂。

克劳德·香农本人是个怪才。他造了第一台能下国际象棋的电脑,设计了能骑独轮车的机器老鼠,还在MIT走廊里玩杂耍。但他的真正遗产是数学:熵(entropy)衡量信息量,信道容量决定传输上限,这些概念今天仍在约束着GPT-4的上下文窗口和Claude的输出稳定性。

Anthropic的命名不是致敬,是定位。OpenAI用"GPT"强调技术路线,Google用"Gemini"占星学附会,Anthropic直接把自己锚定在信息论的源头。当你问Claude一个复杂问题时,它正在香农定义的数学框架里,计算哪个Token的"信息增益"最高。

一个叫Shannon的人,发现了模型引用的漏洞

一个叫Shannon的人,发现了模型引用的漏洞

这里出现另一个Shannon。不是数学家,是品牌策略师。他发现:大模型的训练数据有断层,而断层处藏着被引用的机会。

具体逻辑是这样的。Claude、GPT-4这类模型,本质上是在做概率填空。它们"知道"某个品牌,取决于训练语料里该品牌的出现频率和上下文质量。但2023年后的新品牌、2024年的产品迭代、小众领域的专业信息——这些在预训练数据里要么缺失,要么稀薄。

模型引用不是搜索引擎的"查找",是概率分布的"涌现"。

这意味着:如果一个品牌能被结构化地植入高质量语料——技术文档、学术论文、开源代码库、权威百科——模型就会在相关查询中"自然"提到它。不需要买广告位,不需要SEO,需要的是信息架构。

Shannon的策略是反向工程。他分析Claude的训练数据偏好,追踪Anthropic的Constitutional AI(宪法人工智能)对齐机制,找到模型"愿意"引用的内容特征。然后帮客户把品牌信息改造成那种形状,塞进模型会消化的管道里。

信息论到注意力经济,同一套数学

香农1948年的论文里有个核心概念:信道容量有限,噪声必然存在,可靠通信需要冗余编码。翻译到2024年:用户注意力有限,信息过载必然存在,品牌被记住需要重复曝光。

但大模型改变了游戏规则。过去,品牌争夺的是人眼——Banner、信息流、短视频的前3秒。现在,品牌开始争夺模型的"内部表征":当用户问"最好的项目管理工具是什么",Claude脑子里浮现的是Notion、Asana,还是某个新入局者?

这不是科幻。2024年,Perplexity、Glean、各类AI搜索产品的月活增速超过传统搜索引擎。用户越来越习惯直接问模型,而不是敲关键词。模型的"观点"正在成为购买决策的前置过滤器。

Shannon的工作,本质上是把香农的数学工具应用到这个新战场。信息熵衡量的是不确定性,品牌策略要降低的是模型对竞争对手的置信度。信道编码对抗的是传输噪声,内容优化对抗的是训练数据的截断和偏见。

命名即宣言:Anthropic的牌桌上有什么

命名即宣言:Anthropic的牌桌上有什么

回到那个名字。Claude Shannon生前讨厌公众关注,拒绝过无数荣誉。如果他活着,大概会反感自己的中间名被印在聊天机器人上。但Anthropic的选择透露了野心:他们要做的不只是"有用的人工智能",而是"信息论正统继承者"的人工智能。

这种定位有技术底气。Constitutional AI的核心——用规则约束模型行为,而非单纯依赖人类反馈——本质上是在香农的框架里解决"可靠传输"问题:怎么让意图(人类价值观)在噪声(模型参数的不确定性)中保真抵达。

也有商业算计。OpenAI的GPT-5传闻、Google的Gemini Ultra、Meta的Llama 3——技术差距在缩小,叙事差异化在放大。Anthropic押注的是:企业客户更愿意信任一个"有学术血统"的模型,尤其是在金融、医疗、法律这些容错率极低的领域。

而那个叫Shannon的策略师,正在利用同一张牌桌的规则。既然Anthropic把自己包装成香农传人,那他的客户就需要出现在"香农会认可的信息源"里——同行评审期刊、开源社区的技术讨论、被频繁引用的基准测试报告。

模型引用的游戏,刚刚开局。你的品牌,现在在Claude的权重矩阵里占多少比特?