新闻偏见检测一直是个笑话——左边是0,右边是10,你的文章落在3.5。这种单轴评分对缩略图够用,但对真正干活的人毫无意义:新闻编辑室的标准编辑、事实核查员、教新闻框架的讲师、做虚假信息分类器的AI安全研究员。他们需要的是结构化、多维度、可查询的框架数据。有人做了这件事,而且做成了任何AI助手都能调用的服务。

为什么单轴评分是死路

大多数"新闻偏见"工具把报道压缩成左右轴上的单一数字。缩略图够用了,但粒度完全错误——对新闻编辑室标准编辑、筛选病毒式声明的事实核查员、教授框架的新闻学院讲师、构建虚假信息分类器的AI安全研究员来说,几乎任何实际工作流都用不上。

这些工作流真正需要的是结构化、多维度、可查询的框架数据。于是有人把它做出来,封装成MCP服务器,任何AI助手都能调用。

31维评分体系

Helium MCP对每篇文章从31个维度打分。部分示例如下:

  • liberal_conservative——标准左右轴(保留以兼容旧系统)
  • credibility——信源密度、具名信源比例、证据引用模式
  • opinion_vs_fact——观点语言与陈述事实语言的比例
  • scapegoating——行为者归责模式vs结构性解释模式
  • covering_responses——文章是否给被批评的个人/组织留出回应空间
  • fearful——情感效价、威胁性语言
  • sensationalism——标题与正文的放大效应、最高级密度
  • overconfidence——模糊限定语vs陈述确定性
  • intelligence——阅读难度、概念密度
  • begging_the_question——框架中预设结论
  • oversimplification——将复杂因果关系简化为单一因素
  • ai_authorship_probability——文章由大模型生成的显式估计

还有19个维度未列出。关键是每个维度都实现了可操作化——不是凭"感觉"贴标签,而是从文本特征计算得出。

数据规模与覆盖

  • 320万+篇文章
  • 5000+个信源
  • 持续更新
  • 覆盖全球主流媒体、美国党派媒体、商业媒体、科技媒体、地方媒体及长尾/超本地信源

MCP接口设计

Helium MCP通过三个主要工具向AI助手开放:

  • get_source_bias(source)——聚合某信源近期语料的评分
  • get_bias_from_url(url)——抓取并评分指定URL
  • search_articles(query, filters)——按偏见维度筛选文章

所有工具返回结构化JSON,包含各维度原始分、置信区间、解释性元数据。AI助手可以据此做事实核查、生成偏见对比、或训练自己的分类器。

谁在用

早期用户包括:事实核查机构(批量筛选待核查声明)、新闻素养课程(让学生对比同一事件的不同框架)、AI安全团队(为红队测试生成偏见变体)。

开发者表示,单轴偏见评分是"给用户他们以为自己想要的",而31维框架是"给他们真正需要的"。