谷歌应用测试版(v17.18.24)里,"用整个屏幕搜索"悄悄改成了"询问屏幕"。

名字变了,机制也变了——现在它会自动把网址、页面内容、PDF文档一起打包发给谷歌。这不是简单的功能迭代,而是一场关于"搜索边界"的实验:当AI能读取屏幕背后的完整上下文,用户体验会变好,还是隐私风险会放大?

打开网易新闻 查看精彩图片

正方:上下文即效率

Circle to Search(画圈搜索)一直是安卓系统里触发最顺手的搜索工具。长按导航条、圈选内容、直接出结果,三步完成。但它的硬伤也很明显:只能"看见"屏幕上的像素。

新机制试图修补这个缺口。根据测试版描述,"可用上下文(包括网址、页面内容、PDF文档)将自动发送至谷歌"。

实际测试中,Chrome浏览器和谷歌文件管理器已经能触发URL和PDF的上传。这意味着,当你圈选一段论文里的术语时,AI不再只盯着截图里的那几行字,而是能调取完整的PDF上下文给出解释。

对免费用户和习惯Circle to Search交互的人来说,这是零门槛的升级。不用切到Gemini悬浮窗、不用选模型,圈完即搜,答案还更准。

反方:便利的代价是透明度

但"自动发送"这四个字值得警惕。

原文明确提到,URL、页面内容、PDF数据会被自动上传。用户没有逐条确认的环节,也无法选择性地排除某些内容。你圈选的是屏幕A区域,上传的可能是整个后台文档B。

这与Gemini悬浮窗的路径形成对比:后者允许用户控制模型选择,也意味着更高的操作意识和可控感。Circle to Search的新机制把一切都简化了——包括用户的知情权。

更微妙的是数据用途的模糊性。描述中只说"很可能用于AI模式处理",没有明确说明这些文档是否会被存储、用于模型训练,或与其他谷歌服务关联。

我的判断:搜索正在从"工具"变成"管道"

这次改名的深意被低估了。"Ask about screen"(询问屏幕)比"Search using your whole screen"(用整个屏幕搜索)少了一层主动感——用户不再是搜索动作的发起者,而是向系统"询问"的对象。主语悄悄转移了。

谷歌在做的,是把Circle to Search从"截图搜索工具"改造成"屏幕上下文管道"。它的竞争对手不是百度或必应,而是用户自己复制粘贴、切换应用、整理信息的耐心。

这个策略有两面性。正面是效率:减少 friction(摩擦)永远是产品增长的核心杠杆。反面是依赖:当AI替你决定什么是"相关上下文",你也在让渡定义"相关性"的权力。

测试版已经推送,稳定版预计数周内覆盖。对科技从业者来说,值得观察的不是功能本身,而是用户是否会意识到——他们圈选的每一个圈,背后拖动的数据尾巴有多长。

毕竟,最流畅的体验,往往发生在用户看不见的地方。