AirPods已经上市整整十年。从最初只能靠敲击切歌,到如今内置H2芯片的型号能识别头部动作,苹果在这副白色耳机里塞进的交互方式,远比大多数人意识到的要多。

早期的AirPods 1和2代功能相当有限。除了播放/暂停、切歌和唤醒Siri,唯一的"隐藏"手势是单击接听电话——这还是因为 tap 传感器不如 Pro 系列的力度传感器精密,苹果没给更多选项。直到 AirPods Pro 初代,用户才首次能用上下滑动调节音量,这个设计延续至今。

打开网易新闻 查看精彩图片

真正的变化发生在搭载 H2 芯片的现款产品线:AirPods 4(主动降噪版)、Pro 2 和 Pro 3。苹果首次允许深度自定义按压手势——进入 iPhone 设置中的 AirPods 选项,可以把"按住"指令从切换降噪模式改为直接呼叫 Siri。更隐蔽的是头部动作识别:来电或消息提醒时,上下点头表示接听或回复,左右摇头则是拒绝。

很少有人知道的是实时翻译功能。同样仅限 H2 芯片机型,同时按住两侧耳机柄即可启动对话翻译。首次使用会提示下载语言包,之后离线也能运行。不过 AirPods Max 2 的操作逻辑不同:需要按住数码表冠旁边的聆听模式按钮,而非耳机柄。

这些功能被埋在两层菜单深处,没有系统级引导。苹果似乎默认用户会主动探索设置,但现实中大多数人连"按住可以改功能"都不清楚。十年迭代积累下来的交互层,最终成了只有少数人会翻看的说明书附录。