春节档的电影院挤满了人,大家坐得笔直,眼睛都盯着屏幕看,耳朵却基本没在听,《哪吒2》里哪吒喊出“我命由我不由天”,声音一小,弹幕就刷起来说字幕呢听不清了,连《阿凡达3》这样的引进片也是一样,字幕一没了,观众就看不懂了,这事儿在美国那边完全不是这样,诺兰的《奥本海默》上映的时候,北美影院坚持不放字幕,流媒体平台默认关掉字幕,只有7%的人会自己去打开字幕,他们不是偷懒,是真心觉得字幕没什么用。
为什么差别这么大,其实和语言本身有关系,中文一个音节能表达的意思,英文需要说好多次才能讲清楚,比如“我们今晚八点见”这句话,中文用三个字就能说完,英文得念七个音节,法国里昂大学研究过十七种语言的信息密度,发现中文最高,达到0.94,英语是0.91,日语只有0.49,这说明中文靠单个字就能传递更多意思,不用依赖听的方式。
汉字不是拼音文字,它是个图形,是二维符号,你看“尴尬”两个字,脑子里立刻有画面、有感觉,根本不用先转成声音再理解,英语就不行,读和听都走同一个脑区——布洛卡区,你一边看字幕一边听台词,大脑直接打架,欧美人抗拒字幕,不是傲慢,是神经层面真吃不消。
中文里同音字实在太多,就像赵元任写的《施氏食狮史》,全文96个字都发“shī”这个音,光靠耳朵听,你分不清说的是“狮子”还是“城市”,如果看中文内容没有字幕帮忙,只听声音的话,很容易卡在“是、市、事、试”这些同音字上转不出来,这其实不是听力的问题,而是语言系统本身的设计特点,必须借助视觉来帮助理解,否则信息传递就会断掉。
现在人们经常一边做事一边看视频,在地铁上刷剧,在办公室听播客,手机静音成了常见选择,字幕不再只是辅助工具,它本身就成了内容,弹幕更是如此,年轻人在字幕下面添加吐槽、补充背景、玩梗互动,整个屏幕变成了可以阅读的界面,美国人说画面被文字盖满怎么观看,中国人回答我们不是在欣赏画面,而是在阅读屏幕,这已经不只是观看方式不同,而是信息接收的逻辑发生了变化。
诺兰坚持不给电影加字幕,是因为他想让观众用耳朵去感受电影,把对话声音压得很低,让风声、心跳这些环境音更突出,从而营造沉浸式的观影体验,这在他看来是一种艺术上的选择。但这里有个问题:英语观众可以靠听力直接理解台词的意思,而中文观众却很难做到这一点,你让一个中文观众光凭听来分辨角色说的是“我要复仇”还是“我要休息”,很容易听错,这并不是哪种语言更好或更差的问题,而是因为两种文字的结构不同,处理信息的方式也不一样。
久而久之,中国观众的大脑就自然升级了,他们练出了边听边看的神经回路,视觉接收七成以上的信息,听觉只是用来补漏,字幕不是听力差的遮羞布,而是适应高密度汉字的生存策略,别人在练习专注听讲,我们在练习多线程处理,这背后没有好坏之分,只有合适与否。
有人觉得字幕太吵,会干扰画面,但对很多人来说,没字幕就像信号中断一样难受,你不能说谁对谁错,就像不能说左撇子写字慢一样,语言系统早就把我们的脑子调成另一种模式了,现在进电影院,第一反应不是调音量,而是找字幕开关,这已经不是习惯,是条件反射。