美国有3200万成年人读不懂一份普通报纸。不是不认识某几个生僻字,是真的读不懂。
这事发生在一个人均教育投入全球前列、义务教育已经推行了一百多年的国家。更奇怪的是,七十年前,美国的识字率还是90%。七十年过去,反而退到了79%。
钱花哪了?这不科学啊——这大概是每个看到这个数据的人,脑子里冒出来的第一个念头。
一、3200万只是个起点
先说说这个数字到底意味着什么。
3200万,是那些连基本句子都读不通的人,连填个简单表格都困难,这是美国教育部自己做的调查。但这还只是冰山一角。
如果把标准稍微放宽一点,算上那些勉强识字但无法有效理解和运用文字的人,这个数字会膨胀到4300万。
再放宽一点,算那些阅读能力低于小学六年级水平的成年人——美国有1.3亿人,占成年人口的一半多,无法给自己的孩子完整地朗读一个短故事。
这不是在玩文字游戏,改变统计口径。这三个数字说的是同一个现象的不同截面:这个国家里,有相当庞大的一群人,被文字挡在了门外。
更让人皱眉的是,这个问题在变严重,而不是在变好。2017年的调查里,阅读能力最弱的那一档人群占19%,到了2023年,这个比例升到了28%。这意味着近十年间,又有将近一亿美国人的阅读水平在退步。
退步这件事,和收入高度绑定。在16到21岁的失业年轻人里,有一半阅读能力低下。而那些长期依赖政府救济的人群里,四分之三没有基本阅读能力——他们甚至看不懂自己手里的补贴申请表。
这个循环是怎么运转的?读不了东西→找不到像样的工作→收入低→生活困难→子女受教育环境差→下一代继续读不了东西。
普通的国家出现这种问题,人们会说:穷,学校少,孩子上不起学。但美国的学校不少,教育预算也不低,为什么还会这样?
这个问题的答案,其实藏在英语这门语言本身里面。
二、英语是怎么把自己搞成这样的
要理解英语为什么这么难学,得先知道它是怎么变成今天这副样子的。
英语有多少个单词?没有人能给出一个准确答案。《牛津英语词典》收录了大约60万个,但如果算上专业术语、俚语、行业用语,估计超过100万。而且这个数字每98分钟就会新增一个词。
这在人类主要语言里是个异类。法语有法兰西学院,专门负责给语言"把关",决定哪些词能进词典,哪些词要拦在门外。中文有《通用规范汉字表》,日常覆盖90%以上的内容,常用字就那几千个。
英语呢?它是人类主要语言里,唯一没有中央监管机构的语言。
这不是什么天然的文化基因,而是一个历史事故。1665年,一群英国文人正在筹划成立一个"英语学院",打算给语言立规矩。结果当年伦敦爆发了黑死病,主要发起人之一感染去世,贵族们纷纷逃离城市,这件事就这么烂尾了。此后虽然有人呼吁重启,但始终没有成功。
没有人看门的结果,就是英语的词汇库变成了一个没有底的桶。
更麻烦的是,英语历史上有一道深深的裂缝,裂缝叫"诺曼征服"。1066年,法国诺曼贵族打进英国,征服者说法语,被征服者说古英语。两套语言并行了几百年,最后在英语里留下了大量的"同义词对"。
一头猪活着的时候,英语底层农民管它叫pig;这头猪被端上贵族餐桌之后,变成了法语词pork。活牛叫cow,牛肉叫beef;活羊叫sheep,羊肉叫mutton。同一个东西,穷人和富人用两套不同的词,这道裂缝一直留到了今天。
这种词源混乱在专业领域被放大到了极致。
法律英语里,95%的词汇来自拉丁语或法语,什么"人身保护令"——英语原文是三个拉丁词,什么"遵循先例"——又是两个拉丁词。普通美国人走进法庭,感觉像是在看天书。
医学英语更离谱。"耳鼻喉科"在中文是三个器官加一个科室,一目了然。在英语里是一个拼凑自三个希腊词根的长串字符,和"耳朵""鼻子""喉咙"这些日常词之间没有任何视觉上的关联。
这不是医学严谨性的必然要求,而是历史上知识精英有意或无意地用拉丁语词根构建了一道门槛,把专业知识锁在圈子里。
结果呢?美国只有12%的成年人具备在医疗系统里正常导航的能力——能看懂处方、理解医嘱、做出知情决策。其余88%,面对一张普通的药品说明书,都处于不同程度的"功能性文盲"状态。
研究人员做过一个实验:让父母按照说明给孩子喂退烧药,由于说明书里对两种不同浓度配方的描述让普通人难以区分,结果有一半的父母给孩子喂了双倍剂量。
从读不懂词汇,到给孩子喂错药,这条链子没有任何一处是夸张的。
三、同样的起点,走出了截然不同的故事
现在来看一组对比,会让人更直观地感受到这件事。
1949年,中国的文盲率超过80%。那是一个真正意义上的文盲大国。七十年后,中国的识字率升到了97%。
同一时期,美国的识字率从90%降到了79%。
两条曲线,方向完全相反。
这当然有历史背景、政策投入等各种因素,但其中有一个维度被忽视了,那就是语言本身的结构是否支持大规模识字。
中文有一个英语没有的特性:新词是用旧字拼出来的。
"人工智能"——人工加智能,不认识这个词的人,猜也能猜出大意。"电脑"——电力加大脑,小孩子也懂。"量子计算机"——三个旧词,组成一个新概念,读者至少知道这是一台计算机。
英语呢?Artificial Intelligence,对不懂拉丁语词根的人来说,就是两个陌生符号拼在一起。Computer,源自拉丁语"计算",和"电"这个概念没有任何形态上的关联,必须重新死记。
语言学家测过,每个汉字携带的信息量大约是英文字母的两倍多。联合国宪章有六个官方语言版本,中文版用了大约460个独立词汇就把全部内容表达清楚了,英文版用了将近9700个。
这不是说中文"更高效"这种笼统的话。这是说,在传递同等信息的时候,中文对使用者的词汇储量要求更低,普通人的"入场门槛"更低。
1956年,中国推行简化字改革,把常用汉字的笔画平均减少了将近两画。听起来很小的调整,配合全国扫盲运动,十四年间消除了一亿文盲。
这当然不是说中文完美无缺,也不是在贬低英语。英语作为全球通用语,有它不可替代的价值。
但当我们看到美国有超过一亿成年人读不懂一篇普通文章,而这件事在过去七十年里不是在改善而是在恶化,就不得不承认:这场危机,有一部分根子就埋在语言结构里面。
英语每诞生一个新词,使用者就需要重新记住一个和已知词汇没有关联的新符号。中文每造一个新词,旧字组合一下,大多数人不需要刻意去学,就能推出个大概。
同样是语言,一个在拉人进来,一个在把人挡在外面。 这个差距,在70年的时间跨度里,变成了两个国家截然不同的识字率曲线。
热门跟贴