
1245个字 阅读时长:3分钟
中产先生 | 洞见时代发现价值讲述生活
副作用开始显现。
最近,有个消息传播广泛:
截至2024年末,80后死亡率突破5.2%,相当于每20个80后中就有1人已经去世。
看完吓人一跳。
不知道从什么时间开始,80、90一代就自认为是被时代透支的一代,如今人到中年,各种压力加身,自然对这种信息也更容易产生共鸣。
但是,这个消息显然不是真的。
而且深挖了一下发现,这个错误消息:
可能是DeepSeek错误制造出来的。
来自上海辟谣网的消息:
经过溯源发现,这个数据的源头可能是DeepSeek通过网页搜索整合出来的。


这个数据存在多个错误:
单位错误、来源不明、计算方法缺陷。
也说明了一个问题:
在AI时代,完全信任AI而放弃人工思考,不见得是一个好现象。
随着DeepSeek的火爆,带来的AI平权让普通网民使用门槛越来越低,但同时也发现了一些问题。
这个问题已经被越来越多的人发现,就是:
AI的逻辑推理天衣无缝,但是存在语料和数据污染的现象。
而且现在AI在回答问题的时候:
存在为了逻辑的严密性,而故意张冠李戴,甚至瞎说一通。
小作文写得非常溜,我不知道这是不是大模型设计方面无法避免的现象,特别是对蒸馏大模型来说:
用的是蒸馏过的标准答案来训练逻辑推理能力,但存在原始语料和知识储备不足的情况。
对于有相关知识储备的人来说,一眼就能看出问题所在,但是对于小白或者完全的门外汉来说,就会深信不已。
有没有能力分辨,这个问题还是很大的。
这会造成了一个认知的分层:
社会平均认知水平以上的,可能会通过以往的训练发现错误所在,更好的使用AI,甚至帮助AI提升训练水平。
社会平均认知水平以下的,可能存在被误导而不自知的问题,对于一些明显错误的信息深信不疑,持续发酵。
长久以往:
因为人数的原因,会不会一些明显错误的信息会借着AI成为社会大多数人的共识呢?
这已经不是科幻了,已经是正在出现的现象。
有没有什么机制可以后期修正,最好是有机构和相关部门已经注意到这个现象,并且着手改善。
完全去中心化的信息平权,不见得完全是好事。
对于普通人,在使用AI的时候,也要注意:
保持一点质疑的精神。
就这样。
民企座谈会上的重要事。
一天之内有两个高规格的事: 新闻联播花了6分钟时间报道杭州,昨天上午高规格民企座谈会正式召开。
坊间已经热议纷纷,从现有的信息可以看出哪些重要的事情?
可以继续阅读: 。
10个朋友读过 趋势
500个点赞 局势
阅读10万+ 深度
热门跟贴