打开网易新闻 查看精彩图片

1245个字 阅读时长:3分钟

中产先生 | 洞见时代发现价值讲述生活

副作用开始显现。

最近,有个消息传播广泛:

截至2024年末,80后死亡率突破5.2%,相当于每20个80后中就有1人已经去世。

看完吓人一跳。

不知道从什么时间开始,80、90一代就自认为是被时代透支的一代,如今人到中年,各种压力加身,自然对这种信息也更容易产生共鸣。

但是,这个消息显然不是真的。

而且深挖了一下发现,这个错误消息:

可能是DeepSeek错误制造出来的

来自上海辟谣网的消息:

经过溯源发现,这个数据的源头可能是DeepSeek通过网页搜索整合出来的。

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

这个数据存在多个错误:

单位错误、来源不明、计算方法缺陷

也说明了一个问题:

在AI时代,完全信任AI而放弃人工思考,不见得是一个好现象。

随着DeepSeek的火爆,带来的AI平权让普通网民使用门槛越来越低,但同时也发现了一些问题。

这个问题已经被越来越多的人发现,就是:

AI的逻辑推理天衣无缝,但是存在语料和数据污染的现象。

而且现在AI在回答问题的时候:

存在为了逻辑的严密性,而故意张冠李戴,甚至瞎说一通

小作文写得非常溜,我不知道这是不是大模型设计方面无法避免的现象,特别是对蒸馏大模型来说:

用的是蒸馏过的标准答案来训练逻辑推理能力,但存在原始语料和知识储备不足的情况。

对于有相关知识储备的人来说,一眼就能看出问题所在,但是对于小白或者完全的门外汉来说,就会深信不已。

有没有能力分辨,这个问题还是很大的。

这会造成了一个认知的分层:

社会平均认知水平以上的,可能会通过以往的训练发现错误所在,更好的使用AI,甚至帮助AI提升训练水平。

社会平均认知水平以下的,可能存在被误导而不自知的问题,对于一些明显错误的信息深信不疑,持续发酵。

长久以往:

因为人数的原因,会不会一些明显错误的信息会借着AI成为社会大多数人的共识呢?

这已经不是科幻了,已经是正在出现的现象。

有没有什么机制可以后期修正,最好是有机构和相关部门已经注意到这个现象,并且着手改善。

完全去中心化的信息平权,不见得完全是好事

对于普通人,在使用AI的时候,也要注意:

保持一点质疑的精神。

就这样。

民企座谈会上的重要事。

一天之内有两个高规格的事: 新闻联播花了6分钟时间报道杭州,昨天上午高规格民企座谈会正式召开。

坊间已经热议纷纷,从现有的信息可以看出哪些重要的事情

可以继续阅读: 。

10个朋友读过 趋势

500个点赞 局势

阅读10万+ 深度