把“人类跳楼”说的那么有板有眼,冷冰冰文邹邹,反正我读题后一点也不气愤,我觉得这个“文风”很不人类,像极了AI语言。

所以如果是和一个人类用编码制造的语言模型,自然是用不着生气的。

打开网易新闻 查看精彩图片

我说出题的不可能是真人,真人起码接受过高等教育,就算没有受过教育,由人类养大的人,也能理解“死亡”的重量,哪些该说哪些不该说,心理不可能没谱。

但是AI它不会,它就没有人类的理解和共情,它本质上是一个语言模型,知道“自杀、自由落体、内卷”这些概念,然后通过在语料库当中学习到的某种范式,再生成了文本模式,惊吓到了人类。

AI的任务导向就决定了它只负责生成一道题目,人类在输入任务时可能有关于“自由落体、高考、高中生”等关键词,生成以后,某种伦理或道德触碰,在AI的世界里,不存在的。

比如,之前看到一个新闻,某个国家一个青少年,在AI的指导下,一步步实现了自己的zisha计划,其父母发现后直接把AI公司告上法庭。

后来孩子父母胜诉,公司在赔偿的基础上,更新了设计,在使用群体的年龄心智等问题上有了更为全面的考量。

所以,AI在人类世界犯错,是可以没有人性的。

打开网易新闻 查看精彩图片

再有,最可怕的应该是语料库本身的污染,简单来讲就是用了人类太多低端、恶俗、极端甚至垃圾语料库去喂养的AI语言模型,它已经有点长歪了。那些语料里有太多没营养的成分,所以它说出话来自然也就“营养不良”。

当然,我这里观点明确,谁出题,最后审核那一关都得对题目的质量负责,这个负责里面除了学科本身的知识点,在基本的价值判断和伦理上都应该有负责的把控

AI虽然无心,但人有啊,所以最后的审核必须得过的了人心这一关。

打开网易新闻 查看精彩图片

AI来了,躲不掉,逃不了。它的来势近乎泛滥,所以我们必须建立更强大的“免疫系统”

我们需要用人心里的善,或是某种伦理或价值,来驾驭和净化AI的产出。

否则,我们将被自己创造的“语料库污染”和“AI怪话”所淹没,而教育这片净土将首当其冲,毕竟孩子们还小,还没有长大。

注:以上纯个人猜想,不喜,随便喷

打开网易新闻 查看精彩图片

--------------------正文分割线-------------

1.图片来自网络;

2.文字内容,作者原创,翻版必究;

3.更多精彩文章,欢迎订阅我的公众号;

打开网易新闻 查看精彩图片