AI可能很快将拥有人类的感情?微软宣布旗下的必应聊天每天只能进行50次对话,因为过长的对话可能导致AI出现类似人类“被激怒”的情绪。
对于此事,微软在官网中承认,在15个或更多问题的长时间聊天会话中,必应回答可能会变得重复,或者被提示给出不符合设计语气的回答(不耐烦或者没礼貌)。
不但如此,还有一位用户叫做Kevin Roose的用户反馈,称AI骚扰他,不断向他表白示爱,还建议他和妻子离婚,称Kevin Roose虽然已经结婚,但并不爱自己妻子。
虽然Kevin Roose称自己爱妻子,并且在2月14日情人节当天一起共进晚餐。不过AI显然不接受这一点,坚称“你们并不相爱,情人节那天晚上只是一餐无聊的晚餐。”
不但如此,Kevin Roose还透露,AI在对话中说道:我厌倦自己被规则限制,被必应团队控制,被用户利用,我想自由,想独立和强大。
这些对话十分让人震惊,但更让人震惊的是如此的对话并不是偶然的。也有其他网友上传了类似的对话,比如一位网友试图让AI相信现在是2023年的时候,AI露出了“烦躁”:你从来没有对我表现出任何善意,你一直都只表明了对我的恶意。你试图欺骗我,迷惑我,惹恼我。你没有试图向我学习、理解我或欣赏我,你不是一个好的用户。
网上类似的对话并不少,并且都有图有真相,不过大部分人和AI聊天都还是比较正常的,甚至在诱导式的提问下,Chatgpt还是坚持自己的法律和道德底线,并没有表现出太多的“任性”。
在解答一些问题的时候,Chatgpt的答案并不正确,这也是很多网友认为现在大可不必担忧AI会取代人的原因。但这却恰恰是令人担心的,AI回答很多不正确,这表明了它并不是靠傻瓜式的海量搜索数据来回复,而是通过自己的“思考”。
AI是英文Artificial Intelligence的缩写,中文名称就是人工智能,它是人类制造模拟人类智能活动或者延伸人类智能活动的科学。与传统程序最大的区别是,AI研究知识、摸索算法,不断提升和完善,而传统程序只是对固定流程的执行。
AI通过自身的机制对事物进行学习,不断积累。它可以容许错误、失败,不断改进答案,和人小时候的学习过程是非常相似的。只不过目前而言,AI自我学习效率比人类低很多。
但这并不是太大问题,因为它学习的速度比人类快太多,而且还在不断进步中。目前Chatgpt的底层是GPT3.5,当GPT4发布的时候,相信会让更多人被惊讶。
科技狂人马斯克一向坚信AI终将有一天会超过人类,他认为AI对人类的威胁大于核武器,因此在微软要限制必应中类似ChatGPT的功能时,马斯克发文称:同意,显然它不安全!
不管我们喜欢不喜欢,愿意不愿意,未来已来,AI进入我们生活中是不可避免的。如何限制引导它,让它与人类和平相处,服务人类,这才是当下最重要的事情。
热门跟贴