一、了解人工智能

一、了解人工智能

1.大语言模型的技术原理

ChatGPT的技术原理,是充当一个非常精妙的自动输入补全工具,也就是预测下一个词。比如你输入“离离原上”这四个字,它一定会预测下一个字是“草”。因为离离原上草这句诗太经典了,“离离原上”之后会接“草”这个字的概率非常高。但如果你问:“火星人吃香蕉,是因为?”那答案可就千变万化了,因为在这种开放式的问题中,可能性实在太多了。而且大语言模型本身会故意加入一点“随机性”,这样才能让每一次对话都有点差别,让ChatGPT有点“人味”。

打开网易新闻 查看精彩图片

2.训练方法:预训练+微调

想让人工智能像人类一样理解和生成语言,第一步,就是给让它阅读大量的文本,这些文本可能来自网站、书籍、新闻等等,各种你能想到的数字文档,都让它读一遍。这个阶段叫做预训练。和早期的AI不同,大语言模型的训练是无监督学习,也就是说,不需要人为地一个字一个字去标注什么意思,就让AI自己看、自己学,靠分析大量的例子,慢慢学会人类语言中的模式、结构和上下文。

打开网易新闻 查看精彩图片

第二步是微调,让人参与进来,对AI进行更细致的训练。一种非常关键的微调方法,叫做人类反馈强化学习,也就是让人来帮AI“纠正答案”。 人工智能公司会雇一批人,阅读AI生成的回答,然后做出判断:这个回答准不准确?是不是符合人类的道德标准和表达习惯?有没有包含暴力、色情、种族歧视等内容?这些人类给出的反馈,会被用于额外的训练,微调人工智能的性能,让它们的回答更适应人类的偏好。除了这种“基础微调”,很多公司还会根据自己的需求进行定制微调。比如,一家公司想用AI来当客服,他们会提供人工客服的历史对话和一些回复范例,让AI的学习能更贴近公司业务。

3.人工智能训练过程中的伦理问题

伦理争议很大程度上来自于人工智能所学习的预训练材料。大多数AI模型的语料库,包括一些无需授权的公共资源,比如维基百科、政府网站等等。但除此之外,他们还从大量公开网站上抓取内容,其中可能也包括了有版权的内容。使用这些内容训练人工智能,这种做法是否合法,不同的国家有不同的做法。即使人工智能的预训练是合法的,它也有可能是不道德的。大多数人工智能公司在抓取训练数据时,并没有征得创作者的同意。

另一个更严重的伦理问题是——人工智能也有偏见,它继承了人类社会中原本就存在的刻板印象。人工智能公司的计算机科学家们,决定了收集哪些数据,作为人工智能的训练材料。这些科学家往往是受过良好教育的白人男性,他们在决定收集哪些数据时,会带有自己的偏见。这就导致人工智能对世界的了解出现了偏差,因为它的训练数据根本不能代表互联网人口的多样性,更不用说代表整个地球了。人类反馈强化学习虽然能用来矫正偏见,但是也可能会引入新的偏见。AI还有一个公认的弱点:它其实很容易被人操控。只要技巧得当,人类就能说服他们违背自己的规则进行操作,甚至突破设定的安全边界。

打开网易新闻 查看精彩图片

降低人工智能带来的风险,需要一场社会各界共同参与的深度协作:人工智能公司应该把透明度、问责机制和人为监督等原则纳入核心设计;研究人员需要被激励去开发有益于社会的技术;而政府需要制定合理的法律法规,确保公众利益高于企业的盈利动机。最重要的是,公众需要接受人工智能教育,成为有判断力的AI使用者。

二、用好人工智能

二、用好人工智能

1.与人工智能合作的四项原则

原则一:始终邀请人工智能参与讨论。在不违法、不违规的前提下,什么事都可以试着让AI帮你一把。哪怕最后不用它的建议,至少你能慢慢摸清楚它的能力边界,知道它擅长做什么,能怎么帮助我们。

原则二:成为回路中的人。面对越来越强的AI系统,我们要积极参与,绝对不能把决策全甩给它。这样做不仅能让你保持自己的专业能力,也能避免出错,同时确保AI给出的解决方案,是符合人类的价值观和道德标准的。

原则三:像对待人一样对待人工智能。人工智能不同于人类,但经常以接近人类的行为方式工作,尤其是大语言模型,确实很“像人”,它们能完成人性化的任务,也会像人一样犯错。所以,使用AI的时候,最好明确地告诉人工智能它是谁。指令越清晰具体,AI越知道怎么帮你,也越少出错。

打开网易新闻 查看精彩图片

原则四:假设这是你用过的最糟糕的人工智能。永远不要迷信人工智能,它很强大,但它也会犯错,而且有时候会一本正经地瞎编,这就是所谓的“幻觉”。我们必须保持警惕,把AI当作一个非常努力但能力有限的助手。不过,人工智能的局限性是短暂的,现在的AI也许是你这辈子用过最菜的一版,以后它只会越来越强,越来越靠谱。所以,一边对AI的能力保持怀疑,一边对AI的发展保持开放,就是最好的态度。

2.与人工智能的合作方式

方式一:把人工智能当成创作者。人工智能会产生幻觉,会瞎编乱造,但如果换个角度看,这就是创造力的一种表现。不妨试着邀请AI参与头脑风暴,帮你打破思维局限,生成新的创意或解决方案。大语言模型本质上就是一种连接机器,它在词语之间建立关系,不管它们乍看之下有没有逻辑。再加上模型设计里故意加入的一点“随机性”,它就能蹦出一些意想不到的新点子。

打开网易新闻 查看精彩图片

方式二:把人工智能当成同事。我们可以把工作任务分成三类。第一类任务是只属于人类的任务。只有人类能干,AI干不了,比如育儿、讲笑话。第二类是委托任务,你可以交给AI去做,但最后需要你自己把关,仔细检查。第三类任务是自动化任务,那些对你来说不重要又特别耗时间的任务,可以交给AI去做,比如过滤垃圾邮件、校对文稿。当我们对工作进行重新分配,把繁琐、无意义的任务交给AI之后,我们也许会更喜欢工作。

方式三:把人工智能当成导师和教练。人工智能可以指导学生完成学业,必要时还可以提供其他学习路径。而且,人工智能导师可以提供个性化的指导,根据每个学生的需求,因材施教,定制教学计划。它还可以提供实时反馈,帮助学生根据自己的学习进度调整节奏。我们还可以利用人工智能开发训练系统,让他扮演教练,指导学生进行练习。

3.警惕和AI合作带来的潜在风险

首先,过度依赖人工智能,可能会让我们放弃对工作的主动性和判断力。当人类放弃思考,把选择权完全交给算法时,反而可能降低整体的决策质量。

其次,人工智能可能会侵蚀我们的创造力和思维深度。如果我们总是接受AI给出的第一个想法,不再主动尝试探索不同的视角或替代方案,久而久之,我们的大脑就会变得迟钝,失去质疑、反思和突破的能力。请记住,人工智能是强大的工具,但工具不能代替思考。

打开网易新闻 查看精彩图片