打开网易新闻 查看精彩图片

本周值得关注的大模型 / AIGC 前沿研究:

  • Meta 新研究:大模型的端到端推理加速

  • 超越思维链(CoT),“Chain-of-X”范式调查

  • 微软、清华团队提出多头混合专家 MH-MoE

  • BattleAgent:再现历史事件,对历史战役进行多模态动态模拟

  • OpenAI 最新论文:如何让大模型免受恶意攻击?

  • 综述:大型语言模型的高效推理

  • 谷歌 274 页论文:高级人工智能助手的伦理

  • 清华、Meta 提出文生图定制新方法 MultiBooth

  • 微软发布 Phi-3 技术报告:手机上的高功能语言模型

  • 上海 AI Lab 推出开源多模态大模型 InternVL 1.5

  • Tele-FLM 技术报告

  • 苹果推出开放语言模型 OpenELM

  • Google DeepMind 新研究:减轻说服型生成式 AI 的危害

  • 清华团队新研究:通过提示工程在 LLM 中整合化学知识

  • MIT CSAIL 推出多模态自动可解释性智能体 MAIA

  • PhysDreamer:通过视频生成,与 3D 物体进行基于物理交互

想要第一时间获取每日最新大模型热门论文? 扫描下方二维码,加入「大模型技术分享群」。 或点击“阅读原文”,获取「2024 必读大模型论文」合集(包括日报、周报、月报,持续更新中~)。

1.Meta 新研究:大模型的端到端推理加速

来自 Meta 的研究团队及其合作者,提出了一种端到端的大型语言模型(LLM)推理加速解决方案——LayerSkip。

首先,在训练过程中,他们采用了层间丢弃技术,早期层间丢弃率较低,后期层间丢弃率较高。其次,在推理过程中,他们证明这种训练方法提高了早期退出的准确性,而无需在模型中添加任何辅助层或模块。第三,他们提出了一种新型自我推测解码方案,即在早期层退出,并通过模型的其余层进行验证和校正。与其他推测式解码方法相比,该方法占用的内存更少,并能从共享计算以及草稿和验证阶段的激活中获益。

他们在不同大小的 Llama 模型上进行了不同类型的训练实验:从头开始预训练、持续预训练、针对特定数据域的微调以及针对特定任务的微调。他们验证了推理解决方案,结果表明,CNN/DM 文档的摘要处理速度提高了 2.16 倍,编码速度提高了 1.82 倍,TOPv2 语义解析任务的速度提高了 2.0 倍。

打开网易新闻 查看精彩图片

论文链接:
https://arxiv.org/abs/2404.16710

2.超越思维链(CoT),“Chain-of-X”范式调查

思维链(CoT)是一种被广泛采用的提示方法,能激发大型语言模型(LLM)令人印象深刻的推理能力。受 CoT 的顺序思维结构的启发,人们开发了许多 Chain-of-X (CoX) 方法,从而应对涉及 LLM 的不同领域和任务中的各种挑战。

在这项工作中,来自上海交通大学、加州大学圣地亚哥分校的研究团队及其合作者,全面考察了不同背景下的 LLMs Chain-of-X 方法。具体来说,他们按照节点分类法(即 CoX 中的 X)和应用任务对这些方法进行了分类。他们还讨论了现有 CoX 方法的发现和影响,以及潜在的未来方向。

打开网易新闻 查看精彩图片

论文链接:
https://arxiv.org/abs/2404.15676

3.微软、清华团队提出多头混合专家 MH-MoE

稀疏混合专家(SMoE)模型可在不显著增加训练和推理成本的情况下扩展模型容量,但存在以下两个问题:专家激活率低,只有一小部分专家被激活用于优化;缺乏对单个 token 中多个语义概念的细粒度分析能力。

来自微软、清华大学的研究团队提出了多头混合专家(MH-MoE),它采用多头机制将每个 token 分割成多个子 token。然后,这些子 token 被分配给一组不同的专家并由它们并行处理,然后无缝地重新整合为原始 token 形式。多头机制使模型能够集体关注不同专家的各种表征空间的信息,同时显著提高专家激活度,从而加深对上下文的理解并减轻过度拟合。此外,MH-MoE 易于实现,并与其他 SMoE 优化方法解耦,易于与其他 SMoE 模型集成,从而提高性能。

以英语为重点的语言建模、多语言语言建模和掩码多模态建模任务的大量实验,证明了 MH-MoE 的有效性。

打开网易新闻 查看精彩图片

论文链接:
https://arxiv.org/abs/2404.15045

4.BattleAgent:再现历史事件,对历史战役进行多模态动态模拟

来自罗格斯大学的研究团队及其合作者提出了 BattleAgent,这是一个结合了大型视觉语言模型(LVLM)和多智能体(agent)系统的仿真系统,旨在模拟多个智能体之间以及智能体与其环境之间特定时间内的复杂动态互动。

它既能模拟领导者的决策过程,也能模拟士兵等普通参与者的观点,展示了当前智能体的能力,具有智能体与环境之间细粒度多模态交互的特点。它开发了可定制的智能体结构,从而满足特定的情境要求,例如侦察和挖掘战壕等各种与战斗相关的活动。这些组件相互协作,以生动全面的方式再现历史事件,同时从不同的视角洞察个人的思想和情感。

BattleAgent 为历史战役建立了详细和身临其境的场景,使单个智能体能够参与、观察和动态响应不断变化的战役场景。这种方法有可能大大加深我们对历史事件的理解,特别是通过个人叙述。由于传统的历史叙事往往缺乏文献记载,而且优先考虑决策者的观点,忽略了普通人的经历,因此这种举措也有助于历史研究。

打开网易新闻 查看精彩图片

论文链接:
https://arxiv.org/abs/2404.15532

5.OpenAI 最新论文:如何让大模型免受恶意攻击?

当前的大型语言模型(LLM)容易受到提示注入、越狱攻击和其他攻击的影响,这些攻击允许攻击者用他们自己的恶意提示覆盖模型的原始指令。

OpenAI 研究团队认为,这些攻击的主要漏洞之一是 LLMs 经常将系统提示(比如来自应用程序开发人员的文本)与来自不可信用户和第三方的文本视为相同的优先级。为此,他们提出了一种指令层次(instruction hierarchy)结构,明确定义了当不同优先级的指令冲突时模型应该如何选择。然后,他们提出了一种数据生成方法来演示这种分层指令跟随的行为,该方法指导 LLMs 有选择地忽略低特权指令。

他们将这种方法应用于 GPT-3.5,结果表明它大大提高了模型的鲁棒性——即使对于在训练过程中未见过的攻击类型也是如此,同时对标准能力的影响降到最低。

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

论文链接:

https://arxiv.org/abs/2404.13208

6.综述:大型语言模型的高效推理

大型语言模型(LLM)因其在各种任务中的出色表现而受到广泛关注。然而,LLM 推理需要大量的计算和内存,这给在资源有限的情况下部署 LLM 带来了挑战。该领域一直致力于开发旨在提高 LLM 推理效率的技术。

来自清华大学的研究团队及其合作者全面考察了有关高效 LLM 推理的现有文献。他们首先分析了 LLM 推理效率低下的主要原因,即模型规模过大、二次复杂性注意力操作和自动回归解码方法;然后,提出了一个全面的分类法,将目前的文献整理为数据级、模型级和系统级优化;此外,还对关键子领域中的代表性方法进行了比较实验,从而提供定量见解;最后,进行了一些知识总结,并讨论了未来的研究方向。

打开网易新闻 查看精彩图片

论文链接:
https://arxiv.org/abs/2404.14294

7.谷歌 274 页论文:高级人工智能助手的伦理

来自 Google DeepMind、Google Research 的研究团队及其合作者,重点探讨了高级人工智能助理带来的机遇以及伦理和社会风险。

他们将高级人工智能助理定义为具有自然语言界面的 AI 智能体(artificial agents),其功能是根据用户的期望,代表用户在一个或多个领域规划和执行一系列行动。

他们首先从技术本身入手,概述了人工智能助手、其技术基础和潜在应用范围;然后,探讨了与人工智能价值一致性、幸福感、安全性和恶意使用有关的问题,他们将进一步扩大调查范围,更详细地考虑高级人工智能助手与个人用户之间的关系,探讨操纵和说服、拟人化、信任和隐私等话题,有了这些分析之后,他们将考虑在社会范围内部署高级人工智能助手,重点关注合作、公平与获取、错误信息、经济影响、环境以及如何最好地评估高级人工智能助手;最后,他们为研究人员、开发人员、政策制定者和公共利益相关者提供了一系列建议。

分析表明,高级人工智能助手很可能会对我们的个人和集体生活产生深远影响。他们认为,要使人工智能助手有益并与人类价值观一致,就必须对用户、开发者和社会之间相互竞争的诉求和需求做出适当回应。

人工智能助手所具备的功能,如更强的智能体能力、自然语言交互能力和高度个性化,对用户特别有帮助。然而,这些特点也使人们容易受到技术的不当影响,因此需要强有力的保障措施。

此外,当人工智能助手被大规模部署时,它们之间的互动所产生的连锁效应以及它们对更广泛的机构和社会进程的整体影响问题就会凸显出来。这些动态可能需要技术和政策干预,从而促进有益的合作,实现广泛、包容和公平的成果。

最后,鉴于目前的人工智能评估主要侧重于人工智能系统的技术组成部分,因此必须投资于人工智能助手的整体社会技术评估,包括人与人工智能的互动、多智能体和社会层面的研究,从而支持该领域负责任的决策和部署。

打开网易新闻 查看精彩图片

论文链接:

https://deepmind.google/discover/blog/the-ethics-of-advanced-ai-assistants/

8.清华、Meta 提出文生图定制新方法 MultiBooth

来自清华大学和 Meta 的研究团队提出了一种用于从文生图的多概念定制的新型高效技术—— MultiBooth。尽管定制生成方法取得了长足的进步,特别是随着扩散模型的快速发展,但由于概念保真度低和推理成本高,现有方法在处理多概念场景时依然困难。

为了解决这些问题,MultiBooth 将多概念生成过程分为两个阶段:单一概念学习阶段和多概念整合阶段。在单概念学习阶段,他们采用多模态图像编码器和高效的概念编码技术,为每个概念学习一个简明且具有辨别力的表征;在多概念整合阶段,他们使用边界框来定义交叉注意图中每个概念的生成区域。这种方法可以在指定区域内创建单个概念,从而促进多概念图像的形成。

这一策略不仅提高了概念的保真度,还降低了额外的推理成本。在定性和定量评估中,MultiBooth 都超越了各种基线,展示了其卓越的性能和计算效率。

打开网易新闻 查看精彩图片

论文链接:
https://arxiv.org/abs/2404.14239
项目地址:
https://multibooth.github.io/

9.微软发布 Phi-3 技术报告:手机上的高功能语言模型

微软发布了 Phi-3 系列模型,包括 phi-3-mini、phi-3-small 和 phi-3-medium。

其中,phi-3-mini 是一个基于 3.3 万亿个 token 训练的 38 亿参数语言模型,根据学术基准和内部测试结果,其总体性能可与 Mixtral 8x7B 和 GPT-3.5 等模型相媲美(例如,phi-3-mini 在 MMLU 上的得分率为 69%,在 MT-bench 上的得分率为 8.38),而且体积很小,可以部署在手机上。

微软团队表示,Phi-3 系列模型的创新点在于他们的训练数据集,它是 phi-2 所用数据集的放大版,由经过大量过滤的网络数据和合成数据组成。他们还进一步调整了模型的鲁棒性、安全性和聊天格式。

此外,他们还提供了一些初步的参数缩放结果,包括针对 4.8T token 训练的 7B 和 14B 模型,即 phi-3-small 和 phi-3-medium,这两个模型的能力都明显高于 phi-3-mini(例如,在 MMLU 上分别为 75% 和 78%,在 MT-bench 上分别为 8.7 和 8.9)。

打开网易新闻 查看精彩图片

论文链接:
https://arxiv.org/abs/2404.14219

10.上海 AI Lab 推出开源多模态大模型 InternVL 1.5

来自上海 AI Lab 的研究团队及其合作者,推出了一种开源多模态大型语言模型(MLLM)—— InternVL 1.5,其可弥合开源模型与专有商业模型在多模态理解方面的能力差距。

他们提出了三个简单的改进:1)强视觉编码器:他们探索了大规模视觉基础模型——InternViT-6B 的持续学习策略,增强了其视觉理解能力,并使其可以在不同的 LLLM 中转移和重用;2)动态高分辨率:根据输入图像的长宽比和分辨率,将图像划分为 1 至 40 块 448×448 像素的方块,最高支持 4K 分辨率输入;3)高质量的双语数据集:他们精心收集了高质量的双语数据集,涵盖了常见的场景、文档图像,并为其标注了中英文问答对,显著提高了 OCR 和中文相关任务的性能。

评估结果显示,与开源模型和专有模型相比,InternVL 1.5 在 18 个基准测试中的 8 个测试中取得了 SOTA。

打开网易新闻 查看精彩图片

论文链接:
https://arxiv.org/abs/2404.16821
GitHub 地址:
https://github.com/OpenGVLab/InternVL?tab=readme-ov-file

11.Tele-FLM 技术报告

大型语言模型(LLM)在语言理解和生成方面展示了强大的能力,促进了广泛的应用。然而,关于如何以最小的试错成本和计算资源有效地将 LLM 扩展到超过 500 亿个参数的详细开源方法却明显不足。

在这项工作中,来自北京智源人工智能研究院、中国电信的研究团队及其合作者,提出了一个 520 亿参数的开源多语言大型语言模型 Tele-FLM(又名 FLM-2),其具有稳定、高效的预训练范式和增强的事实判断能力。

Tele-FLM 在文本语料库的 BPB 测试中展示了优秀的多语言语言建模能力。此外,在英文和中文基础模型评估中,它与涉及较大预训练 FLOP 的开源模型(如 Llama2-70B 和 DeepSeek-67B)不相上下。除了模型权重之外,他们还分享了核心设计、工程实践和训练细节。

论文链接:

https://arxiv.org/abs/2404.16645

12.苹果推出开放语言模型 OpenELM

大型语言模型(LLMs)的可重复性和透明度,对于推进开放研究、确保结果的可信性、以及对数据和模型偏差以及潜在风险进行调查,至关重要。

苹果研究团队推出了一种先进的开放语言模型 OpenELM。OpenELM 使用分层缩放策略,在 transformer 模型的每一层中有效地分配参数,从而提高了准确性。例如,在参数预算约为 10 亿的情况下,OpenELM 的准确率比 OLMo 提高了 2.36%,而所需的预训练 token 却减少了 2 倍。

与之前只提供模型权重、推理代码以及在私有数据集上进行预训练的做法不同,OpenELM 包含了在公共可用数据集上对语言模型进行训练和评估的完整框架,包括训练日志、多个检查点和预训练配置。

此外,他们还发布了将模型转换为 MLX 库的代码,从而在苹果设备上进行推理和微调。

打开网易新闻 查看精彩图片

论文链接:
https://arxiv.org/abs/2404.14619
GitHub地址:
https://github.com/apple/corenet

13.Google DeepMind 新研究:减轻说服型生成式 AI 的危害

最近,生成式人工智能(AI)系统已经显示出更先进的说服能力,并逐渐渗透到可以影响决策的生活领域。

然而,由于互惠交换和长时间互动的机会,生成式 AI 呈现了一种新的说服风险。这导致人们越来越关注说服型生成式 AI 的危害,以及如何减轻这些危害,从而突出了对说服型生成式 AI 进行系统研究的必要性。目前说服型生成式 AI 的定义不明确,相关的危害也没有得到充分的研究。现有的减轻危害的方法优先考虑说服结果带来的危害,而不是说服过程带来的危害。

在这项研究中,Google DeepMind 团队及其合作者提出了说服型生成式 AI 的定义,并区分了理性说服型生成式 AI 和操纵型生成式 AI(manipulative generative AI),前者依赖于提供相关事实、合理推理或其他形式的可信证据,后者则依赖于利用认知偏差和启发式方法或歪曲信息。

他们还提出了服型生成式 AI 的危害,包括经济、物理、环境、心理、社会文化、政治、隐私的定义和例子。然后,他们提出了一幅导致说服危害的机制图,概述了可用于减轻说服过程危害的方法,包括操纵分类的提示工程和红队。他们未来的工作将使这些缓解措施具有可操作性,并研究不同类型说服机制之间的相互作用。

打开网易新闻 查看精彩图片

论文链接:
https://arxiv.org/abs/2404.15058

14.清华团队新研究:通过提示工程在 LLM 中整合化学知识

该论文介绍了一项关于整合提示工程中特定领域知识来提高科学领域大型语言模型(LLM)性能的研究。

来自清华大学和牛津大学的研究团队设计了一个基准数据集,包括了小分子错综复杂的物理化学特性,在药理学上的可药性,以及酶和晶体材料的功能属性,强调了其在生物和化学领域的相关性和适用性。通过对麦克米伦催化剂、紫杉醇和氧化钴锂等复杂材料的案例研究,证明了该方法的有效性。

研究结果表明,领域知识提示可以引导 LLM 生成更准确、更相关的回答,突出了 LLM 在配备特定领域提示后作为科学发现和创新的强大工具的潜力。研究还讨论了特定领域提示工程开发的局限性和未来方向。

打开网易新闻 查看精彩图片

论文链接:
https://arxiv.org/abs/2404.14467

15.MIT CSAIL 推出多模态自动可解释性智能体 MAIA

MIT 计算机科学与人工智能实验室团队提出了一个多模态自动可解释性智能体—— MAIA。

MAIA 是一个使用神经模型来自动完成神经模型理解任务(比如特征解释和故障模式发现)的系统。它为预训练的视觉语言模型配备了一系列工具,从而支持对其他模型的子组件进行迭代实验,从而解释其行为。这些工具包括人类研究人员常用的工具:合成和编辑输入,计算来自真实世界数据集的最大激活示例,以及总结和描述实验结果。MAIA 提出的可解释性实验将这些工具组合在一起,用于描述和解释系统行为。

他们评估了 MAIA 在计算机视觉模型上的应用。他们首先描述了 MAIA 在图像学习表示中描述(神经元级)特征的能力。在几个经过训练的模型和一个具有配对 ground-truth 描述的合成视觉神经元新数据集上,MAIA 产生的描述与专家人类实验者生成的描述相当。此外,MAIA 可以帮助完成两个额外的可解释性任务:降低对虚假特征的敏感性,以及自动识别可能被错误分类的输入。

打开网易新闻 查看精彩图片

论文链接:
https://arxiv.org/abs/2404.14394
项目地址:
https://multimodal-interpretability.csail.mit.edu/maia/

16.PhysDreamer:通过视频生成,与 3D 物体进行基于物理交互

逼真的物体交互对于创造身临其境的虚拟体验至关重要,然而如何根据新颖的交互合成逼真的 3D 物体动力学仍是一项重大挑战。

与无条件或文本条件动态生成不同,动作条件动态生成需要感知物体的物理材料属性,并根据这些属性(如物体刚度)进行 3D 运动预测。然而,由于缺乏真实材料数据,估计物理材料属性是一个未决问题,因为测量真实物体的这些属性非常困难。

来自麻省理工学院、斯坦福大学、哥伦比亚大学和康奈尔大学的研究团队提出了一种基于物理学的方法 PhysDreamer ,它利用视频生成模型学习到的物体动力学先验,赋予静态 3D 物体以交互式动态效果。通过提炼这些先验,PhysDreamer 能够合成逼真的物体对外力或智能体操作等新型交互的反应。

 大模型周报|微软、清华团队提出“多头混合专家”MH-MoE;超越思维链(CoT),“Chain-of-X”范式调查
打开网易新闻 查看更多视频
大模型周报|微软、清华团队提出“多头混合专家”MH-MoE;超越思维链(CoT),“Chain-of-X”范式调查

他们在各种弹性物体示例中演示了这种方法,并通过用户研究评估了合成交互的逼真度。PhysDreamer 通过使静态 3D 物体以物理上可信的方式对交互刺激做出动态响应,向更吸引人、更逼真的虚拟体验迈出了一步。

论文链接:

https://arxiv.org/abs/2404.13026

项目地址:

https://physdreamer.github.io/

|点击关注我 记得标星|