本期为TechBeat人工智能社区632线上Talk。

北京时间10月24日(周四)20:00,南开大学博士生李政的Talk将准时在TechBeat人工智能社区开播!

他与大家分享的主题 是:视觉语言模型CLIP的提示学习方法研究, 届时他 将 将围绕提示学习方法展开,介绍和梳理提示学习的相关方法,并详细讲解我们发表在CVPR 24的PromptKD和ECCV 24的CasPL两篇工作。

Talk·信息

主题:视觉语言模型CLIP的提示学习方法研究‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍

嘉宾:南开大学 · 博士生 - 李政

时间:北京时间10月24日(周四)20:00

地点:TechBeat人工智能社区

http://www.techbeat.net/

Talk·介绍

视觉语言模型CLIP因其出色的泛化性能受到了学术界与工业界广泛的关注,许多研究者尝试将其落地适配到下游任务或目标上,然而基于全参数的微调方法需要大量数据进行驱动,在数据有限的情况下难以获得良好的性能。

如何高效的微调CLIP模型成为了一个关键问题。提示学习方法的出现给这个问题提供了一个很好的解决方案,其旨在CLIP模型中引入小部分的可学习参数进行训练,改变模型输出的表征,以达到适配下游任务的目标。本次talk将围绕提示学习方法展开,介绍和梳理提示学习的相关方法,并详细讲解我们发表在CVPR 24的PromptKD和ECCV 24的CasPL两篇工作。

Talk大纲

1. 什么是视觉语言模型CLIP和提示学习?

2. 实验衡量指标是什么?

3. 提示学习相关论文介绍和梳理

4. 核心方法PromptKD和CasPL讲解

5. 实验分析与常见问题解答

Talk·预习资料

课题组共同维护了一个关于视觉语言模型CLIP提示学习方法的详尽paper list供大家学习和参考,链接如下:

https://github.com/zhengli97/Awesome-Prompt-Adapter-Learning-for-VLMs

其中,这次talk会重点关注到以下论文:

论文链接: https://arxiv.org/abs/2203.05557 代码链接: https://github.com/KaiyangZhou/CoOp

论文链接: https://arxiv.org/abs/2109.01134 代码链接: https://github.com/KaiyangZhou/CoOp

论文链接: https://arxiv.org/abs/2210.03117 代码链接: https://github.com/muzairkhattak/multimodal-prompt-learning

论文链接: https://arxiv.org/abs/2307.06948 代码链接: https://github.com/muzairkhattak/PromptSRC

论文链接: https://arxiv.org/abs/2403.02781 代码链接: https://github.com/zhengli97/PromptKD 中文论文解读: https://zhuanlan.zhihu.com/p/684269963

论文链接: https://arxiv.org/abs/2409.17805 代码链接: https://github.com/megvii-research/CasPL


Talk·提问交流

在Talk界面下的【交流区】参与互动!留下你的打call和问题,和更多小伙伴们共同讨论,被讲者直接翻牌解答!

你的每一次贡献,我们都会给予你相应的i豆积分,还会有惊喜奖励哦!

Talk·嘉宾介绍

李政‍‍‍‍‍‍‍‍‍

南开大学 · 博士生

李政,南开大学计算机学院PCA Lab三年级博士生,导师为李翔与杨健教授。主要研究方向为多模态学习和模型压缩,在CVPR/ICCV/ECCV/AAAI/TVCG等会议与期刊上发表多篇工作。

个人主页: https://www.techbeat.net/grzytrkj?id=28926

-The End-

如果你也想成为讲者

自荐 / 推荐

单人Talk | 团队专场 | 录播or直播 | 闭门交流

多种方式任你选择!

推荐讲者成功也有奖励哦~

关于TechBeat人工智能社区

TechBeat(www.techbeat.net)隶属于将门创投,是一个荟聚全球华人AI精英的成长社区。

我们希望为AI人才打造更专业的服务和体验,加速并陪伴其学习成长。

期待这里可以成为你学习AI前沿知识的高地,分享自己最新工作的沃土,在AI进阶之路上的升级打怪的根据地!

更多详细介绍>>

预约本期Talk