deephub
网易号
关注
1416
粉丝
0
关注
IP属地:北京
优质互联网领域创作者
2枚勋章
CV NLP和数据挖掘知识
文章
使用‘消除’技术绕过LLM的安全机制,不训练创建自己的nsfw模型
3小时前
3
跟贴
通过元学习优化增益模型的性能:基础到高级应用总结
1天前
5
跟贴
使用PyTorch Profiler进行模型性能分析,改善并加速PyTorch训练
2024-06-12
Tiny Time Mixers (TTM)轻量级时间序列基础模型:无需注意力机制
2024-06-11
如何应对缺失值带来的分布变化?探索填充缺失值的最佳插补算法
2024-06-10
5
跟贴
数据并非都是正态分布:三种常见的统计分布及其应用
2024-06-09
Block Transformer:通过全局到局部的语言建模加速LLM推理
2024-06-08
CNN依旧能战:nnU-Net团队新研究揭示医学图像分割的验证误区
2024-06-07
从提示工程到代理工程:构建高效AI代理的策略框架概述
2024-06-06
一切模型皆可联邦化:高斯朴素贝叶斯代码示例
2024-06-05
5
跟贴
为什么你的RAG不起作用?失败的主要原因和解决方案
2024-06-04
5
跟贴
2024年5月第四周LLM重要论文总结
2024-06-03
通过f-string编写简洁高效的Python格式化输出代码
2024-06-02
YOLOv10的改进、部署和微调训练总结
2024-06-01
6
跟贴
长序列中Transformers的高级注意力机制总结
2024-05-31
通过强化学习策略进行特征选择
2024-05-30
微调能让LLM学到新东西吗:引入新知识可能让模型产生更多的幻觉
2024-05-29
SUPRA:无须额外训练,将Transformer变为高效RNN,推理速度倍增
2024-05-27
2024年5月大语言模型论文:模型优化、缩放推理、基准测试
2024-05-26
2024年5月计算机视觉论文推荐
2024-05-25
正在载入...