引言
“YOLO家族再添新成员!” Ultralytics官方最新发布的v8.3.99版本,正式推出YOLOE(YOLO Open-vocabulary Edition)模型,彻底打破传统目标检测的类别限制,支持开放词汇检测、分割、文本/视觉提示驱动任务!无论是自动驾驶、创意AI还是工业质检,YOLOE都能“见所未见”。

核心更新解读

  1. 1.YOLOE模型:开放词汇的终极武器

  • 无需预定义类别:直接通过**文本提示(如“一只戴墨镜的狗”)视觉提示(参考图片)**检测任意目标。

  • Prompt-Free模式:训练和推理均可脱离提示词,适应更广泛场景。

  • SAVPE技术:全新空间感知视觉提示嵌入,让模型精准理解物体位置与语义。

2.⚙️ 开发者福音:兼容性与工具升级

  • Docker支持JRE:新增Java运行时环境,解决Sony IMX模型导出兼容性问题。

  • numpy版本锁定:避免依赖冲突,部署更稳定。

3.应用增强

  • 目标追踪优化:YOLO11示例代码升级,边缘案例处理+可视化效果全面提升。

  • 一键镜像同步:GitHub到DagsHub的仓库自动同步,开源协作更高效。

为什么YOLOE是革命性的?

传统YOLO需预先定义类别(如“猫、狗”),而YOLOE可动态响应任意文本或视觉输入

  • 案例1:输入“路边损坏的消防栓”,直接定位城市中的破损设施。

  • 案例2:上传一张“复古电话”图片,模型自动搜索并分割相似物体。

️ 如何快速上手?

from ultralytics import YOLOE # 文本提示检测 model = YOLOE('yoloe-l.pt') results = model.predict('street.jpg', text_prompt=["骑自行车的人", "红色卡车"]) # 视觉提示分割 visual_prompt = 'reference_dog.jpg' results = model.predict('park.jpg', visual_prompt=visual_prompt)
生态与社区
  • 文档全面升级:新增多语言教程、数据集指导( 点击查看[1] )。

  • 企业级支持:Docker镜像现支持工业级硬件(如Jetson、IMX系列)。

结语

YOLOv8.3.99不仅是技术迭代,更是CV领域的一次范式转移。无论你是研究者、开发者还是AI爱好者,YOLOE都将为你打开“开放世界”的大门。

立即体验

pip install ultralytics==8.3.99
引用链接

[1]点击查看: https://docs.ultralytics.com

我们相信人工智能为普通人提供了一种“增强工具”,并致力于分享全方位的AI知识。在这里,您可以找到最新的AI科普文章、工具评测、提升效率的秘籍以及行业洞察。 欢迎关注“福大大架构师每日一题”,让AI助力您的未来发展。