大家好,我是徐小夕。 架构师,曾任职多家上市公司,多年架构经验,打造过上亿用户规模的产品,目前全职创业,主要聚集于“Dooring AI零代码搭建平台”和“flowmixAI多模态办公软件”

上期和大家分享了我们精心打磨的协同AI文档JitWord

打开网易新闻 查看精彩图片

jitword协同AI文档

熟悉我的朋友可能知道, 我一直在研究和分享AI相关的技术和开源项目,自己也在创业做AI产品。

今天和大家分享一款我花了一天时间做的开源工具——ai-detector

打开网易新闻 查看精彩图片

它是一款完全运行在浏览器端的免费硬件检测工具。能自动读取你电脑的内存、CPU、GPU 信息,智能匹配21+ 主流开源 AI 大模型的兼容性,并给出本地运行速度预估,帮你在5 秒内找到最适合自己电脑的 AI 模型。

无需安装、无需登录、无需上传任何数据,全程 100% 本地运行。

ps:最近小龙虾很火,但是又担心自己电脑配置不够的朋友,可以使用这款线上工具检测一下电脑适合哪些模型,告别AI恐惧啦~

老规矩,先上开源地址。

github:https://github.com/MrXujiang/ai-detector

下面就和大家详细分享一下这款AI Coding出来的开源项目。

先上一个基础的功能演示

比如我想在我的电脑里部署一个本地AI模型,但是又担心我的电脑配置不够,那么直接运行这个项目(或者直接在线使用):

打开网易新闻 查看精彩图片

点击开始检测, 不到5s,就会给出自己电脑的性能和适合运行哪些模型的详细报告:

打开网易新闻 查看精彩图片

分析的非常准确,可能是我电脑年久失修,只给出了28分。。。

ai-detector还会为我们推荐基于当前电脑,适合运行的模型推荐:

打开网易新闻 查看精彩图片

不仅如此,它还会对目前主流的数十个开源模型,对当前电脑进行分析评测,分析出部署这些大模型的性能,风险等信息,如下:

打开网易新闻 查看精彩图片

对于比较吃电脑性能的模型,它会给我们全面的分析:

打开网易新闻 查看精彩图片

最后会基于我们的硬件配置,估算各模型生成速度(tokens/秒),并输出可视化的分析报表:

打开网易新闻 查看精彩图片

核心能力总结

下面和大家总结一下 ai-detector 的核心能力和亮点。

1. 硬件自动检测

  • 系统内存
  • 通过 navigator.deviceMemory 读取 RAM 大小
  • CPU 核心数
  • 通过 navigator.hardwareConcurrency 读取逻辑核数
  • GPU 型号
  • 通过 WebGL WEBGL_debug_renderer_info 扩展识别显卡
  • 综合跑分
  • 基于内存与 CPU 计算 0-100 综合评分,直观了解你的 AI 能力等级
2. 21+ 大模型兼容性分析覆盖当前最主流的开源大模型系列,一键发现哪些能跑、哪些跑不动:

系列

代表模型

参数规模

Llama

TinyLlama、Llama 3.2、Llama 3.1

1.1B ~ 70B

Qwen

Qwen2.5 3B/7B/14B/32B/72B

3B ~ 72B

Phi

Phi-3 Mini、Phi-3 Medium

3.8B ~ 14B

️ Mistral

Mistral 7B

7B

DeepSeek

DeepSeek-R1、DeepSeek Coder

7B ~ 70B

️ 多模态

LLaVA 7B、MiniCPM-V 8B

7B ~ 8B

Gemma

Gemma 2 2B

2B

3. 支持兼容性三级分类

  • 流畅运行内存充裕,可稳定高速推理
  • ⚠️ 勉强运行:内存刚好满足,速度偏慢
  • 内存不足:当前配置无法加载该模型

4. 运行速度排行

检测完成后自动生成可运行模型的速度排行榜,按 tokens/秒从高到低排列,帮你优先选出响应最快的模型。

5. 量化模式切换

打开网易新闻 查看精彩图片

  • Q4 量化
  • 内存占用更低,普通设备首选
  • Q8 量化
  • 精度更高,内存需求约为 Q4 的 2 倍
  • 一键切换,实时刷新所有模型兼容状态

6. 个性化模型推荐

基于我们的硬件配置,自动从模型库中精选 最均衡、速度最快、能力最强 三款推荐,省去选择烦恼。

7. 一键复制检测报告

打开网易新闻 查看精彩图片

生成包含硬件配置、综合评分、可运行模型的文本报告,方便分享或咨询。

完整使用流程总结

为了让大家轻松上手使用,我总结了一下7步使用法,大家可以参考一下:

  1. 打开页面
  2. 开始硬件检测」按钮
  3. 等待扫描
  4. (约 3~5 秒)→ 自动完成内存、CPU、GPU 检测
  5. 查看结果
  6. → 获得综合跑分与设备等级评价
  7. 浏览推荐
  8. → 查看「为你推荐」区块,获取最适合你的 3 款模型
  9. 筛选模型
  10. → 在「模型列表」中按兼容状态、类型筛选,支持关键词搜索
  11. 切换量化
  12. → 尝试切换 Q4 / Q8 量化,查看内存需求变化
  13. 复制报告
  14. → 一键复制检测结果,方便保存或分享

为什么要做这个开源项目

这里分析一张图,大家就知道了:

特性

AI -Detector

其他工具

需要安装

❌ 无需安装

✅ 通常需要

需要登录

❌ 无需注册

✅ 通常需要

数据上传

❌ 完全不上传

⚠️

部分上传

模型覆盖

✅ 21+ 主流模型

⚠️

覆盖有限

速度预估

✅ tokens/s 量化估算

⚠️

通常无此功能

升级建议

✅ 智能提示内存升级方案

❌ 无

量化切换

✅ Q4 / Q8 实时切换

❌ 无

开源免费

✅ MIT 协议

⚠️

多数收费

主要是为了让任何没有技术基础的人,也能轻松拥有专业级AI模型选型能力,告别AI焦虑。

目前已开源,大家可以免费使用:

github:https://github.com/MrXujiang/ai-detector

先暂时聊这么多,后续会持续分享AI创业开源笔记。

如果觉得有收获,欢迎关注,点赞留言交流 ~