八年前,代码审查靠的是人工逐行扫描。今天,一台信用卡大小的设备就能让AI自己"读"代码,找出里面藏着的性别偏见。

这就是Ethica——一个完全基于Gemma 4的伦理代码分析工具。没有外部静态分析工具,没有预写规则,纯靠模型推理识别代码中的偏见、无障碍缺陷、安全隐患和伦理风险。

打开网易新闻 查看精彩图片

硬件配置说出来有点离谱:树莓派5,8GB内存。模型用的是Gemma 4 E2B,20亿参数,量化到Q8_0 GGUF格式,体积压到4.6GB。这是唯一能在树莓派5上跑起来的Gemma 4变体,刚好塞得下操作系统和其他工具,不会爆内存。通过llama-cpp-python的pi-5分支优化运行。

处理大代码库时,Ethica用分层分析应对上下文限制:把文件拆成函数级块,必要时做摘要。全程本地运行,数据不出设备。

操作是命令行界面。开发者给了一个检测性别偏见的示例:

输入一段按性别区分称呼的代码,工具输出三项建议:改用中性称呼、为空值加兜底、审计数据集的系统偏见。严重级别标为MEDIUM。

支持的分析维度包括bias(偏见)、security(安全)等,可通过--dimension参数指定。也能直接管道输入代码:echo '代码' | python run_cli.py analyze --stdin。

项目已开源,仓库地址:https://github.com/ether-btc/gemma-4-challenge

安装流程很标准:克隆、建虚拟环境、装依赖、跑测试。核心约束是"纯AI原生"——所有分析必须由Gemma 4推理完成,外部工具零介入。

这个设计的微妙之处在于:它把伦理审查从"规则匹配"变成了"模型理解"。传统工具靠正则表达式抓敏感模式,Ethica让模型自己判断这段代码为什么有问题、问题有多严重、怎么改。代价是速度,收益是灵活性——新类型的伦理问题不需要更新规则库,模型自己就能识别。

树莓派能跑这件事本身,比功能更有信号意义。20亿参数、4.6GB体积、本地推理,这三个数字划出了一块以前不存在的设计空间:真正私密的、低成本的、可离线部署的AI审查工具。对于处理敏感代码的场景,这很关键。