昨天晚上,一个朋友问我:如果哪天你的特斯拉自己开着开着撞死了人,你坐在副驾吃炸鸡,警察来了,抓谁?

我愣了一下。

他说答案可能是你。

因为你没及时接管方向盘。

我问她那程序员的bug呢?车企的算法缺陷呢?AI自己的判断失误呢?

她笑了一声:谁让你坐在那辆车里。

全球首例自动驾驶致死案正在加州法庭上演。一辆Uber测试车,夜间撞倒横穿马路的行人,安全员在车上刷手机。检察官说,过失杀人,你跑不掉。

但真正值得讨论的问题是——刑法上的“过失”,到底该怎么分?

传统的交通肇事,司机是全责。可现在司机变成了乘客,算法变成了司机。那算法的“注意义务”谁来履行?程序员写了十万行代码,没写“看见有人横穿马路立刻急刹”,那程序员是不是共同正犯?

有人说AI不是人,没法坐牢。有人说车企有产品责任,但那是民事赔偿,跟刑事责任两码事。还有人说车主最倒霉——合同里写了L2级辅助驾驶,你同意了,车出事,你负责。

等等。

我签合同的时候,有没有人告诉我“此车可能在夜间无法识别黑色衣服的行人”?没有。有没有人告诉我“极端天气下摄像头可能失效”?没有。有没有人告诉我“你必须像监控一样盯着路,即使系统说你可以放开双手”?没有。

这叫信息不对称。

你不是过失,你是被骗了。

有个细节特别讽刺:Uber那辆车的安全员,事发前刚刚被公司从车内调到后台,理由是“系统已经很安全了,不需要那么多人盯着”。结果呢?被调走的人活了,坐在车里的人成了被告。

所以到底谁在赌?车企赌技术成熟,程序员赌bug不触发,车主赌自己命大。行人的命,变成了这场赌局的筹码。

如果法律不重新定义“驾驶人”,那结果就是——谁坐在车里,谁活该。

你觉得公平吗?