把“浙江之声”设为星标,更容易找到我们
来源:综合财联社、21世纪经济报道等
版权归作者所有,如有侵权请及时联系
今天,一则令科技圈震动的消息传来。
据财联社等媒体报道,年仅26岁的OpenAI前研究员Suchir Balaji几周前被发现死于旧金山的公寓中,旧金山首席法医办公室执行主任David Serrano Sewell周五已在一封电子邮件中证实了这一消息。
美国旧金山警察局也在一封电子邮件中表示,11月26日下午,警察被叫到纽约布坎南街的一间公寓进行健康检查。在检查中,他们发现一名成年男子已死,初步调查显示未发现谋杀证据。
OpenAI 发言人在电子邮件中说:“今天得知这一令人难以置信的噩耗,我们感到非常悲痛,在这一艰难时刻,我们向 Suchir 的亲人表示同情。”
曾担忧人工智能带来危害
Balaji是一名印度裔美国人,曾在加州大学伯克利分校学习计算机科学,毕业后加入了OpenAI。在OpenAI工作了四年之后,Balaji突然辞职,并强调他认为人工智能这项技术给社会带来的危害将大于益处。
10月,美国《纽约时报》专门刊登了Balaji的担忧,其中写道,Balaji认为ChatGPT和其他类似的聊天机器人会破坏那些创建数字数据和内容的个人或组织的商业未来,这些数据和内容已被广泛用于训练人工智能。
而在Balaji被发现死亡的前一天,一份法庭文件将他列为针对OpenAI的版权讼案的被告之一。OpenAI目前与多家出版商、作家和艺术家因版权问题存在法律纠纷。
Balaji的死讯在科技圈中也引发了极大的反应,与OpenAI正在打官司的亿万富翁马斯克也转发了相关报道。
多名前员工批评公司缺乏法律监管
今年6月,多名OpenAI前员工通过一封公开信再次警告,像OpenAI这样的人工智能公司缺乏法律监管和内部批评机制。
公开信强调了AI双刃剑的属性:他们相信人工智能技术可以造福人类,但也看到了风险,比如加剧社会不平等,操纵和捏造信息,侵犯版权等。比如深度造假影响政治选举、AI生成色情图片等冲突,势不可挡地蔓延至现实生活。
公开信由此指出一个关键问题:在缺乏硬性监管的情况下,不能指望公司自愿披露AI系统的真实性能、局限和风险。员工有责任要求公司对AI安全风险负责,但员工正受制于公司的保密协议。
“我们中的一些人有理由担心各种形式的报复。”公开信暗指半个月前,OpenAI解散了负责安全问题的“超级对齐”团队。
2024年度浙江乡村振兴共富带头人
“金牛奖”评选投票通道已开启
请为TA投上宝贵的一票
助力敢闯敢干的“新农人”!
扫描识别下方任意二维码参与
中国蓝新闻客户端、Z视介客户端
(每人每天限投10票
可以投给1人
也可以投给多人)
投票截止到12月15日
热门跟贴