原标题:谷歌提出人工智能五大原则 强调安全性
【中关村在线软件资讯】6月23日消息:谷歌在人工智能技术领域的研究有目共睹,并且致力于将其真正带进人们的生活。不过人工智能这个课题本身也存在着相当大的争议,就此谷歌研究部门提出了自己的观点。
谷歌研究的Chris Olah近日就人工智能的开发提出了五项原则,以求能够使人工智能产品更智能,同时也更安全。
这五大原则分别是:
避免负面效应:AI在完成一组任务时不应该被周围环境打扰。
避免奖励黑客: AI应该妥当地完成任务,而不是借助一些迂回的方法。
可扩展的监督: AI不需要接收不断的反馈或有效的输入。
安全探索:AI在学习时不应伤害自身或环境。
鲁棒性到分布式的转变: AI应该能够识别出全新的环境,并在新环境中有效地完成任务。
Olah表示:“这些都是具有前瞻性的、长期的研究问题——这些现在看起来可能是小问题,但对未来系统则至关重要。”
事实上,就在不久前谷歌联合OpenAI公司、斯坦福大学和伯克利大学发表了一篇论文《AI安全的具体问题》,阐述在研发和使用AI过程中可能遇到的具体问题。可见人工智能的问题不仅仅是技术问题,而且这很重要。
热门跟贴