本文系网易智能工作室(公众号 smartman163)出品。聚焦AI,读懂下一个大时代!

【网易智能讯 5月12日消息】大约一个月前,谷歌搜索和人工智能主管John Giannandrea离职,其AI研究部分业务被谷歌大脑研究部门的负责人Jeff Dean接管。在AI持续覆盖谷歌各产品线和服务的时刻,Google Research近期也更名为 Google AI。

周二,随着谷歌在I/O大会上推出了数十项新功能和更新,Jeff Dean分享了他对未来的展望。这些新功能和更新包括:为移动应用开发者提供的ML工具包(ML Kit)、第三代张量处理单元芯片( tensor processing unit chips)计划,以及可以协助用户拨打电话的谷歌助手。

在此基础上,Dean阐述了人工智能带来的机会:创造新产品,以及为人类以前从未考虑过的问题找到解决方案。不仅如此,他还看到了伴随AutoML技术而产生的挑战,AutoML是一种可以创建其他人工智能模型的人工智能模型。此外,他不认为谷歌应该从事制造自主武器的业务。

通用人工智能(AGI)的兴起

今天,世界上大部分人工智能仅支持完成一个单一的、狭窄的用例,例如单句的语言翻译。但Dean表示,他希望谷歌能创建更多的人工智能模型,以实现多个任务,并实现一种“对世界的常识推理”。

他说:“我认为,在未来,你会看到我们更多地转向那些能够处理多个事件的模型,然后利用这些经验积累经验,这样当我们想要训练一个模型去做其他事情的时候,它就能建立起其已经拥有的技能和专业技能。”

举个例子,如果一个机器人被要求去捡一些东西,它就会明白手是如何工作的,重力是如何工作的,以及对这个世界的其他理解。他说:“我认为这将是一个你将在未来几年内看到的重要趋势。”

AutoML的偏见和不透明性挑战

AutoML,这是一个可以创造子AI的AI系统,令人兴奋还是令人恐惧?这个问题的答案取决于你的对象。机器肯定与AI反对者持不同意见。不过,谷歌云计算(Google Cloud )首席科学家李飞飞表示,从高端开发者到东京的拉面店老板, AutoML通过为每个人创建定制的人工智能模型来降低门槛。

Dean觉得这很令人兴奋,因为它帮助谷歌实现“解决问题的自动化(automatically solve problems)”,但 AutoML的应用也会带来独特的问题。

他说:“因为我们使用的更多的是学习系统,而不是传统的手工编码软件,我认为这给我们带来了很多挑战。其中一个挑战是,如果你从带有偏见的数据中学习,那么基于此学习的机器学习模型就会使这些偏见延续下去。”因此,我们正在做的大量工作,以及机器学习领域的其他工作,都是为了弄清楚我们如何能够训练那些没有偏见的机器学习模型。”

另一个挑战是:如何正确地使用AutoML设计安全关键系统(safety-critical systems),从而在医疗保健等行业应用人工智能。数十年的计算机科学实践已经为实现手工编码这样的系统奠定基础,同样,机器领域也需要这样的大量工作。

Dean说,当你对狗的种类进行分类时,犯错误是一回事,而在安全关键系统中犯错则完全是另一回事。他说:“我认为这对我们来说是一个非常有趣和重要的方向,特别是当我们开始在更多安全关键系统中应用机器学习的时候,这包含那些正在决定你的医疗保健或自动驾驶汽车的事情。”

安全关键性人工智能需要更多的透明度

周二,与谷歌人工智能助手新功能以及Android P测试版发布消息一起,谷歌CEO桑达尔·皮查伊(Sundar Pichai)谈到了谷歌如何将人工智能应用于医疗保健,基于电子健康记录的信息来预测患者的重新接纳。此外,谷歌研究人员在《Nature of Digital Medicine》上发表了一篇文章,解释了为什么其人工智能会对病人做出某些决定,这样医生就可以在医疗记录中看到推荐的理由。

在未来,Dean希望一个想知道人工智能为何做出某特定决定的开发者或医生,能够简单地以询问人工智能模型的方式获得反馈。

Dean说,今天,在谷歌产品中应用人工智能需要一个内部审查过程。谷歌目前正在开发一套指导方针,用于评估人工智能模型是否包含偏见。他说:“你想要的基本上是,就像产品的新功能的安全审查或隐私审查一样,你想要一个机器学习公平审查(ML fairness review),这是将机器学习融入我们的产品的一部分。”

Dean说,当开发人员通过诸如ML工具包或TensorFlow这样的工具来实现人工智能时,人类也应该成为决策过程的一部分,而这类工具的下载量已经超过1300万次。

在人工智能武器上画线

在回答一个问题时,Dean 表示,他不认为谷歌应该从事制造自主武器的业务。今年3月,有消息称,谷歌正与美国国防部合作,改进对无人机收集视频的分析。他说:“当整个社会开始发展更强大技术的时候,我认为,机器学习和人工智能会产生许多有意思的伦理问题。”

我个人已经签署了一封信(大约是六到九个月前的一封公开信,确切时间未知),以此表达我对机器学习应用于自动化武器领域的反对。”我认为,很明显,我们想要做出什么样的决定与公司的决定是一个连续统一体。我认为大多数人对自动化武器系统的应用感到不安。”根据《纽约时报》的报道,数千名谷歌员工已经签署了一封信,要求谷歌不参与“战争技术(warfare technology)”的创建,因其可能会对谷歌的品牌和公司与公众之间的信任造成无法弥补的损害。Dean没有具体说明他是否签署了《纽约时报》报道中提到的那封信。

人工智能驱动新的项目和产品

除了病人重新接纳AI和一个旨在了解莫尔斯电码的Gboard,Pichai 还强调了一项先前发布的人工智能研究,该研究准确地检测出了糖尿病视网膜病变,并像受过高度训练的眼科医生那样预测到问题的出现。人工智能模型的智能化程度已经开始超越对人类活动的模仿层面,其正在帮助谷歌发现新产品和新服务。

Dean说:“通过使用大量数据来训练这些模型,我们实际上可以做一些我们不知道我们能做的事情,这是一个非常基本的进步。我们现在正在创造一种全新的测试和产品,而不是仅仅用人工智能来辅助训练系统。”

(选自:venturebeat 编译:网易智能 参与:nariiy)

关注网易智能公众号(smartman163),为你解读AI领域大公司大事件,新观点新应用。