【网易智能讯 1月16日消息】据外媒(VentureBeat)报道,最近一段时间围绕着机器学习所产生的偏见和道德问题向人们显示了数学和数据的局限性。最近的假新闻风波包括一些顶尖研究人员在自然语言处理中的尝试表明,有时甚至仅仅是定义问题所在都很困难。人工智能需要被人类智能来决定其使用范围和时机。机器的功用越复杂,越是需要人类智能来确保其被理性和安全地运用。

虽然我们可以委托机器进行数学计算,但我们不能仰仗机器进行批判性思维。推理道德问题以及定义何种问题可以用数学手段解决终究是人类特有的技能。

数学和数据的局限

研究人员声称发现了可以从面部特征预测犯罪行为的证据。在《基于面部图像的自动犯罪概率推断》(Automated Inference on Criminality using Face Images)一文中,上海交通大学的武筱林教授和他的博士生张熙描述了他们如何运用各种机器学习技术训练分类器,使其能够从普通人的照片中识别出犯罪者。这篇论文因存在缺陷和对机器学习不负责任地使用招致批评。他们的数学也许很好,但这个想法本身有问题。

作者对他们的算法过于信任,忽略了刑事司法系统中的无偏见预设,后者会影响到司法者的判断。忽略这样的问题可能给现实造成严重后果,机器智能也不能幸免。

机器智能的胜利

三月份AlphaGo在围棋人机大战中战胜李世乭毫无疑问是近来机器智能最高光的时刻。AlphaGo出自谷歌下属的DeepMind团队之手,运用多种机器学习技术实现了这次壮举。

这些技术包括从数百万以往的围棋对决中学习,与自身对抗以及使用先进的统计技术而无须穷举每一步移动。机器智能赢了人类,虽然它由人类智慧设计。

这听起来像是循环论证的废话:当我们用机器智能解决问题,也就意味着该问题可以通过机器智能来解决。但并不意味着我们创造了人类水平的智能。如果一项任务可以用数据和数学手段来解决,那么它就是一个机器智能型任务。数据和数学无力解决的问题首先是对其自身系统的设计。

人类的作用

如果AlphaGo的设计者没有很好的批判性思维,他们至多只能造出一个不如人意的围棋程序。但是换做预测犯罪的情况,批判性思维缺失的后果可能是灾难性的,足以使无辜的人身陷囹圄。

人类对机器智能的恐惧来源之一是害怕机器会完全取代人工,让自己变的无关紧要。如果所有的事都能让机器来做,世界还要人干什么呢?但这种观点其实是对机器智能的误解。

机器智能系统只是工具,被人类设计并为人类的利益服务。机器可以在围棋比赛中横扫人类,但人类永远是在背后选择游戏的角色。

我们需要停止关注这些工具是多么令人印象深刻,而要更侧重于确保它们被妥当设计,符合人类利益。训练数据有偏差吗?伪阳性的后果是什么?这些问题自始自终都需要人类智慧来回答。

关注网易智能菌(微信公众号:smartman163),获取专业人工智能资讯与AI报告。