首页 >故事

人工智能黑暗面不能像人类一样分辨信息好坏

2019-05-13 09:28:51 | 来源: 故事

人工智能话题愈演愈热,互联、硬件领域巨头纷纷布局,成立专门的研究院攻克这一技术。

不少科幻影片中已经多次描绘出人工智能的形态:像人一样思考优化推广公司
,拥有人的情感。而要达到这样的强人工智能,目前的技术还处于初级阶段,从技术来说,自主学习的算法还有待突破。而一旦拥有人类的感情,如何能够阻止人工智能颠覆人类世界也需要技术保证安全性能。

深度学习与无监督学习

成熟的人工智能研究涉及到好几百种算法。

“之前大部分的AI运用监督式学习算法,未来我们要发展出更多非监督式学习,让人工智能自主学习,目前朝着良性的趋势发展,但还未达到我们希望的阶段。”微软亚洲研究院院长芮勇在全球人工智能与机器人峰会上对包括《财经》在内的媒体表示。

监督学习以及无监督学习分别是人工智能两种算法。在监督式学习下,输入数据被称为“训练数据”,每组训练数据有一个明确的标识或结果。在建立预测模型的时候,监督式学习建立一个学习过程,将预测结果与“训练数据”的实际结果进行比较,不断调整预测模型,直到模型的预测结果达到一个预期的准确率。

而无监督学习中数据并不被特殊标识,也就是在之前,计算机并不被告知怎么做,通过自主学习做法。其中一种无监督学习的思路是在成功时采用一定的激励制度来训练机器人培养出正确的分类。无监督学习方式是机器人工智能发展的关键技能之一。

除此之外,深度学习也被认为是能够成就未来超级人工智能的重要研究方向。深度学习试图建立大得多也复杂得多的神经络,百度也开始发力深度学习后,在国内引起了很多关注。而很多深度学习的算法是半监督式学习算法,用来处理存在少量未标识数据的大数据集。

去年,百度在github上开源了其深度机器学习平台。同时发布的深度机器学习开源平台属于“深盟”的开源组织,其核心开发者来自百度深度学习研究院(IDL),微软亚洲研究院、华盛顿大学、纽约大学、香港科技大学,卡耐基·梅陇大学等知名公司和高校。

作为在人工智能布局较早的玩家,百度拥有业界的实力。从2013年百度深度学习研究院(IDL)的创建及2014年AndrewNg的加盟至今,百度DMLC分布式深度机器学习开源项目已在深度学习的多个应用领域做过探索,上线了多个成熟产品。

阻止AI颠覆人类

机器无监督式学习让人工智能离人类智能更近一步,而一旦机器人产生自主学习意识但却不能像人类一样分辨信息好坏,则有可能出现如不少电影中所描述的,机器人颠覆人类的场景。

今年3月,微软在社交软件Twitter上线了一款名叫TayTweets的人工智能机器人,在介绍扉页,微软邀请更多友与Tay交谈,并称Tay会从这些谈话内容中自主学习与人对话交流。

“在开发Tay的过程中,我们计划并配置了许多过滤系统,并在多样化的用户群体中进行了广泛的用户调研。我们在多种不同环境中对Tay进行了压力测试,尤其是确保与Tay的互动能带来积极体验。”微软研究院副总裁PeterLee表示。

然而,上线不足24小时,Tay受到攻击,不但频频发出带有色情挑逗的话语,并且成为了纳粹拥护者。微软不得不关停Tay并对其进行改进,如今要想看Tay的推文并交流,只能先通过其后台验证成为粉丝。

Tay所遭遇的这些漏洞同时也揭示了目前人工智能在自主学习上所面临的困境:如何让机器在这个过程中有效过滤出不好的信息。

加利福尼亚大学伯克利分校计算机科学系教授、人工智能专家StuartRussell认为要造出符合人类预期的超级智能机器人,必须符合以下原则:机器人通过观察人类作出的选择学习人类价值观,但其不能清晰认识人类价值观。在执行任务中机器人还应该保证化实现人类价值。

在这种原则下,机器人不能拥有自己的意志,也不能产生保护自我的内在意图。机器只知道要让人类的价值化,而不知道这种价值具体指的是什么,所以当人准备关掉机器的开关时,它就会认为这是一件好事,因为它能明白人类按下关机按钮是为了让机器人不做违背人类价值的事。

“即便人工智能做到感情层面,但是人除了这些东西,还有更复杂的——用大脑构建世界,这个人工智能难以模仿。如果有一天人培养的人工智能真正征服了人类,人要么必须超越他创造的奇怪的物种,否则的话他就会被取代。”真格基金创始人王强表示。

猜你喜欢