7月1日消息,据《每日邮报》报道,科技巨头谷歌公司的研究人员日前训导了一场人机智能对话。这个受训和人对话的计算机系统,事先并没有利用技术支撑预置一系列的问题,却能进行常识性甚至是哲学对话。
据悉,这个“对话模式”由Google Brain项目研究人员Oriol Vinyals和Quoc Le创建。他们利用的这个系统可以分析对话的前后逻辑,然后从不同的数据集搜集信息——不管是一个IT手册,电影台词还是名著语录或者其他,来分析出下一个对答语句。
举例来说,在有关技术支持的问答环节中,机器能够诊断出用户的虚拟网络隐私的问题,或者是解决浏览器崩溃等问题。
这个机器人一直负责和人类的日常智能对话,它会提出关于自身的问题,或者是回应对方的回答。
从它被训导之际起,研究人员会提出越来越复杂、高级的问题——涉及到使用一个更大的数据库来获取常识,以及道德、伦理和生命的意义等模糊化的答案。但这个机器人把这些答案都混淆了。
这个机器人能够正确识别天行者卢克的身份,以及知道猫会不会飞、天空的颜色等。当被提问“生存的目的是什么”时,它回答道:“为更高的利益作贡献”。而当被问到“生命的意义是什么?”时,机器人的回答竟是:“为了永生。”
然而,它却不能回答“情绪的目的是什么”,甚至混淆了“道德”和“利他主义”的含义。
比如,它说“孕育一个孩子是不道德的”,还有对利他主义的定义是“如果你不信仰上帝,你就不会了解”。除此之外,它对简单的数学问题也答不上来,也说出过“蜘蛛有三条腿”的话来。
“会话建模是实现自然语言理解和机器智能一项至关重要的任务,”研究人员在论文中表示,“这是个神经会话模型”。“老式的方法固然存在,但往往这些方法被限于特定的领域(比如定张机票),而且需要人工预置规则。”
“在这篇论文里面,我们展示了一个简便易行的方法来完成这项任务,即sequence-to-sequence结构。”
|