相关新闻
面包屑当前位置:岳峰新闻 > 科技 > AI的新规则:Facebook赌下一代接口是“对话”

AI的新规则:Facebook赌下一代接口是“对话”

发布时间:2019-11-15 16:09:35    浏览次数:3974

神一局是一个36氪以下的编辑团队。它专注于科学技术、商业、工作场所、生活等领域。重点介绍国外的新技术、新观点和新趋势。

编者按:人工智能诞生已经60多年了。美国一些最大的科技公司(亚马逊、微软、谷歌、脸书等)。)刚刚开始挖掘人工智能的潜力,试图弄清楚人工智能将如何改变我们的未来。这篇文章是fast公司编写的一系列文章的第五部分,标题是“人工智能的新规则”,描述了脸书开发聊天机器人的努力。最初的作者是马克·沙利文,标题是:脸书打赌下一个大界面是转换。

人工智能的新规则(1):亚马逊的人工智能向坏用户群宣战

人工智能新规则(2):在这个容易分心的时代,微软希望人工智能能成为你的同事

人工智能的新规则(3):人工智能建议的混乱必须暂时清理干净。

人工智能的新规则(4):谷歌赌量子计算对人类意味着什么?

早在2015年,聊天机器人就非常流行。其中最受炒作的是脸书的M,该公司的初衷是把它变成一个灵活的通用机器人,可以执行许多不同的事情,比如购买商品、给门口安排礼物、预订座位和制定旅行计划。但是炒作远远大于实质。当脸谱网在海湾地区测试2500人的男性时,它被要求执行的大部分任务都不符合标准。

在对微软和其他聊天机器人最初的幻想破灭后(微软首席执行官萨蒂亚·纳德拉曾宣称“聊天机器人是新的应用程序”),一波失望随之而来。聊天机器人不太擅长聊天。这是因为他们被训练成只谈论少量的事情和执行有限的具体任务。他们不能自然地与人交流,也不能根据对单词及其含义的普遍理解做出自己的反应。他们只能提供一般的答案。

在M的测试完成之前,脸谱网削减了它最初制造聊天机器人的宏伟蓝图,尽管它的一些自然语言技术已经被整合到了大胆得多的信使聊天机器人中。聊天机器人可以做简单的事情,比如点菜或者发送问答信息。美国运通(American Express)和1-800-flowers等公司仍在使用这个低调的聊天机器人来回答客户服务问题,接受基本订单,并提供账户余额信息。如果你问他们任何超出他们有限理解的问题,许多机器人会把你转交给人类客户服务代表。

然而,facebook的人工智能研究团队已经远离了单一功能的聊天机器人。脸谱网的自然语言研究员安东尼·博德斯告诉我:“过去三四年来,我们一直在说,面向目标的对话不应该是我们需要探索的道路,因为它太难也太冒险了。”如果旅行聊天机器人预订了“错误的飞机,错误的航班,那么这是一个巨大的金钱和旅行错误。”

Bordes解释说,facebook不再关注特定任务的机制,而是后退了一步,解决了一个更深层次的问题--教虚拟代理像人一样说话。如果聊天机器人能更好地理解人类并与人类交流,它们最终可能会成为更好的助手,帮助人们完成实际任务,如预订机票。

Facebook一直在认真从事这项工作,他们已经聘请了一些自然语言人工智能方面的大师。该公司喜欢指出,与一些高科技巨头不同,它将在网上发布人工智能研究成果,供整个研究社区使用,这将有助于开发下一代人工智能的其他人。然而,这项研究肯定会介绍facebook自己的产品。

聊天应用程序,包括messenger和whatsapp,是一个自然的目的地。后者已被facebook收购,目前仍在研究如何赚钱。随着首席执行官扎克伯格提出公司的新愿景,并更加强调私人对话,messenger和whatsapp需要增加一些功能,以保持其在微信、电报和苹果即时通讯等其他通讯平台上的领先地位。

开发允许人们自由聊天的算法已经成为科技巨头的主要目标。亚马逊、谷歌和微软都加入了脸书的游戏。他们都相信与人交谈的力量——不仅在基于文本的聊天应用中,而且在语音助手和其他体验中。由于最近的研究进展,通往真正的会话式计算机的道路突然变得清晰起来,但是抢先碰撞的回报仍然值得为之奋斗。

换句话说,脸谱网对自然语言的研究远不止是复兴微软或者改进基于信使的聊天机器人。这关系到整个公司的未来。进入神经网络

可以说,开发一个能与人现实交流的数字代理是所有自然语言问题中最困难的。它需要一台机器来学习一本充满单词的字典,理解它们的所有用法和细微差别,然后在与不可预知的人的实时对话中很好地使用这些东西。

直到最近几年,自然语言人工智能圈才开始向常识机器人迈进。部分原因是神经网络的巨大进步,它是一种机器学习算法,可以通过分析大量数据来识别模式。

在人工智能的大部分历史中,人类一直在监督软件的机器学习过程。在所谓的监督学习技术中,人类教师通过提供问题的正确答案来缓慢地训练神经网络,然后调整算法以使机器实现相同的解决方案。

当你费力地标记大量数据时,例如,当它包含猫、狗或其他物体的照片时,监督学习可以发挥很好的作用。但是这种方法在聊天机器人的世界里通常不起作用。人们之间数千小时对话的记录很难大规模地找到,公司收集这些记录非常昂贵。

因为很难教聊天机器人如何用这些旧方法交谈,研究人员一直在寻找监督学习的替代方法,希望神经网络可以自己学习数据,而无需人工干预。

减少训练数据需求的一种方法是教机器一些基本常识。如果计算机对世界有一定的了解,比如物体的相对大小,人们如何使用它们,以及一些物理定律如何影响它们,那么它可能能够将选择范围缩小到唯一可能的范围。

人们自然会这么做。例如,假设你在一条附近有悬崖的路上开车,突然看到前面的路上有一块大石头。你应该避免撞到石头。然而,当考虑你的选择时,你永远不会决定把方向盘转向悬崖边。因为你知道,由于重力,汽车会突然从悬崖上掉下来,人会死去。

脸书副总裁兼首席人工智能科学家Yann lecun说:“我们学到的大部分知识是...观察世界。”Yannlekun是人工智能领域的传奇人物,自20世纪80年代以来一直在应对人工智能的最大挑战。“我们从父母和其他人身上学到了很多,但我们也通过与世界的互动、尝试、失败和纠正错误学到了很多。”

Facebook首席人工智能科学家yannlekun

用这种技术训练的人工智能(称为无监督学习)也是这种学习方法。例如,正如儿童通过五种感官了解世界一样,一辆自动汽车通过部署的许多传感器和摄像机收集世界数据。通过这种方式,科学家为机器提供了大量的训练数据来消化。他们不需要机器产生正确的答案或欺骗它来达到某个目标。相反,他们只要求它处理和学习数据,找到模式并映射不同数据点之间的关系。

在许多情况下,很难获得这些必要的数据。但是人工智能的一个领域是神经网络可以在没有传感器的情况下学习很多关于世界的知识:自然语言处理。研究人员可以使用大量现有文本来帮助算法理解人类世界,这是理解语言的一个重要部分。

例如,假设我们向神经网络提供以下两个句子:

"这个杯子装不下这个盒子,因为它太大了。"

"杯子太小了,放不进盒子里。"

要知道“它”在每个句子中的意思,模型需要了解一些对象及其关系。勒昆说:“训练有素的课文有足够的结构。通过这种结构,你可以知道当一件东西被放入另一件东西时,如果它放得太大,就不能放进去。”

事实证明,这项技术是新一代更具对话性和实用性的facebook聊天机器人的秘密。见见伯特和罗伯塔

谷歌在2018年开始了自然语言系统无监督培训的最新进展。他们的研究人员创建了一个名为伯特(来自transformer的双向编码器再演示)的深度学习模型,然后向其提供了来自11038本书的未注释文本和来自英语维基百科的25亿个词条。研究人员随机覆盖文本中的一些单词,然后挑战模型,看看它们是如何被填充回来的。

在分析了整个训练文本后,神经网络发现了经常出现在同一上下文中的单词和句子的模式,从而帮助它理解单词之间的基本关系。此外,因为单词是现实世界中对象或概念的表示,该模型不仅学习单词之间的语言关系,而且知道得更多:它开始理解对象之间的关系。

伯特不是第一个使用无监督方法训练计算机理解人类语言的模型。但是这是第一个在上下文中学习单词含义的模型。

微软合作伙伴、该研究所深度学习部研究经理高剑锋表示:“我认为这是自然语言处理领域两三大突破之一。每个人都把这个模型作为开发所有其他自然语言处理模型的新基准。”随着其他研究人员基于谷歌模型建立自己的模型,伯特的研究论文迄今已有1000多篇学术参考文献。

勒昆和他的团队就在其中。他们建立了自己的模型,然后进行了一些优化调整,极大地扩展了训练数据量,增加了允许的训练时间。在神经网络运行了数十亿次计算后,facebook的语言模型roberta的表现远好于谷歌的模型。伯特法的准确率为80.5%,达到88.5%。

伯特和罗伯塔代表了一种全新的教计算机说话的方式。勒昆说:“这样做时,系统必须表达它所看到的单词的意思、句子的结构和上下文。因此,它对语言有一点了解,这很奇怪,因为它对世界的物理现实一无所知。它没有视觉,没有听觉,它拥有一切。”它只知道语言——字母、单词和句子。慢慢接近真正的对话

莱昆说,伯特或罗伯塔训练的自然语言模型仍然没有太多常识——常识只足以让它在广义常识的基础上产生聊天反应。事实上,这只能被视为训练算法像人类一样说话的开始。

Facebook的自然语言研究者仍在尝试开发更多基于罗伯塔的会话功能。他们首先研究人和聊天机器人之间的对话,以了解对话何时以及如何被打断或变得无聊。他们的发现推动了一项研究的发展,该研究提出了训练机器人以避免最常见的对话失败的方法。

例如,聊天机器人经常自相矛盾,因为它们不记得自己在对话中说过什么。聊天机器人可能会在一分钟前说它喜欢《骑士》的重新发行,然后在下一分钟说它不喜欢看电视。聊天机器人建立自己的原始反应(而不是从训练数据中获取样本),倾向于以模糊的方式回答问题,以避免出错。他们似乎常常无法辨别情感,这降低了他们的互动性。

聊天机器人还必须能够利用知识成为有趣的对话者。可以使用各种信息的聊天机器人更有可能与人聊天。然而,当前的聊天机器人被训练有与机器人要完成的任务相对应的单个领域知识。如果人们开始评论偏离机器人领域知识的话题,这将成为一个问题。例如,如果比萨递送机器人被问到比萨以外的任何话题,双方很快就无法交谈。

我该怎么办?脸书研究人员一直在训练自然语言模型,从许多知识领域提取数据,然后以自然的方式将这些信息注入对话过程。未来的研究将集中在教授机器人何时以及如何将对话从一般话题转向特定任务。

开发聊天机器人的最大挑战之一是使聊天机器人在部署后能够继续学习。词汇的意义会随着时间而改变,新名词和俚语在文化中变得很重要。与此同时,聊天机器人也不容易受到影响——微软的聊天机器人tay已经成为一个种族主义者,因为它在网上聊天中学到了太多东西,所以在24小时内就会骂人。脸书正在教它的实验聊天机器人学习对话何时顺利进行,并分析人类聊天伙伴的语言,以找出机器人说的是愚蠢还是无聊的话。

预测脸谱网在实验室的进展何时会带来聊天机器人,甚至像表面上的人一样说话,这是很危险的。然而,我们自己判断结果的时间可能不会太长。脸书研究员杰森·韦斯顿(Jason weston)告诉我:“我们相信我们非常接近拥有这样一个机器人。我们将能够与它交谈并看到它的价值。”

译者:博西。

资料来源:36克朗

关注通化顺金融微信公众号(ths518),获取更多金融信息

山东十一选五投注 海上皇宫 加拿大28 快乐8 甘肃11选5开奖结果

© Copyright 2018-2019 hollymoviez.com岳峰新闻 Inc. All Rights Reserved.