劰载中...飞翔的小鸟
首页大学学科资料人工智能《深度学习500问》第十六章+NLP
党建飞
院长

文档

179

关注

0

好评

1
PDF

《深度学习500问》第十六章+NLP

阅读 690 下载 0 大小 855.04K 总页数 0 页 2024-12-16 分享
价格:¥ 10.00
下载文档
/ 0
全屏查看
《深度学习500问》第十六章+NLP
还有 0 页未读 ,您可以 继续阅读 或 下载文档
1、本文档共计 0 页,下载后文档不带水印,支持完整阅读内容或进行编辑。
2、当您付费下载文档后,您只拥有了使用权限,并不意味着购买了版权,文档只能用于自身使用,不得用于其他商业用途(如 [转卖]进行直接盈利或[编辑后售卖]进行间接盈利)。
3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。
4、如文档内容存在违规,或者侵犯商业秘密、侵犯著作权等,请点击“违规举报”。
5/5/2020第十六章NLP·第十六章NLPo16.0NLP发展史简述·第一个浪潮:理性主义·第二波浪潮:经验主义■第三波浪潮:深度学习。16.1如何理解序列到序列模型?。16.2序列到序列模型有什么限制吗?。16.3如果不采用序列到序列模型,可以考虑用其它模型方法吗?。16.4如何理解词向量?。16.5词向量哪家好?o16.6解释一下注意力机制的原理?。16.7注意力机制是不是适用于所有场景呢?它的鲁棒性如何?。16.8怎么将原有的模型加上注意力机制呢?。16.9通俗地解释一下词法分析是什么?有什么应用场景?。16.10深度学习中的词法分析有哪些常见模型呢?o16.11通俗地解释一下知识图谱是什么?有什么应用场景?。16.12深度学习中的知识图谱有哪些常见模型呢?。16.13深度学习中的机器翻译有哪些常见模型呢?。16.14机器翻译的通俗实现以及部署过程是怎样的呢?。16.15通俗地解释一下文本情感分析是什么?常见的应用场景是?。16.16最常用的情感分析模型是什么呢?如何快速部署呢?。16.17通俗地解释一下问答系统?它涵盖哪些领域?常见的应用场景是?。16.18常见的问答系统模型是什么?如何快速部署呢?。16.19图像文字生成是什么?它的技术原理是什么?。16.20常见的图像文字生成模型是什么?。16.21NLP的无监督学习发展动态是怎样的?有哪些领域在尝试无监督学习?。16.22NLP和强化学习的结合方式是怎样的?有哪些方向在尝试强化学习?。16.23NLP和元学习?元学习如何能够和NLP结合起来?。16.24能说一下各自领域最常用且常见的基准模型有哪些吗?第十六章NLPMarkdown Revision 1;Date:2018/11/14Editor:盛泳潘-电子科技大学;何建宏-学生Contact:shengyp2011@163.com;Bonopengate@gmail.com16.0NLP发展史简述50多年来NLP的历史发展可以分为三个浪潮,前两波以理性主义和经验主义的形式出现,为当前的深度学习浪潮铺平了道路。LP的深层学习革命的主要支柱是:(1)语言嵌入实体的分布式表征,(2)由于嵌入而产生的语义泛化,(3)自然语言的大跨度深序列建模,(4)能够从低到高表示语言层次的分层网络,以及(5)解决许多联合NLP问题的端对端深度学习方法。第一个浪潮:理性主义file://home/shishuai/Deskto p/第十六章NLP.html1/655/2020第十六章NLP在第一个浪潮中,NLP的实验持续了很长一段时间,可以追溯到20世纪50年代。1950年,阿兰图灵提出了图灵测试,以评估计算机表现出与人类无法区分的智能行为的能力。这项测试是基于人类和计算机之间的自然语言对话,旨在生成类似人类的反应。1954年,George-BM实验产出了能够将60多个俄语句子翻译成英语的rrst机器翻译系统。这些方法是基于这样一种信念,即人类思维中的语言知识是由泛型继承提前进行的,而这种信念,在大约1960年至1980年代后期,占据了NLP的大部分研究中的主导地位。这些方法被称为理性主义方法(Church2007)。理性主义方法在NLP中的主导地位主要是由于诺姆乔姆斯基(Noam Chomsky)关于先天语言结构的论点被广泛接受以及他对N-gams方法的批评(Chomsky1957)。理性主义者一般假设语言的关键部分在出生时就被硬连接到大脑中,作为人类遗传遗传的一部分,因此他们试图设计手工制作的规则,将知识和推理机制纳入智能NLP系统。直到20世纪80年代,最著名的成功的NLP系统,如为模拟Rogerian psychotherapist的ELIZA系统和为了规则化真实世界信息为规则本体的MARGIE系统,都是基于复杂的手写规则。这一时期恰逢以专家知识工程为特点的早期智能的早期发展,即领域专家根据其所掌握的(非常狭窄的)应用领域的知识设计计算机程序(Nilsson1982:Winston1993)。专家们使用符号逻辑规则设计了这些程序,这些规侧基于对这些知识的仔细表征和工程。这些以知识为基础的智能系统往往通过检测"Head"或最重要的参数,并就每种特殊情况采取特定的解决办法,而这在解决狭义问题方面往往是有效的。这些"Head"参数由人类专家预先确定,使"tai"参数和案例不受影响。由于缺乏学习能力,他们有必要将解决方案推广到新的情况和领域。这一时期的典型方法是专家系统所提供的证据,这是一个模拟人类专家决策能力的计算机系统。这种系统旨在通过知识推理来解决复杂的问题(Nilsson1982)。第一个专家系统建立于1970年代,然后在1980年代推广。使用的主要"算法"是以"f-then-else"为形式的推断规则(Jackson1998)。这些智能系统的主要优点是其在进行逻辑推理方面(有限)能力的透明度和可解释性。像NLP系统,如ELZA和MARGIE,一般专家系统在早期使用手工制作的专家知识,这往往是有效的狭险的问题,虽然推理无法处理不确定性,是普逼存在的实际应用。同样,语音识别研究和系统设计,这又是另一个长期存在的NLP和反智能挑战,在这个理性主义时代,主要基于专家知识工程的范式,如elegantly analyzed in(Church and Mercer1993)。在1970年代和1980年代初,专家系统的语音识别方法相当流行(Reddy1976;Zue1985)。然而,研究人员敏锐地认识到,缺乏从数据中学习和处理推理不确定性的能力,导致了接下来描述的第二波语音识别、NLP和对于文本的人工智能浪潮也走向失败。第二波浪潮:经验主义第二波LP浪潮的特点是利用语料库数据以及基于(浅层)机器学习、统计学等来利用这些数据(Manning and Schtze1999)。由于许多自然语言的结构和理论都被贬低或抛弃,而倾向于数据驱动的方法,这个时代发展的主要方法被称为经验或务实的方法(ChurchandMercer1993:Church2014)。NLP的一个主要会议甚至被命名为"自然语言处理的经验方法(EmpiricalMethods in Natural Language Processing.)(EMNLP)",最直接地反映了NLP研究人员在那个时代对经验方法的强烈积极情绪。与理性主义方法相反,经验方法认为人类的思维只是从关联、模式识别和泛化的常规操作开始。丰富的感官输入需要使大脑学习自然语言的详细结构。经验主义盛行于1920年至1960年间,自1990年以来一直在兴起。NLP的早期经验方法主要是开发生成模型,如隐马尔可夫模型(HMM)(Baum and Petrie1966),IBM翻译模型(Brown et al.1993),和head-drivenparsing模型(ollins1997),以发现大型语料库的规律性。自1990年代后期以来,在各种NLP任务中,歧视性模式已成为事实上的做法。NLP的典型判别模型和方法包括最大熵模型file://home/shishuai/Deskto p/第十六章NLP.html2/655/2020第十六章NLP(ratnaparkhi1997)、支持向量机(Vapnik1998)、条件随机(Lafferty et al..2001)、最大相互信息和最小区分器错误(He et al.2008)还有感知器(Collins2002)。在这种经验主义时代中、NLP与同样的智能方法如语音识别和计算机视觉是平行的。这是在明确的证据表明,学习和感知能力对复杂的智能系统至关重要,但在前一波流行的专家系统中却不存在。例如,当DARPA开始对自动驾驶提出重大挑战时,大多数车辆随后依赖于基于知识的智能智能。正如语音识别和NLP一样,自主驾驶和计算机视觉研究人员意识到基于知识的范式的局限性,因为机器学习需要进行不确定性处理和泛化能力。在第二波浪潮中,NLP的经验主义和语音识别是基于数据密集型机器学习的,我们现在称之为"shallow",因为在下一节中描述的第三波浪潮中,数据的多层或"deep“表征通常缺乏抽象结构。在机器学习中,在第一次浪潮中,研究人员不需要考虑构造精确规则,为知识为基础的儿P和语音系统。相反,他们把重点放在统计模型(Bishop2006;Murphy2012)或作为一个基本引擎的简单的神经网络(Bishop1995)。然后,他们使用足够的训练数据进行自动学习或"tue(调整)"系统的参数,使它们能够处理不确定性,并尝试从一个条件泛化到另一个条件,从一个领域泛化到另一个领域。机器学习的关键算法和方法包括M(期望最大化)、贝叶斯网络、支持向量机、决策树以及神经网络的反向传播算法。一般来说,基于机器学习的NLP、语音和其他智能系统的性能比早期的基于知识的智能系统要好得多。成功的例子包括语音识别(Jelinek1998),脸部识别(Viola and Jones2004),实体识别(Fei-Fei and Perona2005),手写字体识别(Plamondon and Srihari2000),以及机器翻译(Och2003)。在语音识别方面,从20世纪80年代初到2010年前后近30年,利用基于HMM与高斯混合模型相结合的统计生成模型,以及其推广的各种版本(Baker et al..2009a,b;Deng and O'Shaug hnessy2003:Rabiner and Juang1993)的统计生成模式。泛化HMM的许多版本都是基于统计和神经网络的隐动态模型(Deng1998 Bridle et al..1998;Deng and Yu2007)。前者采用EM和switchingextended Kalman filter算法学习模型参数(Ma and Deng2004;Lee et al..2004),后者采用反向传播(Picone et al..1999),两者都广泛地利用多个潜在层表示法进行语音分析的生成过程。将这种"深度"生成过程转化为端到端过程的对应方案,导致了深度学习的工业化成功(Deng et al..2010,2013;Hinton et al.2012),从而形成了第三波浪潮的驱动力。第三波浪潮:深度学习在第二波浪潮中开发的LP系统,包括语音识别、语言理解和机器翻译,表现得比在第一波浪潮时更好,鲁棒性更高,但它们远远没有达到人的水平,而这留下了很多需求。除了少数例外,NLP的(浅层)机器学习模型通常没有足够的容量来吸收大量的训练数据。此外,学习算法、方法和基础设施也都不够强大。所有这一切都在几年前发生了变化,而这导致了第三波NLP浪潮,这股浪潮是由深层机器学习或深度学习的新范式推动的(Bengio2009:Deng and Yu2014;LeCunet al.2015;Goodfellow et al.2016)深度学习起源于人工神经网络,它可以被看作是受生物神经系统后发的细胞类型的级联模型。随着反向传播算法的出现(Rumelhart et al.1986),90年代对深度神经网络的训练引起了广泛关注。在没有大量训练数据和没有适当的设计和学习范式的情况下,在神经网络训练过程中,学习信号随着层次数(或更严格的信用分配深度)在层层传播时呈指数形式消失,使得调整深层神经网络特别是递归的版本的连接权重变得异常艰难。Hinton等人(2006)克服了这个问题,使用无人监督的预训练模型来进行学习有用的特征探测器。然后,通过监督学习进一步训练网络,对标记数据进行分类。因此,可以学习使用低维表征的方式来学习高维的表征的分布。这项开创性的工作标志着神经网络的复兴。此后提出和发展了各种网络结构,包括Deep Belief网络(Hintonfile://home/shishuai/Deskto p/第十六章NLP.html3/6
文档评分
    请如实的对该文档进行评分
  • 0
发表评论
温馨提示

      由于近期经常有客户反馈添加我们客服QQ没有反应,如果您在添加我们QQ客服一直没有通过,或者发送的信息一直没有回复,有可能是QQ消息通知吞吐或延迟,建议添加我们的客服微信进行联系。

注意:请不要使用Safari浏览器浏览本站!否则会有一些不兼容的情况出现比如视频无法播放

1. 本系统正在更新换代中,建设过程较为漫长,请耐心等待。

2. 本站已经与子站 BITCO其它子站点 实现互联互通。

3. 若您有业迪账户,直接登录即可,若子系统没有您的信息,将会提示您激活账户。

4. 如在使用与体验过程中有任何疑问,可与我们联系,我们唯一联系方式如下,建议添加我们客服微信,QQ经常有收不到消息与通知的情况。

微信号:暂未开放       QQ号:点我跳转

返回顶部