参会见闻系列:ACL 2018在更具挑战的环境下理解数据表征及方法评价_职业教育_bob(中国)平台官网登陆_app下载
详细说明

参会见闻系列:ACL 2018在更具挑战的环境下理解数据表征及方法评价

来源:bob平台官网入口    发布时间:2024-02-16 10:23:52
暂无价格
产品说明

  雷锋网 AI 科技评论按:本篇属于「顶会见闻系列」。每年这么多精彩的人工智能/机器学习会议,没去现场的自然可惜,在现场的也容易看花眼。那么事后看看别的研究员的见闻总结,也许会有新的收获呢。

  Sebastian Ruder 是Data Analytics 的Insight 研究中心的在读博士生,也是 AYLIEN 的研究科学家。在此之前他曾在微软、IBM 深蓝以及谷歌代码夏令营工作。他的主要研究兴趣是用于领域适配的深度学习。这篇文章由 Sebastian Ruder发表在AYLIEN 博客,是一篇深入、全面的 ACL 2018 会议论文研究亮点回顾。雷锋网 AI 科技评论全文编译如下。

  今年 7月15日至 20日,我有幸参加了于澳大利亚·墨尔本举办的第 56届计算机语言学年会,即 ACL 2018,并且发表了三篇论文()。想要将整个 ACL 2018的内容归纳在一个主题下无异于异想天开。然而,细细品味一下,还是能明显地看出一些重要的议题。在 2015和 2016年的自然语言领域的学术会议中,词嵌入技术可谓一统天下。那时许多人甚至认为,与其将 EMNLP(自然语言处理领域的顶会之一)解释为「自然语言处理实证方法(Empirical Methods in Natural Language Processing)」还不如将其解释为「自然语言处理嵌入方法(Embedding Methods in Natural Language Processing)」。

  斯坦福大学 NLP 掌门人 Christopher Manning曾在一次演讲中提到,2017年是 BiLSTM+attention 之年(带有注意力机制的双向 LSTM)。尽管带有注意力机制的 BiLSTM仍然无处不在,但在我看来,这项大会的主要内容还是在于更好地了解这些模型捕获的表征并在更具挑战的环境中采用这些表征。我关注的主要是涉及到以上主题的工作,也会讨论一些其他我感兴趣的主题。

  令人耳目一新的是,许多论文对现有的模型以及它们所捕获到的信息进行了翔实的分析,而不是继续引入看上去更炫酷的新模型。目前,要做到这一点最常见的做法是自动创建一个数据集,它侧重于泛化能力的某一个方面,然后在这个数据集中评估不同的训练过的模型:

  例如,Conneau等人()在 10个数据集上评估不同的句子嵌入方法,这一些数据集的设计旨在捕捉某些特定的语言学特征,比如预测一个句子的长度、恢复单词的内容、对二元转换的敏感性等。他们发现,不同的编码器结构可能会引起嵌入具有不一样的特性,而且相比于其他任务中的结果,嵌入袋(bag-of-embeddings)捕获句子级别信息的能力的出乎意料地好。

  Zhu等人()通过观察从某些语义或者语法不同的句子中生成的三元组的相似性的变化来评估句子嵌入。他们发现,在众多发现中, SkipThought和 InferSent能将否定词和同义词进行区分的特性尤为突出,同时 InferSent更擅长识别等价语义以及识别量词。

  Pezzelle等人()专门研究了量词,他们对不同的 CNN和LSTM模型预测单句和多句语境中的量词的能力进行了测试。他们发现,在单句语境中,模型比人类更胜一筹,而人类在多句语境中的表现略好一些。

  Kuncoro等人()评估了 LSTM基于主谓一致规则建模的能力。他们发现,只要容量足够,LSTM能够对主谓一致性建模,但是像语法 RNN (recurrentneuralnetworkgrammars,)这样的对于句法更敏感的模型的表现更好。

  Blevins等人()评估了为不同的任务进行过预训练的模型,查看它们能否捕获语法的层次结构。具体而言,他们训练了用于预测词性标注以及解析树不同深度所组成的标签。它们发现所有的模型实际上都能够编码大量的语法信息,尤其是语言模型还能够学到了一些语法。

  在Lau等人()的努力下,他们得到了一个与语言模型的泛化能力相关的有趣的结果:用十四行诗的语料库训练出来的语言模型可以学到与人类水平相当的格律。

  然而,语言模型也存在着其局限性。Spithourakis和 Riedel ()发现语言模型对数字建模的能力很差,他们针对这样的一个问题提出了一些对语言模型进行改进的策略。

  Liu等人()在 Relp4NLPworkshop上演示了,用自然语言数据训练的 LSTM网络可以比用非自然语言数据训练的模型从更长的序列中召回单词。

  值得格外的注意的是,我认为更好地了解 LSTM网络以及语言模型建模了哪些信息逐渐重要,因为这似乎是NLP领域的研究不断前进的一项重要推动力,正如我们关于语言模型微调的ACL 2018论文()以及这篇讲NLP领域的ImageNet时代已经到来的文章讨论的那样。

  尽管上面提到的研究工作都是试图了解某个特定的模型类别的泛化能力的某个层面,本届 ACL 还有一些论文着眼于更好地理解目前用于特定任务的最好的模型:

  Glockner等人()着眼于自然语言推理的任务。他们创建了一个数据集,该数据集中的句子与训练数据中的句子最多只有一个单词不同,这样做是为了测试模型是不是能够进行简单的词汇推断。他们发现当前最佳的模型没办法完成许多简单的推断工作。

  Mudrkarta等人()对当前最顶级的 QA模型进行了跨模态分析,发现这些模型常常会忽略关键发问词。接着,他们对问题进行了扰动处理,以制造可以大幅度降低模型准确率的对抗样本。

  我发现许多论文对模型的不同层面进行了探索。我希望这些新出现的数据集能成为每位自然语言处理研究人员工具包中的标准工具。这样一来,我们不但可以在未来看到更多这样的论文,而且这样的分析也有几率会成为除误差分析和模型简化测试以外标准模型评估的一部分。

  另一种更好地了解一个模型的方式是分析模型的归纳偏倚。自然语言处理神经架构的语言结构相关性 workshop(RELSNNLP workshop)试着探究将语言结构融入模型有多大的作用。Chris Dyer在workshop 上的发言的重点之一是:循环神经网络(RNN)对自然语言处理(NLP)是不是具备有用的归纳偏倚。特别是,他认为有几条明显的证据可以证明RNN更偏向于顺序近因效应,即:

  随着时间的推移,梯度会逐渐衰减。LSTM或 GRU可能会让我们减缓这种趋势,但它们也会遗忘掉梯度的信息。

  据 Chomsky所言,顺序近因效应并不是学习人类语言的正确偏倚,因此就语言建模任务而言,RNN网络带有的偏倚似乎并不是很合适。这样的做法在实践中就可能会导致统计意义上的效率低和以及泛化能力差的问题。语法RNN ()是一类通过将句子压缩成其成分来顺序生成一个树结构和一个序列的模型,而不是对句法(而非顺序)近因有偏倚。

  然而,要确定模型有没有有用的归纳偏倚通常是很难的。为了识别出主谓一致关系,Chris假设 LSTM语言模型学习到了一种非结构性的「第一名词」启发式,它依赖于将动词与句子中的第一个名词相匹配。通常来说,困惑度(以及其他评价指标)与句法能力或结构能力相关。然而,在从使用更简单的启发式的模型中区分出结构敏感的模型时,困惑度则并不是非常敏感。

  Mark Johnson在workshop 的演讲中提到,尽管深度学习为自然语言处理带来了很大程度的革命,但它的主要的好处还在于其经济性:用端到端模型代替了对成分复杂的处理流程,往往可以更快、更容易地实现目标准确性。深度学习并未改变我们对语言的理解,从这个意义上说,深度学习主要的贡献在于证明神经网络(或者说这种计算模型)可以执行某些自然语言处理任务,这也表明这些任务并不是智能的指标。虽然深度学习办法能够很好地对匹配和执行感知任务进行建模,但对于依赖于有意识的反应和思考的任务,它们的表现仍然差强人意。

  Jason Eisner在演讲中对「语言结构和类别是不是真的存在」这一问题提出质疑:是真的存在结构和类别,还是只不过「科学家们就是喜欢把数据分成堆」,因为不考虑语言结构的方法在机器学习任务中也可以表现得惊人的好。他发现即使是像音素「/b/」和音素「/p/」之间的差异这样「任意定义」的类别划分也会被逐步加强,然后具有一些意义。相比之下,神经网络模型就好比是性能好的海绵,它能吸收任何没有被显式建模的东西。

  他提到了四种常用的方法,用以在模型中引入语言结构信息:a)通过基于流水线的方法,将语言类别作为特征引入;b)通过数据增强,用语言类别对数据来进行扩充;c)通过多任务学习引入语言结构;d)通过结构化建模,例如使用基于转换的解析器、循环神经网络语法,甚至是像 BIO标记法这样相互依赖的类引入语言信息。

  Emily Bender在也在workshop上有个演讲,其中她对「与语言无关的学习」整个想法提出了质疑:即便你已经有一个某种语言的巨大的语料库,且你对这种语言其一无所知,那么在没有一点先验信息的情况下(例如,什么是功能词),那么你就无法学到句子的结构或含义。她还指出许多机器学习论文将它们的方法描述得类似于婴儿学习的过程,但却没引用任何实际的发展心理学或语言获得方面的文献。实际上婴儿学习环境是有特殊情境、多种因素共同作用、带有主观感情的,它们包含了很多信号和意义。

  更好地理解表征也是自然语言处理表征学习workshop(Representation Learning for NLP workshop)的一个主题。Yoav Goldberg在workshop 上的演讲中详细的介绍了他的小组为了更好地理解 RNN 的表征所做出的努力。特别是,他讨论了最近从RNN 中提取有限状态自动机从而更好地了解模型学习到了什么的工作()。他还提醒听众,就算是在某一个任务上训练过的,LSTM表征并不是只针对特定的任务有效的。它们通常预测的是像数据分布统计这样的超出人类预期之外的层面。即便当模型用领域对抗损失来产生具有某种不变性的表征,表征的预测能力仍然会带有一些刚才说的那样的性质。因此,从编码语言数据中完全删除不需要的信息也是一个挑战,就算是看上去很完美的LSTM模型也可能具有潜在的故障模式。

  对于关于 LSTM的故障模式的话题,今年获得 ACL终身成就奖的 Mark Steedman也表达了与此主题非常契合的观点:「LSTM在实践中是有效的,但是它们在理论上也是正确的吗?」

  一个与更好地了解现有最佳模型的限制紧密关联的主题是提出该怎么样改进这些模型的方法。与上面提到的文章提及的对抗性样本论文()相似,有几篇文章试着使模型在面对对抗性样本时的鲁棒性更强:

  Cheng等人()提出使自然语言机器翻译模型中的编码器和解码器在对抗输入扰动时更加鲁棒。

  Ebrahimi等人()提出白盒对抗性样本,通过替换少量的单词来欺骗字符级别的神经网络分类器。

  Ribeiro等人()在之前的方法基础上加以改进。他们引入了保留语义、但会让模型的预测发生改变的扰动,然后把它泛化到会在许多实例下产生对抗性状况的规则上。

  Bose等人()用对抗学习采样器将对抗性样本和噪声对比评估结合在一起,该采样器会发现更难的负例,这样模型就可以更好地学习表征。

  Tim Baldwin在 RepL4NLPworkshop 上讨论了在领域转换时使模型更鲁棒的不同方法。幻灯片参见谷歌盘。就单源域而言,他讨论了一种基于不同类句法和语义噪声在语言上扰乱训练实例的方法()。在多源域环境中,他提出可以在源域上训练对抗模型()。最后,他讨论了一种能学习鲁棒的、有隐私保护能力的文本表示的方法()。

  Margaret Mitchell专注于公平且可保护隐私的表征。她特别强调了有关世界的描述性视角和规范性视角之间的区别。机器学习模型学习的表征反应了对应的训练数据的描述性视角。训练数据代表了「人们口中的世界」。然而,有关公平性的研究也在试图创建可以反应世界的规范性视图的表征,这就要获得我们的价值观并将其注入到表征中去。

  Finegan-Dollak等人()明确了现有 text-to-SQL系统的评估方法并提出了改进方法。他们都以为现有的训练集-测试集分割和变量匿名化过程存在缺陷,于是他们提出了七个数据集的标准改进版本以修复这些缺陷。

  Dror等人的工作()则关注于一种老生常谈、但很少被真正实践或做的不好的做法:统计显著性检验。特别地,他们调查了近些年的ACL和 TACL 2017中的实证论文后发现,统计显著性检验常被忽略或误用,于是他们提出了一种用于自然语言处理任务的简单的统计显著性检验选择协议。

  Chaganty等人()调查了如 BLEU和 ROUGE这样的自动指标的偏差,然后发现即使是无偏估计也只能相对地减少误差。该工作强调了改进自动指标的相关性和减少人类标记的方差的必要性。

  另一种改善模型评估的方式是将新模型和更强的基线作比较,这是为了确认和保证改进的方法效果非常明显。以下是一些着眼于这个研究方向的论文:

  Shen等人()系统地比较了带池化技术的基于词嵌入的方法和像 LSTM和 CNN这样更复杂的模型。他们发现对大多数数据集而言,基于词嵌入的方法都表现出了与后者相当、甚至更好的性能。

  与此同时,Ruder和 Plank ()发现像「Tri-training」这样的经典的自展算法为半监督学习提供了强大的基线,其结果甚至要比当前最佳的方法还要好。

  在上文中,我们强调了在像超出分布的数据上和针对不一样任务这样更具挑战的环境中做评估的重要性。如果我们仅只关注单个任务或领域内数据,研究结果则会有所不同。我们应该在对抗条件下测试模型以更好地了解模型的鲁棒性以及它们在实际问题中的泛化能力。

  想要在这样的环境下做评估,就需要创建更具挑战的数据集。Yejin Choi在 RepL4NLP的圆桌讨论(总结请参阅:)中指出,大家对于 SQuAD或 bAbI这样过于简单并且基本已经解决了的任务投入了过多的注意力。Yoav Goldberg甚至认为「SQuAD就好比自然语言处理领域的MNIST数据集(图像识别最基础的数据集之一)一样」。相反,我们该将注意力集中在更具有挑战性的任务以及开发更多难度更高的数据集上。但是如果数据集过于复杂,人们也无法对其做处理。实际上,人们不应该花费过多时间处理数据集,因为人们最近已能高效地对数据集做处理,而创建新的、更具挑战的数据集更重要。本届 ACL 会议上,研究人员提出了两个用于阅读理解、试图超越 SQuAD的数据集:

  NarrativeQA()要求阅读器通过阅读整本书或者电影剧本回答故事的有关问题,从而理解其潜在含义。

  Richard Socher在机器阅读问答 workshop(Machine Reading for Question Answering workshop)的演讲(总结见)中强调了在多任务中训练和评估模型的重要性。特别地,他指出自然语言处理需要不一样的推断,例如逻辑推断、语言推断、情感推断等,而显然单任务不足以满足这样的要求。

  另一个重要的议题是要在多种语言上评估模型。Emily Bender调查了 50篇 NAACL 2018的论文,她发现有 42篇都评估了一种没有指出名字的神秘语言(当然是英语了)。她强调,为每项工作处理的语言命名很重要,因为不同语言有不同的语言结构;不提及处理的语言会让研究结论变得模糊。

  如果我们将自然语言处理的方法设计为跨语言方法,那么就应该在资源质量较差的语言这样更具挑战的设置上对其进行额外的评估。举例而言,下面的两篇论文都指出,如果目标语言与爱沙尼亚语或芬兰语都不同的话,现有的无监督双语字典方法都会失效:

  Søgaard等人()进一步探讨了现有方法的局限性并指出:当嵌入是在不相同的领域上训练或使用不相同算法时,这一些方法都会失败。他们最终提出一个度量标准来量化这一些方法的潜力。

  Artetxe等人()提出一种新的无监督自训练方法,该方法采用了更好的初始化来引导优化过程,这种方法对于不同的语言对而言十分强大。

  Dror等人()建议用正交特征归纳双语词典。尽管这主要对相关的语言有帮助,但它们也可以对如英语-芬兰语这样的不相似的语言对进行评估。

  Ren等人()最后建议利用另一种资源丰富的语言辅助资源匮乏的语言的翻译。他们发现他们的模型明显提升了罕见语种的翻译质量。

  Currey和 Heafield ()提出一种采用 Gumbel tree-LSTM的用于自然语言机器翻译的无监督的 tree-to-sequence模型。结果证明他们的模型对资源质量较差的语言而言尤其有用。

  会议期间的另一个议题是自然语言处理领域取得的显著进展。ACL 主席 Marti Hearst在她的主旨演讲中涉及到了这个部分。她过去常以 Stanley Kubrick的HAL 9000(见下图)为例来展示我们的模型能做和不能做的事。近些年,由于我们的模型已经学会执行像识别和生成人类演讲和唇形识别这样十几年前没办法完成的任务,因此她这样的做法现在就显得有一点无聊了。诚然,我们离像辩论这样需要深度理解语言和推理的任务还是很远,但是自然语言处理取得的进展还是十分显著的。

  Hal 9000. (Source:CC BY 3.0,Wikimedia)

  Marti还引用了自然语言处理(NLP)和信息检索(IR)的先驱者 Karen Spärck Jones的话:「研究不是在绕圈,而是在攀爬螺旋式的楼梯。打个未必恰当的比方,这些楼梯未必是相连的,但是它们都朝着同一个方向前进」。她还表达了一种能引起许多人的共鸣的观点:在 20世纪 80和 90年代,只有少数的论文可供阅读,紧跟最新的科研成果就容易得多。为了使紧跟最新成果变得更容易,我最近建立了一个新文档()以收集针对不一样自然语言处理任务的最新的成果。

  自然语言处理领域正处于蓬勃的发展中,她鼓励人们参与到 ACL中,贡献自己的一份力量。她还为最努力工作的 ACL会员颁发了 ACL杰出服务奖。此外,ACL 2018还(在 1982年的 EACL和 2000年的NAACL之后)启动了其第三个子会议 AACL(计算语言学协会亚太分会:)

  本届 ACL 的会务会谈重点讨论了该怎么样应对随着研究的发展所产生的挑战:提交的论文数量持续不断的增加,因此就需要更多的审稿人员。我们期望在明年的会议上看到新的能处理大量提交论文所做的努力。

  让我们把视线年,那时人们就在寻找强化学习(RL)在自然语言处理中的用武之地,并将其应用在慢慢的变多的任务中。近一段时间,尽管监督学习看起来更适用于大多数任务,但对某些具有时序依赖的任务(例如在训练和建模对话时选择数据)来说,强化学习的动态特性使其成为最有用的方式。强化学习的另一个重要应用是直接优化像 ROUGE或 BLEU这样的度量指标,而不是优化像交叉熵这样的替代损失。文本总结和机器翻译是这一领域的成功应用案例。

  逆向强化学习在过于复杂而无法指定奖励的环境中有很大的价值。视觉化叙事是这方面的一个成功的应用案例。深度学习非常适合于在自然语言处理领域中如玩一些基于文本的游戏、浏览网页并完成相应的任务这样的序贯决策问题。「用于自然语言处理的深度强化学习教程」()提供了对这一领域全面的概述。

  实际上,还有其它很棒的教程。我尤其喜欢的是变分推断和深度生成模型教程()。关于语义解析()的教程和「你一定想知道的关于语义和实践的100件事」()都很值得一看。请参阅以下链接获得完整的教程列表:。

×