鹏仔先生-趣站-一个有趣的网站!
鹏仔先生

鹏仔先生

当前位置:网站首页 > 文字大全 > 正文

Multi-Hop机制(一)

作者:百变鹏仔日期:2023-07-26 05:02:44浏览:15分类:文字大全

Multi-Hop机制(一)

在阅读理解任务中,比较重要的三点:

一、预训练模型

二、双向attention

三、Multi-Hop机制

预训练模型现在基本是阅读理解任务的基座,能够较好地提取语义语法特征;双向attention基于阅读理解的输入来自query和passage两个方向的特点,能够将query和passage相互融合地更好;Multi-Hop的思想是来自于人的re-read做法--带着问题反复的读文章,从而更准确找到答案,而在阅读理解中就是反复的attention机制。

接下来从几个阅读理解模型,来介绍Multi-Hop机制的第一种形式--从第三方维度来记录attention。

(Iterative alternating neural attention for machine reading)

(Gated-Attention Readers for Text Comprehension)

实现思路:分别将query和document embedding后,经过双向GRU编码,用query的输出状态反复与document的输出attetion,作为下一层GRU的输入。

实现思路:将document和query分别进行双向LSTM编码,然后将二者分别进行alternative attention,将输出再重复一次双向LSTM编码和alternative attention,最终将每步输出维度与document保持一致的向量都concat起来,最终塞入一个双向LSTM。

上述模型都属于Multi-Hop机制三种形式中的第一种,都是按照第三方维度将document和query重复多次attention,DCN+比较特殊,只有两次coattention。

免责声明:我们致力于保护作者版权,注重分享,当前被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自自研大数据AI进行生成,内容摘自(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供学习参考,不准确地方联系删除处理!邮箱:344225443@qq.com)

图片声明:本站部分配图来自网络。本站只作为美观性配图使用,无任何非法侵犯第三方意图,一切解释权归图片著作权方,本站不承担任何责任。如有恶意碰瓷者,必当奉陪到底严惩不贷!

  • 上一篇:已经是第一篇了
  • 下一篇:已经是最后一篇了
内容声明:本文中引用的各种信息及资料(包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主体(包括但不限于公司、媒体、协会等机构)的官方网站或公开发表的信息。部分内容参考包括:(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供参考使用,不准确地方联系删除处理!本站为非盈利性质站点,本着为中国教育事业出一份力,发布内容不收取任何费用也不接任何广告!)