PyTorch教程-10.8。波束搜索

电子说

1.3w人已加入

描述

在10.7 节中,我们介绍了编码器-解码器架构,以及端到端训练它们的标准技术。然而,当谈到测试时间预测时,我们只提到了 贪心策略,我们在每个时间步选择下一个预测概率最高的标记,直到在某个时间步,我们发现我们已经预测了特殊的序列结尾“”标记。在本节中,我们将从形式化这种贪婪搜索策略开始,并确定从业者往往会遇到的一些问题。随后,我们将该策略与两种替代方案进行比较:穷举搜索(说明性但不实用)和 波束搜索(实践中的标准方法)。

让我们从设置我们的数学符号开始,借用第 10.7 节中的约定。随时步t′,解码器输出表示词汇表中每个标记出现在序列中的概率的预测(可能的值 yt′+1, 以先前的标记为条件 y1,…,yt′和上下文变量c,由编码器产生以表示输入序列。为了量化计算成本,表示为Y输出词汇表(包括特殊的序列结束标记“”)。我们还将输出序列的最大标记数指定为 T′. 我们的目标是搜索所有的理想输出 O(|Y|T′)可能的输出序列。请注意,这稍微高估了不同输出的数量,因为在“”标记出现之后没有后续标记。然而,出于我们的目的,这个数字大致反映了搜索空间的大小。

10.8.1。贪心搜索

考虑第 10.7 节中的简单贪婪搜索策略 。在这里,随时步t′,我们只需从中选择条件概率最高的标记 Y, IE,

(10.8.1)yt′=argmaxy∈YP(y∣y1,…,yt′−1,c).

一旦我们的模型输出“”(或者我们达到最大长度 T′) 输出序列完成。

这个策略看似合理,其实还不错!考虑到它在计算上的要求是多么的低,你很难获得更多的收益。然而,如果我们暂时搁置效率,搜索最有可能的序列似乎更合理,而不是(贪婪选择的)最有可能的标记序列。事实证明,这两个对象可能完全不同。最可能的序列是最大化表达式的序列 ∏t′=1T′P(yt′∣y1,…,yt′−1,c). 在我们的机器翻译示例中,如果解码器真正恢复了潜在生成过程的概率,那么这将为我们提供最有可能的翻译。不幸的是,不能保证贪心搜索会给我们这个序列。

让我们用一个例子来说明它。假设输出字典中有四个标记“A”、“B”、“C”和“”。在 图10.8.1中,每个时间步下的四个数字分别代表在该时间步生成“A”、“B”、“C”、“”的条件概率。

pytorch

图 10.8.1在每个时间步,贪婪搜索选择条件概率最高的标记。

在每个时间步,贪心搜索选择条件概率最高的标记。因此,将预测输出序列“A”、“B”、“C”和“”(图 10.8.1)。这个输出序列的条件概率是 0.5×0.4×0.4×0.6=0.048.

接下来,让我们看一下图 10.8.2中的另一个例子。与图 10.8.1不同,在时间步 2 中,我们选择图 10.8.2中的标记“C” ,它具有第二高的条件概率。

pytorch

图 10.8.2每个时间步下的四个数字代表在该时间步生成“A”、“B”、“C”和“”的条件概率。在时间步 2,选择具有第二高条件概率的标记“C”。

由于时间步3所基于的时间步1和2的输出子序列已经从图10.8.1中的“A”和“B”变为图10.8.2 中的“A”和“C” ,图 10.8.2中每个标记在时间步长 3 的条件概率也发生了变化 。假设我们在时间步 3 选择标记“B”。现在时间步 4 以前三个时间步“A”、“C”和“B”的输出子序列为条件,这与“A”不同、“B”、“C”在图 10.8.1中。因此,图 10.8.2中第 4 步生成每个 token 的条件概率 也与 图 10.8.1不同. 因此, 图 10.8.2中输出序列“A”、“C”、“B”和“”的条件概率为 0.5×0.3×0.6×0.6=0.054,大于图 10.8.1中的贪心搜索。在本例中,贪心搜索得到的输出序列“A”、“B”、“C”、“”并不是最优序列。

10.8.2。穷举搜索

如果目标是获得最可能的序列,我们可以考虑使用 穷举搜索:穷举所有可能的输出序列及其条件概率,然后输出得分最高的预测概率。

虽然这肯定会给我们想要的东西,但它的计算成本却高得令人望而却步 O(|Y|T′),序列长度呈指数增长,词汇量很大。例如,当|Y|=10000和T′=10,我们需要评估1000010=1040序列。与实际应用程序相比,这些数字很小,但已经超出了任何可预见的计算机的能力。另一方面,贪心搜索的计算成本是 O(|Y|T′): 奇迹般地便宜,但远非最佳。例如,当|Y|=10000和 T′=10, 我们只需要评估10000×10=105 序列。

10.8.3。波束搜索

您可以将序列解码策略视为位于频谱上, 波束搜索在贪婪搜索的效率和穷举搜索的最优性之间做出折衷。波束搜索的最直接版本的特征在于单个超参数, 波束大小,k. 在时间步 1,我们选择k具有最高预测概率的标记。他们每个人都将是第一个令牌k候选输出序列,分别。在随后的每个时间步,基于k上一时间步的候选输出序列,我们继续选择k具有最高预测概率的候选输出序列 k|Y|可能的选择。

pytorch

图 10.8.3束搜索过程(束大小:2,输出序列的最大长度:3)。候选输出序列是A, C,AB,CE,ABD, 和CED.

图 10.8.3举例说明了 beam search 的过程。假设输出词汇表只包含五个元素:Y={A,B,C,D,E},其中之一是“”。令波束大小为 2,输出序列的最大长度为 3。在时间步长 1,假设具有最高条件概率的标记P(y1∣c)是A 和C. 在时间步 2,对于所有y2∈Y,我们计算

(10.8.2)P(A,y2∣c)=P(A∣c)P(y2∣A,c),P(C,y2∣c)=P(C∣c)P(y2∣C,c),

并在这十个值中选择最大的两个,比如说 P(A,B∣c)和P(C,E∣c). 然后在第 3 步,对于所有y3∈Y, 我们计算

(10.8.3)P(A,B,y3∣c)=P(A,B∣c)P(y3∣A,B,c),P(C,E,y3∣c)=P(C,E∣c)P(y3∣C,E,c),

并在这十个值中选择最大的两个,比如说 P(A,B,D∣c)和 P(C,E,D∣c).结果,我们得到六个候选输出序列:(i)A; (二)C; (三)A, B; (四)C,E; (五)A,B, D; (六)C,E,D.

最后,我们根据这六个序列得到最终候选输出序列的集合(例如,丢弃包括“”和“”之后的部分)。然后我们选择以下得分最高的序列作为输出序列:

(10.8.4)1Lαlog⁡P(y1,…,yL∣c)=1Lα∑t′=1Llog⁡P(yt′∣y1,…,yt′−1,c),

在哪里L是最终候选序列的长度, α通常设置为 0.75。由于较长的序列在(10.8.4)的总和中具有更多的对数项,因此项Lα在分母中惩罚长序列。

beam search的计算成本是 O(k|Y|T′). 这个结果介于贪婪搜索和穷举搜索之间。贪心搜索可以看作是波束大小为 1 时出现的波束搜索的特例。

10.8.4。概括

序列搜索策略包括贪婪搜索、穷举搜索和波束搜索。波束搜索通过其对波束大小的灵活选择,在准确性与计算成本之间进行权衡。

10.8.5。练习

我们可以将穷举搜索视为一种特殊类型的波束搜索吗?为什么或者为什么不?

在10.7 节的机器翻译问题中应用集束搜索 。光束大小如何影响翻译结果和预测速度?

在第 9.5 节中,我们使用语言建模来生成遵循用户提供的前缀的文本。它使用哪种搜索策略?你能改进它吗?

Discussions

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分