也就是说当模型在文本中看到新单
时不应改变其过去的预测。我们将这种实时逐个令牌处理流称为流式处理。由于时间依赖性准确的流式传输很困难大多数不流畅的地方只有在事后才能被识别出来。例如直到第二次说出该单词或短语时重复才会真正成为重复。为了研究我们的不流畅检测模型在流应用程序中是否有效我们将训练集中的话语分成前缀段其中在训练时仅提供话语的前个标记对于的所有值直至全长的话语。我们评估了模拟语音文本流的模型方法是向模型提供前缀并使用捕获模型准确性稳定性和延迟的多个指标来衡量性能包括流检测时间编辑开销和平均等待时间。我们尝试了一个或两个标记的前视窗口允许模型提前窥视模型不需要生成预测的其他标记。本质上我们要求模型在做出决定之前等待一两个以上的证据。虽然添加这个固定的前瞻确实提高格鲁吉亚电话号码列表 了稳定性并在许多情况下流式传输分数但我们发现在某些情况下即使不前瞻下一个标记标签也已经很清晰并且模型不一定会从等待中受益。其他时候只需等待一个额外的令牌就足够了。我们假设模型本身可以学习何时应该等待更多上下文。我们的解决方案是修改后的模型架构其中包括一个等待分类头该头决定模型何时看到足够的证据来信任不流畅分类头。显示模型如何在输入标记到达时对其进行标记的图表。
https://reviewb.club/wp-content/uploads/2024/05/georgia-number.png
嵌入层输入两个单独的分类头将它们组合起来输出。我们构建了一个训练损失函数它是三个因素的加权和不流畅分类头的传统交叉熵损失交叉熵项仅考虑第一个具有等待分类的标记延迟惩罚会阻止模型等待太长时间才能做出预测我们评估了这个流模型以及没有前瞻且具有和令牌前瞻值的标准基线流媒体分数与令牌平均等待时间的关系图。三个数据点表明在多个等待时间内得分高于。所提出的流模型实现了接近最高的性能并且等待时间比固定前瞻模型短得多。与没有前瞻的标准基线和前瞻为的模型相比流式模型获得了更好的流式分数。它的性能几乎与固定前瞻为的变体一样好但等待时间要少得多。
頁:
[1]