图44中的输入为cnn卷积神经网络输出的x这些输入会进入gru模型中经过gru 模型计算之后会得到对应输出f然后在隐藏层引入attention计算各个输入的注意力概率分布值y进一步提取文本特征突出文本的关键词语。其中attention机制的计算公式如下:
在文本分类中,我们采用了CNN卷积神经网络作为输入,将其输出的x输入到GRU模型中进行计算,以获取相应的输出F。通过引入Attention机制,我们计算各个输入的注意力概率分布值y,进一步提取文本特征,突出文本的关键词语。具体地说,Attention机制可以通过以下公式进行计算:
原文地址: https://www.cveoy.top/t/topic/cjRm 著作权归作者所有。请勿转载和采集!