跳至主要內容
  • Hostloc 空間訪問刷分
  • 售賣場
  • 廣告位
  • 賣站?

4563博客

全新的繁體中文 WordPress 網站
  • 首頁
  • 如何理解双向循环神经网络?用在分类问题时是否无意义?
未分類
16 2 月 2022

如何理解双向循环神经网络?用在分类问题时是否无意义?

如何理解双向循环神经网络?用在分类问题时是否无意义?

資深大佬 : Richard14 35

如题,看了一些双向 rnn ( lstm )的文章,以我的理解,rnn 每层的最终 output 应该表示的是当前时刻(序列)的状态。那么在进行一些比如情感分析,或分类,等等对一个序列进行定性的问题时,双向 rnn 是否没有意义?因为其输出应该代表最后一个状态,正向 rnn 已经有了,反向 rnn 的话最后一个状态反过来说只是一个初始值?

大佬有話說 (5)

  • 資深大佬 : SorryChen

    因为很多时候,当前不仅和之前有关,也和之后有关。举个形象的例子,比如做完形填空, 我 __ 球,如果你只看一个我,你怎么知道空填什么呢,如果双向 LSTM 你就可以知道后面是球,所以应该填“打”。

  • 資深大佬 : eternitym31

    业务中分类问题双向 LSTM 确实效果一般,序列标注问题这种吃上下文语义的提升比较大。

  • 資深大佬 : lqf96

    其实 transformer 也分单向和双向模型,前者就是 gpt ,后者就是 bert 以及衍生出的一系列 mlm 模型…另外单向和双向模型拼接在一起就可以得到 seq2seq model ,比如 bart 或者 t5 ,或者通过构造特殊的 attention mask 也可以实现一个 transformer stack 的 seq2seq model (unlm v1/v2)

  • 資深大佬 : lqf96

    总之学术界这边 lstm 和 rnn 给我的感觉都是上古的东西了…

  • 資深大佬 : sleeepyy

    > 那么在进行一些比如情感分析,或分类,等等对一个序列进行定性的问题时,双向 rnn 是否没有意义?因为其输出应该代表最后一个状态,正向 rnn 已经有了,反向 rnn 的话最后一个状态反过来说只是一个初始值?
    这里应该是 lz 有误解,当用 BiLSTM 做分类的时候,通常采用两个方向的结尾的 h 拼接作为表示,即 [h_R_3 || h_L_0], 而非 lz 所理解的 [h_R_3 || h_L_3]
    如何理解双向循环神经网络?用在分类问题时是否无意义?

文章導覽

上一篇文章
下一篇文章

AD

其他操作

  • 登入
  • 訂閱網站內容的資訊提供
  • 訂閱留言的資訊提供
  • WordPress.org 台灣繁體中文

51la

4563博客

全新的繁體中文 WordPress 網站
返回頂端
本站採用 WordPress 建置 | 佈景主題採用 GretaThemes 所設計的 Memory
4563博客
  • Hostloc 空間訪問刷分
  • 售賣場
  • 廣告位
  • 賣站?
在這裡新增小工具