發表文章

目前顯示的是 2月, 2026的文章

[論文筆記]Skip-Thought Vectors

圖片
https://arxiv.org/pdf/1506.06726 Skip-Thoughts  使用跳躍思維模型 與 word2vec 相當相似是一種自然語言處理模型,但不是一次將個別單詞轉換為向量。 取而代之,將整個句子作為單位轉換為向量。 主要理論是去取得一個自然語言語料庫,並找出哪些句子傾向於彼此相鄰出現,然後訓練一個神經網路,使其能預測哪些句子預期會出現在任何其他句子之前或之後。 研究問題 這項研究試圖解決的核心問題是:如何在這個缺乏標註數據的狀況下,學習出高品質、通用且分佈式的句子表示向量(Distributed Sentence Representations)? 在當時,雖然詞向量(Word Vectors)已經能透過非監督學習取得很好的效果,但句子向量的學習大多仍依賴「監督式任務」(Supervised tasks),例如情感分析或邏輯推理 。這導致模型學習到的特徵往往只針對特定任務有效,缺乏通用性。雖然 Paragraph Vector 是一種非監督替代方案,但它在測試階段需要進行推論(inference)來計算新句子的向量,效率較低 。作者希望創造一種「隨取隨用」(off-the-shelf)的編碼器,能將任何句子映射成向量,並直接應用於各種下游任務 研究背景 此篇論文研究的靈感主要來自於詞嵌入模型, 從詞到句子: 既然 Skip-gram 可以透過預測上下文單字來學習詞義,那麼利用書籍中連貫的文本結構,一個句子應該也能透過預測「前一句」和「後一句」來學習句義 。 現有技術侷限: 當時主流的句子組合方法(Composition methods)如遞歸神經網絡(Recursive NN)或卷積網絡(CNN),通常需要依賴類別標籤進行倒傳遞更新,這限制了它們的推廣能力 。 目標設定: 作者決定不專注於設計新的組合運算符(composition operator),而是提出一個新的目標函數(objective function),讓任何編碼器都能透過此目標學習到通用的語義 。 模型架構 Skip-Thought 模型採用了經典的 Encoder-Decoder架構 核心機制: 給定一個連續的句子三元組 ( s i − 1 , s i , s i + 1 ) ,模型將中間的句子 s i 編碼,並試圖重構前一句 s i − 1 和後一句 ...