發布日期:2022-10-09 點擊率:116
前言:人工智能機器學習有關算法內容,請參見公眾號“科技優化生活”之前相關文章。人工智能之機器學習主要有三大類:1)分類;2)回歸;3)聚類。今天我們重點探討一下受限玻爾茲曼機(RBM)算法。
受限玻爾茲曼機RBM在深度學習領域一直有重要應用,它是一種可用隨機神經網絡來解釋的概率圖模型,由Smolensky在1986年在玻爾茲曼機BM的基礎上提出, 是玻爾茲曼機BM的一種特殊拓撲結構。
玻爾茲曼機BM原理起源于統計物理學,是一種基于能量函數的建模方法,能夠描述變量之間的高階相互作用,玻爾茲曼機BM的學習算法較復雜,但所建模型和學習算法有比較完備的物理解釋和嚴格的數理統計理論作基礎。
RBM概念:
以Hinton和Ackley兩位學者為代表的研究人員從不同領域以不同動機同時提出BM學習機。BM是一種隨機遞歸神經網絡,可以看做是一種隨機生成的Hopfield網絡(請參見公眾號之人工智能Hopfield網絡)。BM是一種對稱耦合的隨機反饋型二值單元神經網絡,由可見層和多個隱層組成,網絡節點分為可見單元(visible unit)和隱單元(hidden unit),用可見單元和隱單元來表達隨機網絡與隨機環境的學習模型,通過權值表達單元之間的相關性。
Smolensky提出的RBM由1個可見神經元層和1個隱神經元層組成,由于隱層神經元之間沒有相互連接并且隱層神經元獨立于給定的訓練樣本,這使直接計算依賴數據的期望值變得容易,可見層神經元之間也沒有相互連接,通過從訓練樣本得到的隱層神經元狀態上執行馬爾可夫鏈抽樣過程,來估計獨立于數據的期望值,并行交替更新所有可見層神經元和隱層神經元的值。
RBM引入:
受限玻爾茲曼機RBM是對玻爾茲曼機進行簡化,使玻爾茲曼機BM更容易使用。玻爾茲曼機BM的隱元/顯元和隱元/隱元之間都是全連接的,增加了計算量和計算難度,使用困難。而RBM則是對BM進行一些限制,使隱元之間沒有連接,使得計算量大大減小,使用起來非常方便。
RBM原理:
RBM參數如下:
1) 可視節點與隱藏節點直接的權重矩陣Wij;
2) 可視節點的偏移量b = (b1,b2,...,bn);
3) 隱藏節點的偏移量c = (c1,c2,...,cm);
這幾個參數決定了RBM網絡將1個n維的樣本編碼成1個m維的樣本。假設RBM的隱元和顯元的狀態取1或0,則它的能量函數為:
根據吉布斯(Gibbs)分布:p(v,h)=(1/Z)*e[?E(v,h)]和上面的能量函數建立模型的聯合概率分布。
可視節點狀態只受m個隱藏節點影響,同理,每個隱藏節點也是只受n個可視節點影響。即:
其中,Z為歸一化因子或配分函數,表示對可見層和隱藏層節點集合的所有可能狀態的(能量指數)求和。Z計算復雜度非常高,無法直接計算,需要一些數學推導來簡化計算量。
同理得到p(h)。
根據貝葉斯原理,知道聯合概率和邊緣概率,求得條件概率為:
這里?是sigmoid函數。條件概率是根據隱元或顯元的狀態、權重W、偏差b或c來確定顯元或隱元的狀態。
下一篇: PLC、DCS、FCS三大控
上一篇: 索爾維全系列Solef?PV