利用宇宙的能力來處理資料!「物理網路」遠勝深度神經網路

語言: CN / TW / HK

輪到物理學家來揭示神經網路的本質了:他們在嘗試讓宇宙為我們處理資料。

作者 | Charlie Wood

編譯 | 王玥

編輯 | 岑峰

在一個隔音的板條箱裡有著一個世界上最糟糕的神經網路。在看到數字6的影象後,這個神經網路會暫停片刻,然後顯示出自己識別出的數字:0。康奈爾大學的物理學家兼工程師Peter McMahon主導了這個神經網路的開發,他不好意思地笑著說,這是因為手寫的數字看起來很潦草。一位從NTT研究所來訪問McMahon實驗室的博士後Logan Wright說,這個裝置通常會給出正確的答案,不過他也承認,出錯也很常見。

儘管表現平平,但這種神經網路是一個開創性的研究。研究人員把板條箱翻了過來,露出的不是電腦晶片,而是一個話筒,話筒朝著固定在揚聲器上的鈦板傾斜。不同於執行在0和1的數字世界中的神經網路,這個裝置是以聲音原理執行的。當賴特給出一個數字的影象時,影象的畫素被轉換成音訊,然後揚聲器振動鈦板,使得實驗室裡充滿了微弱的嘰嘰喳喳聲。也就是說進行“讀取”操作的是金屬回聲,而不是執行在矽晶片上的軟體。這款裝置的成功讓人覺得難以置信,就連其設計者也不例外。

McMahon說:“無論震動金屬的作用是什麼,都不應該與對手寫數字進行分類有任何關係。”

今年1月,康奈爾大學的研究小組在《Nature》雜誌上發表了一篇論文,標題是“反向傳播訓練的深度物理神經網路(Deep physical neural networks trained with backpropagation)”。這篇論文介紹了這種裝置的原始閱讀能力,這給McMahon和其他人帶來了希望,這告訴他們,該種裝置進行多次改進後可能會給計算帶來革命性的變化。

論文連結:http://www.nature.com/articles/s41586-021-04223-6

當談到傳統的機器學習時,電腦科學家發現神經網路越大越好。具體原因可以參見下圖中的文章,這篇叫做“電腦科學家證明為什麼越大的神經網路表現越好(Computer Scientists Prove Why Bigger Neural Networks Do Better)”的文章中證明了:如果希望網路能夠可靠地記住其訓練資料,那麼過度引數化不僅有效,而且還需要強制性執行。

文章地址:http://www.quantamagazine.org/computer-scientists-prove-why-bigger-neural-networks-do-better-20220210/

一個神經網路中填充更多的人工神經元(儲存數值的節點),可以提高其區分臘腸犬和達爾馬提亞犬的能力,也可以使其成功完成無數其他模式識別任務。真正巨大的神經網路能夠完成寫論文(如OpenAI的 GPT-3 )、畫插圖(比如OpenAI的 DALL·E 、DALL·E2和Google的Imagen),以及更多讓人細思極恐的高難度任務。有了更多的計算能力,更偉大的壯舉也便成為可能。這種可能性鼓勵著人們努力開發更強大、更高效的計算方法。

McMahon和一群志同道合的物理學家擁護一種 非常規的方法:讓宇宙為我們處理資料。

McMahon說:“許多物理系統自然能夠比計算機更高效或更快地進行某些計算。”他以風洞為例:當工程師們設計一架飛機時,他們可能會把藍圖數字化,然後花幾個小時在超級計算機上模擬機翼周圍的空氣流動。或者,他們也可以把飛行器放在風洞裡看看能不能飛起來。從計算的角度來看,風洞可以立即“計算”飛機機翼與空氣的相互作用。

圖注:康奈爾大學團隊成員Peter McMahon和Tatsuhiro Onodera在為完成學習任務的各種物理系統編寫程式。圖源:Dave Burbank

風洞能模擬空氣動力學,是一種功能專一的機器。像McMahon這樣的研究人員正在研究一種可以學習做任何事情的裝置——一種可以通過試錯來調整自身行為從而獲得任何新能力的系統,比如對手寫數字進行分類,或者區分一個母音和另一個母音等能力。最新研究表明, 像光波、超導體網路和電子分支流這樣的物理系統都可以進行學習

瑞士蘇黎世聯邦理工學院的數學家Benjamin Scellier說,他幫助設計了一種新的物理學習演算法,“我們不僅在重塑硬體,還重塑了整個計算正規化”。

1

學習思考

學習是一個極為獨特的過程,在十年以前,大腦是唯一能做到學習的系統。正是大腦的結構在一定程度上啟發了電腦科學家設計深度神經網路這個目前最流行的人工學習模型。

深度神經網路是一種通過實踐來學習的計算機程式。深度神經網路可以被認為是一個網格:用來儲存值的節點層被稱為神經元,神經元通過線連線到相鄰層的神經元,這種線也叫“突觸”。最初,這些突觸只是被稱為“權重”的隨機數。

想讓網路讀取4,可以讓第一層神經元表示4的原始影象,可以將每個畫素的陰影作為一個值儲存在相應的神經元中。然後網路進行“思考”,一層一層地移動,用神經元值乘以突觸權值來填充下一層神經元。最後一層中值最大的神經元就是神經網路的答案。例如,如果這是第二個神經元,網路猜測自己看到了2。

為了教網路做出更聰明的猜測,學習演算法會反向工作。在每次嘗試之後,它會計算出猜測和正確答案之間的差值(在我們的例子中,這個差值將由最後一層的第四個神經元的高值和其他地方的低值表示)。然後,演算法通過網路一層一層地往回走,計算如何調整權值,以使最終神經元的值根據需要上升或下降。這個過程被稱為反向傳播,是深度學習的核心。

通過重複多次猜測和調整,反向傳播將權重引導到一組數字,這些數字將通過一幅影象發起的級聯乘法輸出結果。

圖源:Quanta 雜誌Merrill Sherman

但與大腦的思考相比,人工神經網路中的數字化學習看起來效率非常低。在每天攝入不到2000卡路里熱量的情況下,一個人類兒童在幾年內就能學會說話、閱讀、玩遊戲以及更多的東西。在如此有限的能量條件下,能夠流暢對話的GPT-3神經網路可能需要一千年才能學會聊天。

從物理學家的角度來看,一個大型數字神經網路只是試圖去做過多的數學運算。如今最大的神經網路必須記錄和操縱超過5000億個數字。這個驚人的數字出自下圖中的論文“Pathways 語言模型 (PaLM):擴充套件到 5400 億個引數以實現突破性效能(Pathways Language Model (PaLM): Scaling to 540 Billion Parameters for Breakthrough Performance)”:

論文連結:http://ai.googleblog.com/2022/04/pathways-language-model-palm-scaling-to.html

與此同時,宇宙不斷出現的任務遠遠超出了計算機微薄的計算能力的極限。一個房間裡可能有數萬億的空氣分子在四處彈跳。對於一個成熟的碰撞模擬來說,這是計算機無法追蹤的移動物件的數量,但空氣本身卻能輕鬆決定自己每時每刻的行為。

我們目前的 挑戰是建立一個能夠自然完成人工智慧所需兩個過程的物理系統, 這兩個過程分別是——對影象進行分類的“思考”,以及正確分類這類影象所需的“學習”。一個掌握了這兩項任務的系統才是真正利用了宇宙的數學能力,而不僅僅是做數學計算。

“我們從來沒有計算過3.532乘以1.567之類的,”Scellier說。“系統會計算,不過是通過遵循物理定律的方式隱含地計算。”

2

思考部分

McMahon和合作學者們已經在這個謎題的“思考”部分取得了進展。

在新冠疫情發生前的幾個月,McMahon在康奈爾大學建立了實驗室,他仔細思考了一個奇怪的發現。多年來,表現最出色的影象識別神經網路已經變得越來越深度。也就是說,有更多層的網路能夠更好地接收一堆畫素並給出標籤,如“獅子狗”。這一趨勢啟發數學家們研究神經網路實現的轉換(從畫素到“獅子狗”),在2017年幾個小組在論文“任意深度殘差神經網路的可逆結構(Reversible Architectures for Arbitrarily Deep Residual Neural Networks)”中提出,神經網路的行為是一個平滑數學函式的近似版本。

論文地址:http://arxiv.org/abs/1709.03698

在數學中,函式將輸入(通常是x值)轉換為輸出(曲線在這個位置的y值或高度)。在特定型別的神經網路中,層數越多效果越好,因為函式不那麼參差不齊,更接近於某種理想曲線。

這項研究引起了McMahon的思考。也許通過一個平穩變化的物理系統,人們可以避開數字方法中固有的阻塞。

訣竅在於找到一種馴化複雜系統的方法——通過訓練來調整它的行為。McMahon和他的合作者選擇鈦板作為這樣一個系統,因為鈦板的許多振動模式以複雜的方式混合傳入的聲音。為了使平板像神經網路一樣工作,他們輸入一種編碼輸入影象的聲音(例如手寫的6)和另一種表示突觸權重的聲音。聲音的峰值和波谷需要在正確的時間撞擊鈦板,以便裝置合併聲音並給出答案——例如,一個新的聲音在六毫秒內最響,代表“6”的分類。

圖注:康奈爾大學的一個研究小組訓練了三種不同的物理系統來“讀取”手寫數字:從左到右分別是一個振動的鈦板、一個晶體和一個電子電路。 圖源: 左圖中圖為康奈爾大學Rob Kurcoba攝; 右圖為Quanta 雜誌 Charlie Wood攝。

該小組還在一個光學系統中實現了他們的方案——輸入影象和權重被編碼在兩束由晶體混合在一起的光束中——以及一個能夠類似地變換輸入的電子電路中。原則上,任何具有拜占庭行為的系統都可以如此,但是研究人員相信光學系統具有特殊的前景。晶體不僅能極快地混合光線,而且光線還包含了關於世界的豐富資料。McMahon想象他的光學神經網路的微縮版本有一天會成為自動駕駛汽車的眼睛,能夠識別停車標誌和行人,然後將資訊輸入汽車的計算機晶片,就像我們的視網膜對進來的光進行一些基本的視覺處理一樣。

然而,這些系統的致命弱點在於,訓練它們需要回歸數字世界。反向傳播涉及到反向執行神經網路,但是底片和晶體不能輕易地分解聲音和光。因此,該團隊為每個物理系統構建了一個數字模型。在膝上型電腦上反轉這些模型,他們可以使用反向傳播演算法來計算如何調整權重以給出準確的答案。

通過這一訓練,這塊鈦板學會了對手寫數字進行分類,正確率為87%。而上圖中的電路和鐳射的精度分別達到93%和97%。研究結果表明“不僅標準的神經網路可以通過反向傳播進行訓練,”法國國家科學研究中心(CNRS)的物理學家Julie Grollier說,“這太美了。”

該研究小組的振動鈦板還沒有使計算的效率接近大腦的驚人效率,這個裝置甚至不及數字神經網路的速度。但McMahon認為他的裝置十分驚人,因為這種裝置證明了人不只可以用大腦或電腦晶片來思考。 “任何物理系統都可以是神經網路。” 他說。

3

學習部分

另一個的難題是——如何讓一個系統完全自主學習。

德國馬克斯·普朗克光科學研究所的物理學家Florian Marquardt認為,有一種方法是建造一臺倒著執行的機器。去年,他和一個合作者在論文“基於Hamiltonian回波反向傳播的自學習機器(Self-learning Machines based on Hamiltonian Echo Backpropagation)”中提出了一個可以在這樣的系統上執行的反向傳播演算法的物理模擬。

論文地址:http://arxiv.org/abs/2103.04992

為了證明這是可行的,他們用數字技術模擬了一種類似於McMahon裝置的鐳射裝置,將可調的權重編碼在一種光波中,與另一種輸入波(編碼,比如影象)混合。他們使輸出更接近正確的答案,並使用光學元件來分解波,反轉這個過程。“神奇的是,” Marquardt說,“當你用相同的輸入再一次嘗試裝置時,輸出傾向於更接近你想要的位置。” 接下來,他們正在與實驗人員合作建立這樣一個系統。

但是專注於反向執行的系統限制了選擇,所以其他研究人員將反向傳播完全拋在了後面。因為知道大腦學習的方式不是標準的反向傳播,所以他們的研究沒有受到打擊,反而更進一步。“大腦不是反向傳播的,”斯塞利爾說,當神經元A與神經元B交流時,“傳播是單向的。”

圖注:CNRS的物理學家Julie Grollier實現了一種物理學習演算法,被視為反向傳播的一種有希望的替代方案。 圖源: Christophe Caudroy

2017年,Scellier和蒙特利爾大學的電腦科學家Yoshua Bengio開發了一種稱為平衡傳播的單向學習方法。我們可以這樣瞭解其運作方式:想象一個像神經元一樣的箭頭網路,它們的方向表示0或1,由作為突觸權重的彈簧連線在網格中。彈簧越松,連線的箭頭就越不容易對齊。

首先,旋轉最左邊一行的箭頭,以反映手寫數字的畫素,然後在保持最左邊一行的箭頭不變,讓這種擾動通過彈簧擴散出去轉動其他箭頭。當翻轉停止時,最右邊的箭頭給出了答案。

關鍵是,我們不需要通過翻轉箭頭來訓練這個系統。相反,我們可以在網路底部連線另一組顯示正確答案的箭頭,這些正確的箭頭會使上面這組箭頭翻轉,整個網格就進入了一個新的平衡狀態。最後,將箭頭的新方向與舊方向進行比較,並相應地擰緊或鬆開每個彈簧。經過多次試驗,彈簧獲得了更聰明的張力,Scellier和Bengio已經證明,這種張力相當於反向傳播。

“人們認為物理神經網路和反向傳播之間不可能存在聯絡,” Grollier說,“最近情況發生了變化,這非常令人興奮。”

關於平衡傳播的最初工作都是理論性的。但在一篇即將發表的文章中,Grollier和CNRS的物理學家Jérémie Laydevant描述了該演算法在D-Wave公司製造的量子退火機器上的執行。該裝置有一個由數千個相互作用的超導體組成的網路,它們可以像彈簧連線的箭頭一樣,自然地計算出“彈簧”應該如何更新。然而,系統不能自動更新這些突觸權重。

4

實現閉環

至少有一個團隊已經收集了一些部件來構建一個用物理學來完成所有繁重工作的電子電路,其能完成的工作有思考、學習和更新權重。賓夕法尼亞大學的物理學家Sam Dillavou說:“我們已經能夠為一個小系統閉合迴路。”

圖注:賓夕法尼亞大學的物理學家Sam Dillavou修補了一個可以在學習過程中自我修改的電路。

Dillavou和合作者的目標是模仿大腦,大腦才是真正的智慧,其是一個相對統一的系統,不需要任何單一結構來發號施令。“每個神經元都在做自己的事情,”他說。

為此,他們構建了一個自學習電路,在這個電路中作為突觸權重的是可變電阻,神經元是電阻之間測量的電壓。為了對給定的輸入進行分類,這個電路將資料轉換為施加到幾個節點上的電壓。電流通過電路,尋找耗散能量最少的路徑,並在穩定時改變電壓。答案就是指定輸出節點的電壓。

該想法的創新在於具有挑戰性的學習步驟,為此他們設計了一種類似於均衡傳播的方案,稱為耦合學習(coupled learning)。當一個電路接收資料並“猜出”一個結果時,另一個相同的電路從正確答案開始,並將其納入其行為中。最後,連線每一對電阻的電子器件會自動比較它們的值,並調整它們,以實現“更智慧”的配置。

這個小組在去年夏天的預印本(參加下圖)中描述了他們的基本電路,這篇名叫“去中心化證明,物理驅動學習(Demonstration of Decentralized, Physics-Driven Learning)”的論文中顯示這個電路可以學習區分三種類型的花,準確率達到95%。而現在他們正在研發一款更快、功能更強的裝置。

論文地址:http://arxiv.org/abs/2108.00275

即便是這種升級也無法擊敗最先進的矽晶片。但建造這些系統的物理學家們懷疑,與模擬網路相比,儘管數字神經網路如今看起來很強大,但最終也會顯得緩慢和不足。數字神經網路只能擴大到一定程度,否則就會陷入過度的計算,但更大的物理網路只需要做自己就好。

“這是一個非常大的、快速發展的、變化多端的領域,我深信一些非常強大的計算機將會用這些原理製造出來。”Dillavou說。

原文連結:

http://www.quantamagazine.org/how-to-make-the-universe-think-for-us-20220531/

「其他文章」