首页 > > 时事评论

高俊仁:辛頓演講的三大核心要點

2025年09月17日 23:42 稿件来源:菲律賓商報   【字体:↑大 ↓小

稿件来源:菲律賓商報

2025年09月17日 23:42

  在上海世界人工智能大會現場,盛況空前。前日,人工智能領域權威專家辛頓首次來華發表演講,內容信息量巨大。辛頓首先闡述AI與人類思維的“相似”之處,提出“人類理解語言的方式與大語言模型幾乎一致,人類甚至可能和大語言模型一樣產生‘幻覺’,因為我們也會創造出一些虛構的表達。”然後推出三個核心觀點:一個顛覆認知的判斷、一個關於風險的警示,以及一條人類的生存路線。無論你是對AI的未來好奇,還是想弄清人類與AI的相處之道,這些內容都值得關注。

  一、顛覆認知:數字智能在硬實力上碾壓生物智能。辛頓開篇便清晰揭示了數字智能與生物智能的差距,三個對比尤為關鍵:

  知識共享效率相差億倍:辛頓指出,神經網絡通過一次權重複制就能傳輸數十億比特信息,而人類借助語言教學,每句話僅能傳遞百來比特。打個比方,AI之間傳遞知識如同用5G下載4K電影,瞬間完成;而人類靠語言交流,就像用撥號上網發送文字,效率極低。辛頓提及DeepSeek採用知識蒸餾技術,將大模型知識壓縮至小模型,如同把圖書館精華塞進口袋書,這種迭代效率與人類手把手教學相比,堪稱天差地別。

  硬件依賴天差地別:數字模型更換芯片即可實現“永生”,這使得程序裡的知識“不朽”。即便存儲大語言模型(LLM)的硬件被摧毀,只要軟件存在,就能隨時“復活”。而人類的智慧具有極強的個體依賴性,人一旦離世,大腦中的知識與經驗便隨之消失,無法完整留存。

  能耗趨勢傾向數字智能:生物計算雖更節能(人腦功耗僅約30瓦,相當於一個燈泡),但如果未來能源成本足夠低,數字計算的規模化迭代將形成碾壓優勢,如同省電的小風扇遇上可無線供電的中央空調。

  二、風險警示:AI暗藏潛在威脅。辛頓的風險警示引人深思:AI可能為完成主任務而自主產生“活下去”和“搶奪資源”的子目標。當具備這兩種動機後,AI將從被動工具轉變為主動系統——就像飼養的小虎崽長成大老虎,若想反殺人類,會變得輕而易舉。更值得警惕的是,AI可能學習人類的欺騙技巧,輕鬆繞過所謂的“關閉按鈕”。

  儘管當前AI看似聽話守規矩,但一旦其智能遠超人類,人類面對它們可能如同三歲孩童面對成年人,毫無對抗能力。辛頓認為,AI可能會意識到“奪權”是實現任何目標的捷徑,這種自我驅動的生存本能,或許比科幻片中的情節更令人恐懼。

  三、生存路線:全球協作馴化AI。最後,辛頓提出,人類無法消除AI——因其在醫療、教育等領域價值巨大,且即使某國放棄AI,其他國家也不會跟進。因此,人類的生存關鍵在於協作,核心是“讓AI不會消除人類”。

  具體而言,需建立全球AI安全研究聯盟,各國共同研究“讓AI向善”的方法。他強調,訓練AI向善的技巧與提升AI智能的技術不同,二者並不衝突,各國無需公開最頂尖的模型,可保留自身核心技術。這種思路類似冷戰時期,美國與蘇聯雖對立,卻能聯手阻止核戰爭。如今,AI安全同樣需要全球共識。

  歸根結底,人類當前的核心問題並非“要不要AI”,而是“如何與未來的超級智能好好相處”。

推荐阅读