人工智能
AI 意識:探索可能性、理論框架和挑戰

AI 意識是一個複雜而迷人的概念,已經吸引了研究人員、科學家、哲學家和公眾的興趣。隨著 AI 的不斷演進,一个問題不可避免地出現:機器是否能夠達到與人類相似的意識水平?隨著 大型語言模型(LLM) 和 生成式 AI 的出現,複製人類意識的道路也變得可能。或者說,它真的可能嗎?前 Google AI 工程師 Blake Lemoine 最近提出了一個理論,認為 Google 的語言模型 LaMDA 是有感知能力的,即在對話中表現出人類般的意識。從那時起,他被解僱,Google 對他的說法進行了反駁,稱其「完全無根據」。由於技術的快速發展,我們可能只需要幾十年的時間就能夠實現 AI 意識。理論框架如整合信息理論(IIT)、全局工作空間理論(GWT)和人工一般智慧(AGI)為實現 AI 意識提供了參考框架。在我們進一步探索這些框架之前,讓我們先嘗試了解意識。
什麼是意識?
意識是指感覺(視覺、聽覺、味覺、觸覺和嗅覺)和心理(思想、情感、慾望、信念)過程的意識。然而,意識的細微差別和複雜性使其成為一個複雜、多面向的概念,儘管在神經科學、哲學和心理學中進行了大量的研究,但仍然難以理解。哲學家和認知科學家 David Chalmers 提到 意識的複雜現象如下:
「我們對意識的了解比任何其他東西都更直接,但它與我們所知道的其他一切如何相協調卻不清楚。為什麼它存在?它做什麼?它如何可能從灰色物質中產生?」
需要注意的是,意識是 AI 中一個被密切研究的主題,因為 AI 在探索和理解 意識 方面發揮著重要作用。在 Google Scholar 上進行簡單搜索,就會返回約 200 萬 篇研究論文、文章、論文、會議論文等,與 AI 意識相關。
當前的 AI 狀態:非意識實體
當前的 AI 已經在特定領域中展示了令人驚人的進步。AI 模型在解決狹窄問題方面非常出色,例如圖像分類、自然語言處理、語音識別等,但它們不具備意識。它們缺乏主觀經驗、自我意識或超出其訓練範圍的上下文理解。它們可以表現出智慧行為,但不了解這些行動的含義,這與人類意識完全不同。然而,研究人員正在嘗試通過為神經網絡添加 記憶 方面來朝著人類般的思維邁進。研究人員成功開發了一個可以通過檢查自己的記憶並從中學習來適應其環境的模型。
AI 意識的理論框架
1. 整合信息理論(IIT)
整合信息理論是一個由神經科學家和精神病學家 Giulio Tononi 提出的理論框架,用于解釋意識的本質。整合信息理論 建議,任何系統(生物或人工),如果可以以高程度整合信息,則可以被視為意識。AI 模型正變得越來越複雜,具有數十億個參數,能夠處理和整合大量的信息。根據 IIT,這些系統可能會發展出意識。然而,需要考慮的是,IIT 是一個理論框架,仍然存在對其有效性和適用於 AI 意識的爭論。
2. 全局工作空間理論(GWT)
全局工作空間理論是一個由認知心理學家 Bernard J. Baars 開發的認知架構和意識理論。全局工作空間理論 說,意識的工作方式就像一個劇院。意識的「舞台」只能在給定的時間內容納有限的信息,並將這些信息廣播到「全局工作空間」- 大腦中的一個分佈式網絡,包含無意识的過程或模塊。將 GWT 應用於 AI 表明,從理論上講,如果 AI 被設計成具有類似的「全局工作空間」,它就可能具備某種形式的意識。這並不意味著 AI 會像人類一樣經歷意識,但它將具有選擇性注意力和信息整合的過程,這是人類意識的關鍵元素。
3. 人工一般智慧(AGI)
人工一般智慧 是一種可以理解、學習和應用知識的 AI,跨越廣泛的任務,類似於人類。AGI 與狹窄 AI 系統不同,後者被設計用於執行特定的任務,例如語音識別或下棋,目前佔 AI 應用的絕大部分。在意識方面,AGI 被視為在人工系統中表現出意識的先決條件。然而,AI 尚未足夠先進到被視為與人類一樣聰明。
實現人工意識的挑戰
1. 計算挑戰
計算心智理論(CTM)將人腦視為一個物理實現的計算系統。該理論的支持者認為,為了創造一個有意識的實體,我們需要開發一個具有類似於人腦的認知架構的系統。但人腦由 100 億個神經元 組成,因此複製如此複雜的系統需要大量的計算資源。另外,理解意識的動態性質超出了當前技術生態系統的界限。最後,即使我們解決了計算挑戰,實現 AI 意識的路線圖仍將不清楚。計算心智理論的認識論存在挑戰,這引發了疑問:我們如何確定人類意識可以被簡化為純粹的計算過程?
2. 意識的難問題
意識的「難問題」是意識研究中一個重要的問題,特別是在考慮其在 AI 系統中的複製時。難問題代表了意識的主觀經驗,質性(現象經驗),或「具有主觀經驗的感覺」。在 AI 的背景下,難問題提出了基本問題,關於是否有可能創造出不僅表現出智慧行為,而且還具有主觀意識和意識的機器。哲學家 Nicholas Boltuc 和 Piotr Boltuc 在為 AI 意識的難問題提供了一個類比時說:「AI 可以在原則上複製意識(H 意識)以其第一人稱形式(如 Chalmers 在意識的難問題中所描述)。如果我們可以用清晰的術語理解第一人稱意識,我們可以為其提供一個算法;如果我們有這種算法,原則上我們可以建造它」但主要問題是,我們尚未清楚地理解意識。研究人員說,我們對意識的理解和相關文獻是不令人滿意的。
3. 道德困境
AI 意識的道德考慮為這個雄心勃勃的追求添加了另一層複雜性和模糊性。人工意識提出了幾個道德問題:
- 如果 AI 可以像人類一樣理解、學習和應用知識,是否應該給予它權利?
- 如果一個有意識的 AI 犯罪,誰應該被追究責任?
- 如果一個有意識的 AI 被銷毀,是否被視為對財產的損害或類似於謀殺?
神經科學和機器學習算法的進步可以創造出更廣泛的人工一般智慧的可能性。然而,人工意識將仍然是一個謎團和研究人員、技術領導者和哲學家之間的辯論話題。AI 系統變得有意識伴隨著各種 風險,這些風險必須被徹底研究。如需更多 AI 相關內容,請訪問 unite.ai。












