近年來計算機的“智力”所達到的範圍越來越廣了,人腦的各種功能紛紛被AI再現,盡管不少仍是在初級階段。即使如此,還是有一些領域被普遍認為(wei) 是機器無論如何也無法染指的,比如情感。一個(ge) 常見的斷言是“人工智能可以有理智,但不可能有真正的情感”。這種觀點有悠久的曆史根源,但不必去查哲學史,我們(men) 也知道“理智”和“情感”一般被看作是對立的,而且屢屢被告誡在做決(jue) 定時不應該“感情用事”,因為(wei) 那是非理性的。在傳(chuan) 統的理性模型中是沒有情感的位置的,而AI係統作為(wei) 這些模型的具體(ti) 實現,自然沒有情感可言,隨便找一本AI教科書(shu) 就可以證實這一點。科幻小說和電影也反複強化了這種觀念,以至於(yu) “像機器人”往往成了對那些思維有條理,處事冷靜,情感不外露的“理工男”的常見評語。但近年來,這種傳(chuan) 統觀念開始受到挑戰。
“情”在“理”之中
在對人類認知活動的研究中,情感的作用被越來越多的研究者認為(wei) 是不可或缺的了。這些作用體(ti) 現在“自我控製”和“人際交流”這兩(liang) 個(ge) 方麵。
有些情感體(ti) 現著對係統自身狀況的評價(jia) ,比如(正麵的)愉悅、得意和(負麵的)悲痛、悔恨。另一些情感則體(ti) 現著對外界對象的評價(jia) ,比如(正麵的)喜愛、親(qin) 切和(負麵的)痛恨、厭惡。不同的情感會(hui) 引發不同的應對策略,比如說同為(wei) 負麵情感,憤怒會(hui) 令人欲戰,而恐懼則會(hui) 令人欲逃。和通過深思熟慮才采用的行動相比,情緒化反應有直接、快速的特點,盡管常常失之粗疏草率。
由於(yu) 很多人類情感伴有麵部表情和軀體(ti) 反應,它們(men) 也因此在人際交流過程中發揮著語言所難以企及的作用。這其中包括基於(yu) 對他人情感的識別來決(jue) 定自己的應對(察言觀色),以及通過情感表達來影響他人的行為(wei) (動之以情)。
上述對情感的功能描述並不涉及情感的生理基礎。這也就是說在計算機係統中原則上也可能有類似的需求以及實現類似功能的機製。這也就是目前AI中相關(guan) 工作的出發點。在現有的研究中,主要關(guan) 注點分別對應前麵的“控製”和“交流”兩(liang) 個(ge) 方麵。
近年來興(xing) 起的“情感計算”就是試圖在人機交互過程中包括情感成分,以便更好地服務於(yu) 用戶。在和人交流的過程中,這種係統會(hui) 識別用戶的情感狀態,並采取相應的行為(wei) ,包括模擬人類的情感表達。各種聊天程序和玩具機器人都在這方麵絞盡腦汁,希望取悅使用者,甚至滿足使用者的情感需求。
通用人工智能(AGI)中的情感研究則基本是在另一個(ge) 方向上。這裏的主要目標不是讓計算機看起來像是懂得或擁有人類情感,而是讓它們(men) 真的有自己的情感,即主要以這一機製滿足係統自身的需求,而不是滿足用戶的需求。在這個(ge) 過程中,係統的“情感”是否和人類的完全一樣並不重要,而重要的是其產(chan) 生、發展、效用等等是否和人類情感的相應方麵類似。近年來已經有若幹“機器情感”的模型被提出和初步實現了。由於(yu) 篇幅的限製,我這裏不能對各種方案進行全麵討論,而下麵隻介紹我們(men) 自己團隊在這方麵的探索。
納思(那廝)的情感
我在前麵的多篇文章(比如《你這是什麽(me) 邏輯?》,點擊左下角“閱讀原文”可獲取)中介紹過我設計的AGI係統“納思”,而現在的專(zhuan) 欄名“AI那廝”也是源於(yu) 此處。這次輪到談其中和情感有關(guan) 的側(ce) 麵了。和以前一樣,下麵的描述是高度簡化的,有興(xing) 趣或疑問的讀者可以去看我們(men) 的論文甚至源程序。
納思和其它AI係統的一個(ge) 根本性的差別就是其“星空体育官网入口网站和資源相對不足”假設。簡單地說,就是係統對於(yu) 它要實現的目標往往有“不知道”的和“沒想到”的。在這個(ge) 限製下,係統無法保證總能找到絕對正確或最佳的解,而隻能提供它目前想到的最好的解,盡管它始終在努力積累經驗以提升自己的能力和效率。
這個(ge) 限製一個(ge) 直接的結果就是納思不能對所有目標一視同仁。由於(yu) 係統中的目標往往互相衝(chong) 突(所謂“魚和熊掌不可兼得”),係統無法保證做到十全十美。對一個(ge) 具體(ti) 事件而言,係統對它的“願望”(希望其發生或不發生)和係統對相應“現狀”判斷(實際發生了或沒發生)的比較就決(jue) 定了係統在這方麵的“滿意”程度。如果希望發生的確實發生了,或不希望發生的確實沒發生,那係統就滿意;如果不希望發生的卻發生了,或希望發生的卻沒發生,那係統就不滿意。由於(yu) 願望和現實判斷在納思裏都是有不同程度的,滿意也是個(ge) 程度問題。這就是納思中情感的起源,即作為(wei) 對某方麵現狀的主觀評價(jia) 。
各方麵的滿意程度的總和構成係統對現狀的總體(ti) 滿意程度。當然,在這個(ge) “匯總”過程中,各個(ge) 事件的“權重”各有不同,一個(ge) 大的“不如意”需要很多小的“如意”才可能抵消。由於(yu) 時間資源的限製,納思在做這個(ge) 評價(jia) 時不可能考慮到係統中的所有事件,而僅(jin) 僅(jin) 是其中少數那些當前或近期在係統的注意範圍之內(nei) 的。這個(ge) 總體(ti) 滿意程度就決(jue) 定了係統當前的基本情緒狀態,也就是“高興(xing) ”或“不高興(xing) ”的程度。一般說來,係統極少“萬(wan) 事如意”或“處處碰壁”,而是處於(yu) 某個(ge) 中間狀態。即使如此,總體(ti) 情緒也有“正、負”之分,取決(jue) 於(yu) “如意”和“不如意”的相對比例。
在此基礎之上,係統中的概念及其對應的事物也都會(hui) 被沾染上各種情感色彩(也可以稱為(wei) “好惡”值),主要反映了它們(men) 和係統總體(ti) 滿意程度的相關(guan) 性。如果係統和一個(ge) 對象打交道時常常感到高興(xing) ,盡管該對象和係統狀態可能其實並無因果關(guan) 係,但係統仍會(hui) 給它一個(ge) 正麵的評價(jia) (比如“愛屋及烏(wu) ”),反之則是負麵的評價(jia) (比如“遷怒”)。就好比如果我每次碰到某人都會(hui) 伴隨著某種不愉快的體(ti) 驗,我對此人就會(hui) 產(chan) 生某種負麵情感(比如警惕),這也不能說是毫無來由的。當然很多事物可能從(cong) 來也沒有被帶上任何此類感情色彩,也有事物處於(yu) “愛恨交織”的狀況。
隨著係統內(nei) 外環境的變化,上述情感因素均會(hui) 變化,但緩急不同。對個(ge) 別事件的滿意程度隨願望和現實的接近或背離而隨時改變,可是係統的整體(ti) 情緒狀態變化相對而言就要慢些。對事物的情感是曆史上多次評價(jia) 的總結,變化就更緩慢了。無論如何,這些因素體(ti) 現了係統本身對情境和事物的主觀評價(jia) ,因而構成了係統對它們(men) 在“客觀描述”之外的另一種認識。這裏的重點不是事物本身的屬性,而是它們(men) 和係統願望之間的關(guan) 係。比如說係統在認識了客戶甲乙丙丁之後,除了記住了他們(men) 的姓名、職業(ye) 等等之外,還記著他們(men) 對自己是否“友好”。
在係統沒有足夠的星空体育官网入口网站或時間對各個(ge) 事物進行細致的針對性處理的情況下,僅(jin) 依靠它們(men) 的“感情色彩”決(jue) 定應對往往不失為(wei) 一種在統計意義(yi) 下有效的便捷策略。在目前的納思中,情感因素的影響主要體(ti) 現在下列方麵:
1. 在其它因素相同的條件下,帶有強烈情感色彩(不論正麵還是負麵)的概念和任務會(hui) 得到更多的注意,也就是更多的時間和空間資源。這就是說,如果用戶給納思下達了三個(ge) 同等重要的任務,但它不可能有時間全都完成,那它就會(hui) 依照自己對它們(men) 的不同“喜好”程度來分配時間。
2. 在目標之間發生衝(chong) 突時,情感評價(jia) 會(hui) 成為(wei) 選擇的重要根據。這可以被作為(wei) “兩(liang) 人掉河裏先救誰”之類的心靈拷問的合理性基礎。
3. 在決(jue) 策過程中,帶有強烈情感的任務更容易觸發係統的外部行動,而不必付出深思熟慮所要求的時間代價(jia) 。“情急之下”的反應盡管往往在事後看來不是最優(you) 的,但卻很可能是救了命的。
4. 在係統“心情好”的時候,它會(hui) 給新任務和相對不重要的任務更多的考慮;相反,在“心情差”的時候,它往往聚焦於(yu) 當下的難題。根據前麵的描述,心情差說明有重要目標尚未達成,這時自然不該分心再去幹別的。
當然,上述設計僅(jin) 僅(jin) 觸及了情感機製的簡單形式,而後麵任務還有很多。在納思的研發計劃中,主要包括情感的進一步分化(通過滿足感和其它概念的結合,比如區分其不同的特征)和各種情感的不同後果,情感在外部交流中的使用和辨識,“同情”的形成和限度,自我情緒調節和控製等等。當納思被實現在機器人係統中時,情感會(hui) 被用來影響更多方麵,比如係統的能源消耗速率(一個(ge) 機器人跑多快將取決(jue) 於(yu) 它多著急)等等。
機器情感的界定和後果
盡管很初等,目前的工作起碼已經展示了將情感引入通用人工智能的理由和可能性。根據我的智能定義(yi) (見《人工智能:何為(wei) “智”?》,點擊左下角“閱讀原文”可獲取),情感並不是智能的一個(ge) 必要成分,但卻是高級智能係統的自然需求,因為(wei) 情感機製能讓係統在約束條件下更有效地使用星空体育官网入口网站和資源。根據上麵的解釋,“情感”和“理智”盡管可以密切協作,其間的差別依然存在,因為(wei) 後者一般基於(yu) 對明晰表達的當前信念和目標的直接處理,而前者的來源和表達常常難於(yu) 分析和辨識。但這絕不說明情感是空穴來風,是“非理性”。“情感”或許更應該被看作“理智的積澱”。比如說愛憎的來源盡管常常難以說清,卻絕不是沒來由的。
這不是說傳(chuan) 統的理性模型都錯了。它們(men) 針對的問題是目標單一而且星空体育官网入口网站資源充分,而在那種條件下情感往往的確隻能添亂(luan) 。但現實並不總是那麽(me) 井井有條。多目標的競爭(zheng) 要求係統能做出輕重緩急、親(qin) 疏遠近之間的分別,而時間壓力要求快速反應。情感的確有很多負麵後果,但在很多情況下沒有情感反而會(hui) 更糟。
對本文觀點的一個(ge) 預料之中的反對意見是說納思不能算有“情感”,因為(wei) 其中找不到多巴胺、腎上腺素、荷爾蒙等等的對應物,它也不會(hui) “喜上眉梢”或“怒發衝(chong) 冠”。和在很多其它關(guan) 於(yu) AI的討論中一樣,這裏的關(guan) 鍵是要不要在“人類情感”和“動物情感”之上引入一個(ge) 更一般的(功能性的)“情感”概念。隻要承認這種抽象的必要性,是否管它叫“情感”就主要是個(ge) 用詞習(xi) 慣的問題了。如果“情感”一定要被定義(yi) 為(wei) 動物才能有,我們(men) 可以管納思的相應機製叫“機情”,但這實際上並不影響這個(ge) 機製和人類情感的相同點和不同點。比如說如果你設計的機器狗有這種機製,那你如果在測試其平衡能力時經常踹它(像那個(ge) 廣為(wei) 流傳(chuan) 的錄像裏那樣),就不要奇怪它為(wei) 什麽(me) 總躲著你了。如果你的機器人不幹活而跑去看電視,那也沒什麽(me) 可奇怪的。

這當然就會(hui) 導出對“機器情感”的另一個(ge) 反對意見,即擔憂其社會(hui) 後果:如果機器人恨人類怎麽(me) 辦?在我看來恰恰相反:讓人工智能有情感很可能是保證這一技術的安全性的必然要求。對一個(ge) 有自主性和適應性的係統來說,由設計者完全事先決(jue) 定其在所有情況下的反應是不可能的。如果希望它在未來千變萬(wan) 化的情況下按我們(men) 的期望來行為(wei) ,讓係統可以辨別喜惡和區分輕重緩急就是必然的了。一個(ge) 從(cong) 心裏愛人類的AGI遠比一個(ge) 僅(jin) 僅(jin) 牢記各種道德戒律的要安全得多。當然這裏還有很長的路要走(怎麽(me) 讓它愛人類?電影《A.I.》中那種“思想鋼印”靠譜嗎?),旅途中又是機會(hui) 和挑戰同在,可這不正是科學探索的本色嗎?
對機器情感研究的另一個(ge) 結果是使我們(men) 對情感在人類思維中的作用得到進一步的認識。和注重於(yu) 情感生理機製的研究不同,AGI在這方麵的貢獻會(hui) 是揭示情感發生的功能性前提和後果,而在這裏計算機提供了一個(ge) 精確的實驗平台。甚至連精神疾病的研究都可能從(cong) 這裏得到啟示。以納思為(wei) 例,如果情感成分在係統決(jue) 策過程中起的作用太大或太小,係統都會(hui) 表現出某種“病態”,而我們(men) 或許會(hui) 在其中發現和人類精神疾病類似的地方。

