人工智能,有必要像人類一樣嗎?
來源:學術頭條
發布時間:2022-07-29
瀏覽次數:2069

版權歸原作者所有,如有侵權,請聯係我們(men)

機器會(hui) 思考嗎?人工智能可以像人類一樣聰明嗎?

一項最新研究表明,人工智能或許可以做到了。

在一項非語言圖靈測試中,意大利技術研究院 Agnieszka Wykowska 教授領銜的研究團隊發現,類人行為(wei) 變異性(Behavioral variability)可以模糊人與(yu) 機器之間的區別,即可以幫助機器人看起來更像人類。

具體(ti) 來說,他們(men) 的人工智能程序在與(yu) 人類隊友玩有關(guan) 形狀和顏色匹配的遊戲時,模擬了人類反應時間的行為(wei) 變異性,通過了非語言圖靈測試。

相關(guan) 研究論文以“Human-like behavioral variability blurs the distinction between a human and a machine in a nonverbal Turing test”為(wei) 題,已發表在科學期刊 Science Robotics 上。

研究團隊表示,這一工作可以為(wei) 未來的機器人設計提供指導,賦予機器人具有人類可以感知的類似人類的行為(wei) 。

對於(yu) 這一研究,林雪平大學認知係統教授 Tom Ziemke 和博士後研究員 Sam Thellman 認為(wei) ,研究結果“模糊了人與(yu) 機器之間的區別”,為(wei) 人們(men) 對人類社會(hui) 認知的科學理解等方麵做出了非常有價(jia) 值的貢獻。

但是,“人類相似性不一定是人工智能和機器人技術發展的理想目標,讓人工智能不那麽(me) 像人類可能是一種更加明智的做法。****”

圖片

通過圖靈測試

1950 年,“計算機科學與(yu) 人工智能之父”艾倫(lun) ·圖靈(Alan Turing)提出了一種用於(yu) 判定機器是否具有智能的測試方法,即圖靈測試。

圖靈測試的關(guan) 鍵思想是,有關(guan) 機器思維和智能可能性的複雜問題,可以通過測試人類是否能夠分辨出他們(men) 是在與(yu) 另一個(ge) 人還是與(yu) 一台機器在交互來驗證。

如今,圖靈測試被科學家用來評估應該在人工智能體(ti) 上實現什麽(me) 樣的行為(wei) 特征,才能使人類不可能將計算機程序和人類行為(wei) 區分開。

人工智能先驅司馬賀(Herbert Simon)就曾表示:“如果程序表現出的行為(wei) 類似於(yu) 人類表現出來的,那我們(men) 就稱它們(men) 是智能的。” 類似地,Elaine Rich 將人工智能定義(yi) 為(wei) “研究如何讓計算機去做目前人做得更好的事情”。

而非語言圖靈測試,是圖靈測試的一種形式。對於(yu) 人工智能來說,通過非語言圖靈測試並不容易,因為(wei) 它們(men) 在檢測和區分其他人(物體(ti) )的微妙行為(wei) 特征方麵,表現得並不像人類那樣熟練。

那麽(me) ,一個(ge) 類人機器人是否能夠通過非語言圖靈測試,在其物理行為(wei) 中體(ti) 現人類特征呢?

在非語言圖靈測試中,研究團隊試圖搞清楚能否通過編程讓人工智能在類似於(yu) 人類行為(wei) 變異的範圍內(nei) 改變反應時間,從(cong) 而被視為(wei) 人類。為(wei) 了做到這一點,他們(men) 將人類和機器人安排在一個(ge) 屏幕上有不同顏色、形狀的房間裏。

圖片

圖|機器人與(yu) 人類共同執行任務。(來源:該論文)

當形狀或顏色改變時,參與(yu) 者就會(hui) 按下按鈕,而機器人則通過點擊屏幕上顯示的相反顏色或形狀來響應這一信號。

圖片

圖|通過按下按鈕來響應(來源:該論文)

在測試過程中,機器人有時由人類遠程控製,有時由被訓練模仿行為(wei) 變異性的人工智能控製。

圖片

圖|參與(yu) 者被要求判斷機器人行為(wei) 是預先編程的還是由人類控製的(來源:該論文)

結果表明,參與(yu) 者可以很容易地分辨出機器人何時是被另一個(ge) 人操作的。

但是,當機器人被人工智能操作時,參與(yu) 者猜錯的概率卻超過了 50%。

圖片

圖|圖靈測試的平均準確率。(來源:該論文)

這就意味著,他們(men) 的人工智能通過了非語言圖靈測試。

但是,研究人員也表示,類人行為(wei) 的可變性可能隻是通過實體(ti) 人工智能的非語言圖靈測試的一個(ge) 必要不充分條件,因為(wei) 它在人類環境中也可以表現出來。

圖片

人工智能,有必要像人類一樣嗎?

長期以來,人工智能研究一直將人類相似性作為(wei) 目標和衡量標準,Wykowska 團隊的研究證明,行為(wei) 變異性或許可以用來讓機器人更像人類。

Ziemke 等人卻認為(wei) 讓人工智能不那麽(me) 像人類可能是一種更加明智的做法,並以自動駕駛汽車和聊天機器人兩(liang) 個(ge) 案例做了闡述。

比如,當你在馬路上準備穿過人行橫道時,看到一輛汽車正在接近你,從(cong) 遠處看,你可能無法判斷它是否是一輛自動駕駛汽車,所以你隻能根據汽車的行為(wei) 來判斷。

圖片

(來源:Pixabay)

但是,即使你看到有人坐在方向盤前麵,你也不能確定這個(ge) 人是在主動控製車輛,還是僅(jin) 僅(jin) 在監控車輛的行駛操作。

“這對交通安全有著非常重要的影響,如果自動駕駛汽車不能向其他人表明它是否處於(yu) 自動駕駛模式,可能就會(hui) 導致不安全的人機互動。”

也許有些人會(hui) 說,理想情況下,你並不需要知道一輛車是不是自動駕駛,因為(wei) 從(cong) 長遠來看,自動駕駛汽車可能比人類更擅長駕駛。但是,目前而言,人們(men) 對自動駕駛汽車的信任還遠遠不夠。

聊天機器人,則是更接近圖靈最初測試的現實場景。許多公司在他們(men) 的在線客戶服務中使用聊天機器人,其中的對話話題和互動方式相對有限。在這種情況下,聊天機器人通常或多或少與(yu) 人類沒有區別。

圖片

(來源:Pixabay)

那麽(me) ,問題就來了,企業(ye) 是否應該將聊天機器人的非人類身份告訴客戶呢?一旦告訴了,往往會(hui) 導致消費者產(chan) 生負麵反應,比如信任下降。

正如上述案例所說明的那樣,雖然從(cong) 工程學的角度來看,類人行為(wei) 可能是一項令人印象深刻的成就,但人機的不可區分性卻帶來了明顯的心理、倫(lun) 理和法律問題。

一方麵,與(yu) 這些係統交互的人必須知道他們(men) 所交互的內(nei) 容的性質,以避免欺騙。以聊天機器人為(wei) 例,美國加州自 2018 年起就製定了聊天機器人信息披露法,明確披露是一項嚴(yan) 格的要求。

另一方麵,還有比聊天機器人和人類客服更無法區分的例子。例如,當涉及到自動駕駛時,自動駕駛汽車和其他道路用戶之間的交互並沒有同樣明確的起點和終點,它們(men) 通常不是一對一的,而且它們(men) 有一定的實時約束。

因此,問題在於(yu) ,關(guan) 於(yu) 自動駕駛汽車的身份和能力,應該在何時、以何種方式來傳(chuan) 達。

此外,完全自動化的汽車可能還需要幾十年的時間才能出現。因此,在可預見的未來,混合交通和不同程度的部分自動化可能會(hui) 成為(wei) 現實。

關(guan) 於(yu) 自動駕駛汽車可能需要以什麽(me) 樣的外部接口來與(yu) 人交流,已有很多研究。然而,人們(men) 對於(yu) 兒(er) 童、殘疾人等弱勢道路使用者實際上能夠和願意應對的複雜性,還知之甚少。

因此,上述的一般規則,即“與(yu) 這樣的係統交互的人必須被告知交互對象的性質”,可能隻有在更明確的情況下才有可能遵循。

同樣,這一矛盾心理也反映在社交機器人研究的討論中:鑒於(yu) 人類傾(qing) 向於(yu) 將精神狀態擬人化並賦予其類似人類的屬性,許多研究人員旨在讓機器人在外觀和行為(wei) 上更像人類,這樣它們(men) 就可以或多或少地以類似人類的方式進行互動。

然而,也有人認為(wei) ,機器人應該很容易被識別為(wei) 機器,以避免過度擬人化的屬性和不切實際的期望。

“因此,更明智的做法可能是利用這些發現讓機器人變得不那麽(me) 像人類。”

在人工智能的早期,模仿人類可能是一個(ge) 業(ye) 內(nei) 的共同目標,“但在人工智能已經成為(wei) 人們(men) 日常生活的一部分的今天,我們(men) 至少需要思考,在什麽(me) 方向努力實現類似人類的人工智能才真正有意義(yi) ”。

參考鏈接:

https://www.science.org/doi/10.1126/scirobotics.abo1241




歡迎掃碼關(guan) 注深i科普!

我們(men) 將定期推出

公益、免費、優(you) 惠的科普活動和科普好物!

聽說,打賞我的人最後都找到了真愛。