智能科學:幫助AI理解平等
來源:環球科學
發布時間:2021-04-23
瀏覽次數:954
智能科學:幫助AI理解平等

“我們(men) 正在試圖設計這樣一個(ge) 人工智能係統,它將不僅(jin) 僅(jin) 用於(yu) 計算機科學,還能給社會(hui) 帶來價(jia) 值和有所裨益。”

(圖片來源:Creative commons/Pexels)

“公平是什麽(me) ?”這聽起來像是一個(ge) 反問句。但是對於(yu) 密歇根州立大學的Pang-Ning Tan來說,隨著人工智能係統在決(jue) 定誰獲得適當的醫保,銀行貸款或工作方麵起著越來越重要的作用,這個(ge) 問題需要一個(ge) 答案。

在亞(ya) 馬遜和美國國家科學基金會(hui) (NFS)的資助下,Tan過去一年致力於(yu) 如何使人工智能算法變得更公平,並讓係統在識別出發生不公平時的情況。

密歇根州立大學(MSU)計算機科學與(yu) 工程係Tan教授說:“我們(men) 正在嚐試設計一個(ge) 不僅(jin) 適用於(yu) 計算機科學,還可以為(wei) 社會(hui) 帶來價(jia) 值和收益的AI係統。為(wei) 此,我開始考慮現在對社會(hui) 真正構成挑戰的領域是什麽(me) ?”

“隨著我們(men) 越來越依賴AI來滿足日常需求(例如醫保)亦或者一些如同垃圾郵件過濾、獲取新聞等平常的事務,公平逐漸成為(wei) 一個(ge) 非常大的問題。”

(圖片來源:Pixabay)

正如Tan所言,隨著人們(men) 已經在各種應用程序中信任AI,不公平的算法帶來的後果可能是深遠的。

例如,調查顯示,人工智能係統會(hui) 使黑人患者更難獲得醫療資源。而亞(ya) 馬遜同樣因為(wei) AI招聘工具對女性更加不利,從(cong) 而取消了它。

Tan的研究團隊正在從(cong) 多方麵應對此類問題。他們(men) 正在研究如何使用數據來訓練算法,同樣還在研究一種在做決(jue) 策和建議時能夠使算法訪問更多不同信息的方法。他們(men) 與(yu) NSF、亞(ya) 馬遜的合作正試圖拓寬以往對於(yu) AI係統公平性的定義(yi) 方式。

(圖片來源:Pixabay)

Tan認為(wei) ,傳(chuan) 統的對於(yu) 公平的定義(yi) 是從(cong) 個(ge) 人角度出發的,也就是說,一個(ge) 人會(hui) 對某個(ge) 特定結果的公平與(yu) 否有自己的判斷,這是一個(ge) 好的開端,但同時也存在衝(chong) 突與(yu) 矛盾。對於(yu) 一個(ge) 人來說公平的事情可能對於(yu) 另一個(ge) 人是不公平的。

因此,Tan和他的研究小組想要借鑒社會(hui) 科學的思想以建立一個(ge) 包容大眾(zhong) 觀點的定義(yi) 。

Tan說:“我們(men) 正在努力使AI意識到公平性,為(wei) 此,我們(men) 需要告訴它什麽(me) 是公平。但問題在於(yu) ,如何設計一種所有人都可以接受的公平的度量標準。我們(men) 正在探究一個(ge) 決(jue) 策是如何做到不僅(jin) 影響個(ge) 人,還影響他們(men) 的周圍和社會(hui) 圈子的。”

考慮一個(ge) 簡單的例子:三個(ge) 信用評分相同的朋友向同一家銀行申請了同等金額的貸款。如果銀行批準或拒絕了所有人,那麽(me) 他們(men) 會(hui) 認為(wei) 這比僅(jin) 批準或拒絕一個(ge) 人的情況要更為(wei) 公平,因為(wei) 那可能表明銀行參考了一些這幾位友人認為(wei) 不公正的無關(guan) 緊要的因素。

Tan的團隊正在構建一種從(cong) 本質上對不同結果的公平性進行評分或量化,以便於(yu) AI算法可以識別出最公平選擇的方法。

當然了,現實世界比這個(ge) 例子要複雜得多,Tan率先承認,定義(yi) AI的公平性說起來容易做起來難。但是他得到了來自MSU部門主任Abdol-Hossein Esfahanian等人的幫助。

Esfahanian是應用圖形理論領域的專(zhuan) 家,幫助在模型之間建立聯係和關(guan) 係。他熱愛學習(xi) 計算機科學領域的相關(guan) 星空体育官网入口网站,並且隻要Tan的團隊同意,他很願意加入他們(men) 講授的課堂中去學習(xi) 。

Esfahanian說:“我們(men) 的教師在傳(chuan) 授星空体育官网入口网站方麵非常出色。我需要學習(xi) 更多有關(guan) 數據挖掘的星空体育官网入口网站,因此我在Tan博士的一門課程中學習(xi) 了一個(ge) 學期。從(cong) 那時起,我們(men) 開始就研究問題進行交流。”

現在,Esfahanian是NSF和Amazon的聯合研究人員。

他說:“算法是由人創造的,而人通常會(hui) 有偏差,因此這些偏差會(hui) 滲入算法之中。我們(men) 希望廣泛的公平,因此我們(men) 希望對如何評估公平有更好的了解。”

Tan的團隊正在這方麵取得進展。去年11月,他們(men) 在NSF和亞(ya) 馬遜組織的在線會(hui) 議以及在電氣和電子工程師協會(hui) 主辦的虛擬國際會(hui) 議上介紹了他們(men) 的工作。

Tan和Esfahanian都表示,社區和資助者對Spartans的進展感到興(xing) 奮。但是兩(liang) 位研究人員也都承認,們(men) 才剛剛起步。

“這是一項持續不斷的、存在問題和挑戰的研究。如何定義(yi) 公平?如何幫助人們(men) 信任我們(men) 每天使用的這些係統?我們(men) 作為(wei) 研究人員的工作就是為(wei) 這些問題提出解決(jue) 方案。”Tan說道。

作者:Matt Davenport

翻譯:彭琛

審校:董子晨曦

引進來源:密歇根州立大學

本文來自:環球科學


關注【深圳科普】微信公眾號,在對話框:
回複【最新活動】,了解近期科普活動
回複【科普行】,了解最新深圳科普行活動
回複【研學營】,了解最新科普研學營
回複【科普課堂】,了解最新科普課堂
回複【科普書籍】,了解最新科普書籍
回複【團體定製】,了解最新團體定製活動
回複【科普基地】,了解深圳科普基地詳情
回複【觀鳥星空体育官网入口网站】,學習觀鳥相關科普星空体育官网入口网站
回複【博物學院】,了解更多博物學院活動詳情
 
聽說,打賞我的人最後都找到了真愛。
做科普,我們是認真的!
掃描關注深i科普公眾號
加入科普活動群
  • 參加最新科普活動
  • 認識科普小朋友
  • 成為科學小記者