人文科普:道德倫理——人臉識別“熱”中的冷思考
來源:科技日報
作者:張佳欣
發布時間:2020-11-27
瀏覽次數:912
人文科普:道德倫理——人臉識別“熱”中的冷思考

人臉識別係統已經給我們(men) 的城市帶來諸多方便。然而,在許多國家,對人臉識別的抵抗聲也在不斷高漲。研究人員、公民自由倡導者和法律學者都受到人臉識別技術興(xing) 起的困擾。他們(men) 正在跟蹤其使用,揭露其危害並開展運動以尋求保障甚至是徹底禁止技術的使用。然而,技術發展的潮流浩浩蕩蕩,更多人認為(wei) 該技術的存在是“不可避免的”,但是其背後存在的道德倫(lun) 理問題值得我們(men) 深思。

圖片來源:視覺中國

 近期,《自然》雜誌的一係列報道對人臉識別係統背後的道德倫(lun) 理學進行了探討。一些科學家正在分析人臉識別技術固有的不準確和偏見,對其背後存在的歧視發出警告,並呼籲加強監管、提高技術透明度。

 《自然》雜誌對480位從(cong) 事人臉識別、人工智能和計算機科學領域研究的研究人員的調查顯示,人們(men) 對人臉識別研究的倫(lun) 理學普遍存在擔憂,但也存在分歧。

 有些未經同意獲取數據

 為(wei) 了使人臉識別算法正常工作,必須對大型圖像數據集進行訓練和測試,理想情況下,必須在不同的光照條件和不同的角度多次捕獲這些圖像。過去,科學家普遍招募誌願者,隻為(wei) 收集各種角度的照片;但現在,大多數人未經許可即被收集人臉圖像。

 在《自然》雜誌的480位受訪者中,當被問及對應用麵部識別方法從(cong) 外表識別或預測個(ge) 人特征(如性別、年齡或種族)的研究有何看法時,約三分之二的人表示,此類研究隻能在獲得麵部識別者知情同意的情況下進行,或者在與(yu) 可能受到影響的群體(ti) 代表討論後進行。

 大多數人認為(wei) ,使用人臉識別軟件的研究應事先獲得倫(lun) 理審查機構(例如機構審查委員會(hui) )的批準。他們(men) 認為(wei) ,對於(yu) 在學校、工作場所或由私人公司監視公共場所時使用人臉識別進行實時監視感到最不舒服,但是他們(men) 通常會(hui) 支持警察在刑事調查中使用人臉識別係統。

 從(cong) 法律上講,目前尚不清楚歐洲的科學家是否可以未經人們(men) 的同意而收集個(ge) 人人臉的照片以進行生物識別研究。歐盟的通用數據保護條例並沒有為(wei) 研究人員提供明顯的法律依據。在美國,一些州表示,商業(ye) 公司未經其同意使用個(ge) 人的生物識別數據是非法的。

 受訪者強烈認為(wei) ,應該有其他法規來規範公共機構使用人臉識別技術。超過40%的人則希望禁止實時大規模監視。

 存在性別和種族偏見現象

 人臉識別係統通常是專(zhuan) 有的並且保密,但是專(zhuan) 家說,大多數係統涉及一個(ge) 多階段過程,該過程通過深度學習(xi) 對大量數據進行大規模神經網絡訓練。

 美國國家標準技術研究院(NIST)在去年年底發布的報告中稱,人臉識別的準確率有了顯著提高,深度神經網絡在識別圖像方麵效果明顯。但NIST同時也證實,相對於(yu) 有色人種或女性,大多數人臉識別對於(yu) 白人男性麵孔的準確性更高。特別是,在NIST的數據庫中被歸類為(wei) 非裔美國人或亞(ya) 裔的麵孔被誤認的可能性是那些被歸類為(wei) 白人的麵孔的10—100倍。與(yu) 男性相比,女性誤報的可能性更高。

 領導NIST圖像小組的電氣工程師克雷格·沃森認為(wei) ,這種不準確很可能反映了每家公司培訓數據庫構成的不平衡,一些公司可能已經開始解決(jue) 這個(ge) 問題。

 有待嚴(yan) 格立法和監管

 致力於(yu) 人臉識別或分析技術的研究人員指出,人臉識別有很多用途,比如尋找走失的兒(er) 童,追蹤罪犯,更方便地使用智能手機和自動取款機,通過識別機器人的身份和情緒來幫助機器人與(yu) 人類互動,在一些醫學研究中,還可以幫助診斷或遠程跟蹤同意的參與(yu) 者。

 人臉識別技術有好處,但這些好處需要根據風險進行評估,這就是為(wei) 什麽(me) 它需要得到適當和細致的監管。

 目前,許多研究人員以及穀歌、亞(ya) 馬遜、IBM和微軟等公司都呼籲在人臉識別係統方麵出台更嚴(yan) 格的監管措施。

 馬薩諸塞州波士頓東(dong) 北大學研究麵部監控的計算機科學家、法學教授伍德羅·哈特佐格說視人臉識別技術為(wei) “史上最危險的發明”,說如果美國立法者允許公司使用人臉識別,他們(men) 應該編寫(xie) 規則,從(cong) 健身房到餐廳都應當禁止“麵部指紋”的收集和儲(chu) 存,並禁止將人臉識別技術與(yu) 自動化決(jue) 策(如預測性警務、廣告定位和就業(ye) )結合使用。

 尚須謹慎研究和思考

 密歇根州立大學東(dong) 蘭(lan) 辛分校的計算機科學家阿尼爾·賈恩說:“在我們(men) 的社會(hui) 中,我們(men) 需要大量正當而合法的人臉和生物識別應用。”但一些科學家表示,研究人員也必須認識到,在人們(men) 不知情的情況下對人臉進行遠程識別或分類的技術從(cong) 根本上是危險的,應該努力抵製其被用來控製人們(men) 的做法。

 作為(wei) 人工智能領域的首要會(hui) 議之一,神經信息處理係統會(hui) 議是今年首次要求進行這種道德考量,即提交有關(guan) 人臉識別論文的科學家必須添加一份聲明,說明他們(men) 的工作中存在的倫(lun) 理問題和潛在的負麵後果。

 此外,《自然機器智能》雜誌也在試圖要求一些機器學習(xi) 論文的作者在文章中加入一項聲明,考慮到更廣泛的社會(hui) 影響和倫(lun) 理問題。

 紐約伊薩卡市康奈爾大學從(cong) 事技術倫(lun) 理研究的社會(hui) 學家凱倫(lun) ·利維認為(wei) ,研究人臉識別的學者意識到道德倫(lun) 理問題,“感覺像是科學界真正的覺醒”。



關(guan) 注【深圳科普】微信公眾(zhong) 號,在對話框:
回複【最新活動】,了解近期科普活動
回複【科普行】,了解最新深圳科普行活動
回複【研學營】,了解最新科普研學營
回複【科普課堂】,了解最新科普課堂
回複【科普書(shu) 籍】,了解最新科普書(shu) 籍
回複【團體(ti) 定製】,了解最新團體(ti) 定製活動
回複【科普基地】,了解深圳科普基地詳情
回複【觀鳥星空体育官网入口网站】,學習(xi) 觀鳥相關(guan) 科普星空体育官网入口网站

聽說,打賞我的人最後都找到了真愛。
做科普,我們是認真的!
掃描關注深i科普公眾號
加入科普活動群
  • 參加最新科普活動
  • 認識科普小朋友
  • 成為科學小記者