據美國《科學》雜誌網站19日報道,歐盟委員會(hui) 發布新計劃稱,將製定法律嚴(yan) 格監管高風險人工智能(AI)技術,更新歐盟2018年AI發展戰略,未來在AI研發領域投資數十億(yi) 美元等,以進一步促進歐盟AI產(chan) 業(ye) 發展。
該委員會(hui) 將起草新法律,管理AI技術的高風險應用,例如在醫療設備、自動駕駛汽車內(nei) 的應用等。盡管這些法律將比歐盟以往發布的任何法律都更廣泛且更嚴(yan) 格,但歐洲委員會(hui) 主席烏(wu) 爾蘇拉·馮(feng) ·德·萊恩表示,這些法律的目的是促進“信任,而非恐懼”。
與(yu) 美國相比,歐洲對AI采取的態度更為(wei) 謹慎,歐盟官員希望通過監管贏得消費者的信任,從(cong) 而推動AI技術的廣泛采用,幫助歐洲在國際AI技術競爭(zheng) 中脫穎而出。
歐盟委員會(hui) 指出,確定某些應用是否是“高風險”應用有一套準則。例如,是否會(hui) 導致人受傷(shang) 、或者會(hui) 導致人對機器人決(jue) 定(如AI用於(yu) 招聘或警務活動)沒有任何發言權。歐盟委員會(hui) 希望,高風險應用需要人工監督。
法律還將確定誰為(wei) AI係統的行為(wei) 負責:使用AI係統的公司還是設計AI係統的公司。高風險應用程序必須被證明遵守法規,才能在歐盟內(nei) 廣泛使用。
此外,這些法律還將管理用於(yu) 訓練AI係統的大型數據集,以確保它們(men) 合法采購、來源合法。歐盟委員會(hui) 反壟斷專(zhuan) 員瑪格麗(li) 特·維斯塔格說:“AI係統可靠的基礎是技術強大且準確。”
歐盟委員會(hui) 表示,將就“麵部識別AI係統在歐洲範圍內(nei) 開展一場廣泛的討論”。盡管德國等歐盟國家已宣布部署這些係統的計劃,但官員們(men) 表示,這些係統經常違反歐盟隱私法,包括有關(guan) 警察工作的特別規定。
新AI計劃不僅(jin) 涉及法規,歐盟委員會(hui) 還將提出一項“行動計劃”,將人工智能整合到交通和醫療等公共服務中,並將更新歐盟2018年人工智能發展戰略,該戰略擬投入15億(yi) 歐元用於(yu) AI研究。此外,歐盟委員會(hui) 呼籲開展更多研發,包括創立AI“卓越和測試中心”,投資數十億(yi) 美元建立新型AI產(chan) 業(ye) 合作夥(huo) 伴關(guan) 係等。
在接下來12周內(nei) ,專(zhuan) 家、遊說團體(ti) 和公眾(zhong) 可對此發表意見,隨後歐盟委員會(hui) 開始草擬具體(ti) 法律法規,最終法規需要得到歐洲議會(hui) 和成員國政府批準,預計今年不太可能完成。

