
(圖片來源:CC0 Public Domain)
Skoltech的研究人員證明,導致神經網絡在識別圖像時犯錯的圖案與(yu) 自然界中發現的圖靈圖案相類似。該發現未來可為(wei) 當前易受攻擊的模式識別係統設計防禦措施。該論文以arXiv預印本的形式在第35屆AAAI人工智能會(hui) 議(AAAI-21)上發表。
盡管深度神經網絡已經很智能,且擅長圖像的識別與(yu) 分類,但其仍會(hui) 受到所謂的對抗性幹擾,即圖像中微小但奇異的細節會(hui) 導致神經網絡輸出錯誤。部分幹擾具有普遍性,他們(men) 出現在任何輸出層都會(hui) 幹擾神經網絡。

(圖片來源:Pixabay)
這些幹擾可能會(hui) 帶來重大的安全隱患,例如,在2018年,某團隊發布了一份預印本,描述了一種可以誤導自動駕駛汽車將廣告和logo識別為(wei) 路標的方法。而神經網絡能夠抵擋這種攻擊的已知防禦手段卻能被輕鬆地繞過,更是加劇了問題的嚴(yan) 重性。
計算和數據密集型科學與(yu) 工程中心(CDISE)的Skoltech計算智能實驗室的負責人Ivan Oseledets教授及其同事進一步探索了一種將這些普遍的對抗性擾動(UAP)與(yu) 經典圖靈圖案聯係起來的理論。經典圖靈圖案由英國傑出數學家艾倫(lun) ·圖靈首次提出,圖靈認為(wei) 這些圖案是自然界中大部分圖案模式,諸如動物身上的條紋和斑點,背後的驅動機製。
這項研究於(yu) Oseledets和Valentin Khrulkov在2018年的計算機視覺與(yu) 模式識別會(hui) 議上發表有關(guan) 生成UAP的論文時意外展開。“一個(ge) 陌生人走來,告訴我們(men) 這種圖案看起來像圖靈圖案,多年以來,這種相似性一直是一個(ge) 謎,直到Skoltech的碩士生Nurislam Tursynbek,Maria Sindeeva和博士生Ilya Vilkoviskiy組建了一支團隊,才得以解決(jue) 這個(ge) 問題。這也是Skoltech高級研究中心和數據密集型科學與(yu) 工程中心內(nei) 部合作的一個(ge) 完美例子。”Oseledets說。
對抗性擾動的性質和根源對研究人員來說仍然是個(ge) 謎。“這個(ge) 有趣的屬性在攻防遊戲中有著悠久的曆史。對抗性攻擊難以防禦的原因之一是缺乏理論基礎。我們(men) 的工作通過用有堅實理論基礎的圖靈圖案闡釋UAPs不為(wei) 人知的特性,邁出了一步,而這將有助於(yu) 構建未來對抗性實例的理論。”Oseledets指出。

(圖片來源:Pixabay)
先前的研究表明,自然界中的圖靈圖案(例如魚身上的條紋)會(hui) 欺騙神經網絡,該團隊以一種簡單明了的方式展示這種聯係,以及利用這種聯係產(chan) 生新攻擊的方式。對此,研究人員補充說道:“”最簡單的方法是將這些圖案添加到圖庫中,並在這些受到幹擾的圖象上進行訓練,就可以使模型更具魯棒性。”
翻譯:彭琛
審校:董子晨曦
引進來源:斯科爾科沃科學技術研究院
引進鏈接:https://techxplore.com/news/2021-03-team-turing-like-patterns-neural-networks.html
本文來自:環球科學
