10月24日,在GeekPwn2016嘉年華硅谷站的比賽現場,來自全球頂尖科技巨頭OpenAI的專家Ian Goodfellow與谷歌Brain(谷歌大腦)的專家Alexey Kurakin合力在GeekPwn的舞臺上演繹了一場黑客與人工智能間的精彩博弈。
此次GeekPwn黑客嘉年華突破性地首次將人工智能Pwn引進比賽規則,并特設上海&硅谷兩個分賽場,分別邀請到眾多海內外網絡安全領域的資深專家,展開了一場對人工智能安全性的深入探討。
難敵對抗性圖像的“愚弄” 機器視覺也有弱點
在GeekPwn硅谷站的現場,Ian Goodfellow和Alexey Kurakin僅在一張圖片上加入了人眼無法察覺的干擾因素,就成功瞞過了“機器之眼”,令機器視覺做出錯誤的判斷最終將圖像判定無誤。
人工智能作為現代科學最大的進步之一,成功改變了計算機“看見”世界的方式。機器視覺更是被應用到無人駕駛、安全監控等重要領域。眼下他們已經注意到這項新技術存有一些致命弱點。
Ian Goodfellow和Alexey Kurakin表示一些經過“特殊加工”的圖像將變成“對抗性圖像”令機器視覺作出誤判,正是目前機器識別最重要安全隱患之一。就如兩位專家現場演示的效果那樣,機器視覺算法的阿喀琉斯之踵就在于它們的準確性能輕易地被一些微擾因素所干擾,而這些因素對于人類來說卻非常容易排除。
畢業于斯坦福,專注于數據挖掘和人工智能研究者Clarence Chio在極棒上海站分享了他的研究成果,現在的大部分機器學習系統只關注到應用程序的準確率,卻忽略了機器學習系統的安全性。他在此次GeekPwn嘉年華上海站的現場演示了如何使用一個DEEP-PWNING的框架成功欺騙一個圖像識別系統。
創辦三年以來,上百位安全黑客在GeekPwn的舞臺上聲名大噪。秉承著負責任的漏洞披露原則,GeekPwn以人才和技術為導向,揭露了上百個具有安全漏洞并反饋給廠商進行產品升級。從智能硬件到人工智能,GeekPwn從未停止對安全的探索。