來源:http://bit.ly/2dIcUDi
Alpha Go大勝韓國棋王,讓人類意識到人工智慧的能力以及重要性。然而研究發現,邏輯
運算、推斷決策能力勝過人類的人工智慧,卻出乎意料地容易受騙。
美國賓夕法尼亞州大學的研究團隊與Google、美國軍方共同針對人工智慧可能會面臨何種
惡意攻擊?例如:沙沙聲的噪音有可能頻率內含有命令Siri、Google Now等智慧手機的虛
擬助理進行某項功能的指令。在使用者毫不知情的情況下瀏覽含有病毒或木馬程式的網站
、email,導致使用者的智慧手機中毒、個資外洩,甚至引發各種爭端。
不僅如此,任何圖片被稍作修改後,人類肉眼看來兩張一模一樣的圖片,但在人工智慧
演算法看來卻是截然不同的圖片(如圖一)。換言之,在人類眼中沒有異常的路面標誌或
招牌,對於由人工智慧操控的無人駕駛車看來極有可能代表著不同意義,讓人工智慧錯誤
判讀路面上的標誌而造成車禍。這類有別於傳統駭客入侵的「人工智慧詐騙術」,在人工
智慧時代將成為人類社會極大的威脅。
追根究底,人工智慧之所以如此容易受騙,是因為在機器學習過程中只讓人工智慧學習單
方面的知識,使其可以回答或做出正確抉擇,但卻沒有教導人工智慧理解知識。因此,應
該如同人類幼兒學習一樣,人工智慧在學習何謂正確知識時也要同時學習何謂錯誤,藉由
同時正、反兩面的教導,讓人工智慧建立更難被黑箱攻擊的演算法,才能大幅降低人工智
慧被騙的機率。
身為前Google深度學習的主要研究人員之一,目前加入非營利人工智慧研究團隊的Open AI
的Good Fellow博士表示,從實驗結果可以發現,如果只告訴人工智慧如何辨識什麼是正確
的話,相對很容易被惡意重建另一套偽正確的演算法。然而,若將原始是的正確以及修改
後的圖片同時給予人工智慧,訓練其辨識圖片的演算網絡時,則人工智慧錯認圖片的比率
就會大幅減少,甚至人工智慧還能做得比原先的更好。
除了Good Fellow博士外,近年來致力於發展爆裂物機器人、無人機、外骨骼機器人的美國
軍方也針對人工智慧詐騙技術進行研究。畢竟美國軍方砸重金推動軍隊智慧化,如果輕易
就被擊潰,反而導致國防門戶大開。除了美國軍方之外,將人工智慧技術視為企業次世代
成長動力的IT企業也開始投入相關研究,希望能盡快彌補漏洞,好讓人工智慧技術發展不
會因此受挫。