人工智能高歌猛進背后暗藏多重安全風(fēng)險?


中國產(chǎn)業(yè)經(jīng)濟信息網(wǎng)   時間:2022-10-14





  試想一下,有人將一張“貼紙”貼在面部,就可以使人臉識別門禁系統(tǒng)誤認為是你,從而輕而易舉打開大門;同樣是這張“貼紙”,把它貼在眼鏡上,就可以1秒解鎖你的手機人臉識別,探取隱私如入無人之境。這并非科幻大片的想象,而是首屆人工智能安全大賽頒獎典禮現(xiàn)場展示的真實攻防場景。


  前不久,由國家工業(yè)信息安全發(fā)展研究中心、清華大學(xué)人工智能研究院和北京瑞萊智慧科技有限公司等單位聯(lián)合主辦的首屆人工智能安全大賽落幕。大賽期間,有關(guān)人工智能安全風(fēng)險引發(fā)討論。與會專家表示,人工智能安全風(fēng)險已非未來挑戰(zhàn),而是眼前威脅,要重視人工智能安全體系建設(shè),加快促進人工智能安全領(lǐng)域關(guān)鍵技術(shù)研究與攻防實踐。


  人工智能和其他通用技術(shù)一樣,在高歌猛進的同時,也帶來了一定的風(fēng)險和隱患。曾獲“吳文俊人工智能優(yōu)秀青年獎”的瑞萊智慧首席執(zhí)行官田天認為,人工智能技術(shù)風(fēng)險發(fā)生的范圍,正隨著應(yīng)用場景的日趨廣泛而逐步擴大,風(fēng)險發(fā)生的可能性也隨著其應(yīng)用頻次的增長而持續(xù)提高。在他看來,人工智能當前的安全風(fēng)險主要可以從“人”與“系統(tǒng)”這兩個視角來剖析。


  從人的視角來評估人工智能的安全問題,首當其沖就是技術(shù)的兩面性問題,存在人工智能濫用的問題。具體到人工智能的應(yīng)用中來看,最為典型的代表就是深度偽造技術(shù),它的負向應(yīng)用風(fēng)險持續(xù)加劇且已產(chǎn)生實質(zhì)危害。


  此次大賽的人臉識別破解演示,所揭示的正是系統(tǒng)的風(fēng)險,它來自深度學(xué)習(xí)算法本身的脆弱性。以深度學(xué)習(xí)算法為核心的第二代人工智能是個“黑盒子”,具有不可解釋性,意味著系統(tǒng)存在結(jié)構(gòu)性的漏洞,可能受到不可預(yù)知的風(fēng)險,典型的就比如現(xiàn)場演示的“神奇貼紙”,其實就是“對抗樣本攻擊”,通過在輸入數(shù)據(jù)中添加擾動,使得系統(tǒng)作出錯誤判斷。


  這一漏洞在自動駕駛感知系統(tǒng)同樣存在。正常情況下,在識別到路障、指示牌、行人等目標后,自動駕駛車輛就會立即停車,但在目標物體上添加干擾圖案后,車輛的感知系統(tǒng)可能會出錯,徑直撞上去。


  大賽期間,《人工智能算力基礎(chǔ)設(shè)施安全發(fā)展白皮書》發(fā)布。其中提到,人工智能算力基礎(chǔ)設(shè)施不同于傳統(tǒng)的算力基礎(chǔ)設(shè)施,既是“基礎(chǔ)設(shè)施”又是“人工智能算力”也是“公共設(shè)施”,具有基建屬性、技術(shù)屬性、公共屬性三重屬性。相應(yīng)地,推動人工智能算力基礎(chǔ)設(shè)施安全發(fā)展應(yīng)從強化自身安全、保障運行安全、助力安全合規(guī)三個方面發(fā)力。


  統(tǒng)籌發(fā)展和安全,似乎是每項新技術(shù)發(fā)展過程中面臨的必然問題,如何實現(xiàn)高水平發(fā)展和高水平安全的良性互動,也是當前人工智能產(chǎn)業(yè)發(fā)展最為重要的命題之一,現(xiàn)場多位專家就此話題展開討論。


  “人工智能對抗攻防包括對抗樣本、神經(jīng)網(wǎng)絡(luò)后門、模型隱私問題等多方面技術(shù)。模型有錯誤,就需要進行及時的修復(fù)。”中國科學(xué)院信息安全國家重點實驗室副主任陳愷提出“神經(jīng)網(wǎng)絡(luò)手術(shù)刀”的方法,通過定位引發(fā)錯誤的神經(jīng)元,進行精準“微創(chuàng)”修復(fù)。


  陳愷表示,不同于傳統(tǒng)的模型修復(fù)工作需要重新訓(xùn)練模型,或者依賴于較大量的數(shù)據(jù)樣本,這種方式類似于“微創(chuàng)手術(shù)”,只需極少量數(shù)據(jù)樣本,能夠大幅提升模型修復(fù)效果。


  開放環(huán)境下的人工智能系統(tǒng)面臨諸多安全挑戰(zhàn),如何解決通用人工智能算法全周期的安全保障問題成為重中之重。


  北京航空航天大學(xué)軟件開發(fā)環(huán)境國家重點實驗室副主任劉祥龍表示,從技術(shù)上來看應(yīng)形成從安全性測試到安全性分析與安全性加固的完整技術(shù)手段,最終形成標準化的測試流程。


  他同時指出,未來的人工智能安全應(yīng)該圍繞從數(shù)據(jù)、算法到系統(tǒng)各個層次上的全面評測,同時配合一套從硬件到軟件的安全可信計算環(huán)境。


  工商銀行金融研究院安全攻防實驗室主管專家蘇建明表示,人工智能安全治理需要廣泛協(xié)作和開放創(chuàng)新,需加強政府、學(xué)術(shù)機構(gòu)、企業(yè)等產(chǎn)業(yè)各參與方的互動合作,建立積極的生態(tài)規(guī)則。政策層面加快人工智能的立法進程,加強對人工智能服務(wù)水平、技術(shù)支撐能力等專項監(jiān)督考核力度。學(xué)術(shù)層面,加大對人工智能安全研究的激勵投入,通過產(chǎn)學(xué)研合作模式加快科研成果的轉(zhuǎn)化與落地。企業(yè)層面,逐步推動人工智能技術(shù)由場景拓展向安全可信發(fā)展轉(zhuǎn)變,通過參與標準制定,推出產(chǎn)品服務(wù),持續(xù)探索人工智能安全實踐及解決方案。


  事實上,構(gòu)建人工智能的安全生態(tài),一方面需要技術(shù)的持續(xù)演進,一方面也需要專項技術(shù)人才的建設(shè)與培養(yǎng)。田天表示,由于人工智能安全研究目前仍屬于新興領(lǐng)域,專項人才較少,缺乏系統(tǒng)性的研究隊伍,此次大賽通過實戰(zhàn)演練的方式,驗證和提升選手實戰(zhàn)能力,為培育一批高水平、高層次的人工智能安全新型人才團隊提供了“快速通道”。


  專家們認為,從長遠看,人工智能的安全問題,還需從算法模型的原理上突破,唯有持續(xù)加強基礎(chǔ)研究,才能破解核心科學(xué)問題,同時他們強調(diào),人工智能的未來發(fā)展需確保對整個社會、國家發(fā)展的有效性和正向促進性,需要政產(chǎn)學(xué)研用多方協(xié)同共進。(記者 邱晨輝)


  轉(zhuǎn)自:中國青年報

  【版權(quán)及免責(zé)聲明】凡本網(wǎng)所屬版權(quán)作品,轉(zhuǎn)載時須獲得授權(quán)并注明來源“中國產(chǎn)業(yè)經(jīng)濟信息網(wǎng)”,違者本網(wǎng)將保留追究其相關(guān)法律責(zé)任的權(quán)力。凡轉(zhuǎn)載文章及企業(yè)宣傳資訊,僅代表作者個人觀點,不代表本網(wǎng)觀點和立場。版權(quán)事宜請聯(lián)系:010-65363056。

延伸閱讀

?

微信公眾號

版權(quán)所有:中國產(chǎn)業(yè)經(jīng)濟信息網(wǎng)京ICP備11041399號-2京公網(wǎng)安備11010502035964