如今,AI換臉在網(wǎng)上被玩的不亦樂乎。喜歡哪個(gè)明星,就把所有電視劇主角都換成他的臉,如果只是單純娛樂,貌似也無可厚非。但可怕的是,你的臉很可能會(huì)被“植入”到色情視頻然后被打包販賣,甚至你的手機(jī)、電腦、智能門鎖等應(yīng)用了人臉識(shí)別技術(shù)的設(shè)備也可能被AI換臉輕松攻破。有人用AI視頻造假,亦或是犯罪,似乎就沒那么好玩了。

  刷臉支付、人臉識(shí)別……不可否認(rèn),人工智能技術(shù)給人們的生活帶來了諸多便利。“但我們也應(yīng)當(dāng)正視,當(dāng)前人工智能技術(shù)還處在初步發(fā)展階段,仍然面臨著一些挑戰(zhàn)!鼻迦A大學(xué)教授、清華大學(xué)人工智能研究院基礎(chǔ)理論研究中心主任朱軍說。

  “任何技術(shù)都是一把雙刃劍,當(dāng)AI技術(shù)應(yīng)用到越來越多的場景,由于AI算法本身存在漏洞所引發(fā)的安全問題必須引起足夠重視。同時(shí),AI技術(shù)的濫用也將引發(fā)安全隱患,比如隱私與倫理問題。當(dāng)AI開始觸碰邊界問題,安全性就成為AI發(fā)展過程中必須思考的課題!北本┤鹑R智慧科技有限公司(以下簡稱RealAI)高級(jí)產(chǎn)品經(jīng)理張旭東在接受科技日?qǐng)?bào)記者采訪時(shí)說。

  技術(shù)漏洞帶來AI安全問題

  回家,到單元樓門口,刷一下臉,門就開了。人臉解鎖已經(jīng)成為生活中最常見的AI應(yīng)用場景之一。然而,很少有人會(huì)想到,當(dāng)前的AI算法存在明顯的“安全盲點(diǎn)”。

  RealAI團(tuán)隊(duì)就曾做過相關(guān)研究:針對(duì)識(shí)別算法漏洞,可生成一類名為對(duì)抗樣本的“噪音”,惡意誤導(dǎo)AI算法輸出非預(yù)期的結(jié)果,誘導(dǎo)識(shí)別系統(tǒng)出錯(cuò)。團(tuán)隊(duì)成員通過一張打印上對(duì)抗樣本“噪音”的紙,成功地讓研究對(duì)象在識(shí)別系統(tǒng)下實(shí)現(xiàn)“隱身”,如果再把紙貼在其他實(shí)物上,比如小車模型上,也可以讓該物體在識(shí)別系統(tǒng)下完全“消失不見”。此外,他們還研發(fā)了一種帶有噪點(diǎn)的“眼鏡”,只要戴上,即使不是本人,也能成功破解商用智能手機(jī)的刷臉解鎖,甚至包括門鎖等其他人臉識(shí)別設(shè)備。

  “AI算法漏洞本質(zhì)上是安全問題的一大類,而解決安全問題往往是攻防兩端不斷對(duì)抗、演化的過程。”張旭東說。目前對(duì)主流的攻擊手段都有比較有力的防御手段,如可以通過訓(xùn)練模型去除對(duì)抗“噪音”,或是檢測出對(duì)抗樣本以后將其從數(shù)據(jù)中去除,以及使用攻擊算法生成大量對(duì)抗樣本對(duì)模型做對(duì)抗訓(xùn)練等方式來解決這些問題。

  由于AI換臉技術(shù)也在不段進(jìn)化,早期換臉技術(shù)生成的視頻中人物往往不會(huì)眨眼,可根據(jù)一些較為明顯的特征直接肉眼判斷。但隨著深度偽造技術(shù)的不斷演化,這些鑒別方法已不再有效。

  “面對(duì)這種情況,我們會(huì)根據(jù)當(dāng)前市面上流行的換臉?biāo)惴ㄉ珊A康挠?xùn)練樣本,再結(jié)合貝葉斯學(xué)習(xí)處理還未出現(xiàn)的新型虛假視頻。簡單理解,就是基于主流的甚至更為領(lǐng)先的生成技術(shù)制作出大量逼真的假視頻,再利用這些假視頻訓(xùn)練出一個(gè)新的模型。做的假視頻越逼真,訓(xùn)練出來的模型分辨能力就越強(qiáng)!睆埿駯|說。

  要守好技術(shù)和法規(guī)兩道關(guān)

  “AI技術(shù)濫用最顯性的問題在于個(gè)人信息被輕易‘操縱’,這背后可能會(huì)引發(fā)隱私泄露、身份危機(jī),而且還會(huì)催生出更加隱秘、難以偵察的新型黑產(chǎn),如色情黑產(chǎn)、金融欺詐等。”張旭東說。

  此外,AI技術(shù)濫用的潛在效應(yīng)還將蔓延到大眾的信息獲取和社會(huì)信任層面,引導(dǎo)公眾輿論、引發(fā)社會(huì)信任危機(jī),比如美國就曾流出國家領(lǐng)導(dǎo)人被惡搞的視頻,制作者利用視頻煽動(dòng)政治暴力、破壞選舉、擾亂外交。長此以往,難以辨別真相的公眾無法選擇相信還是不相信,如果選擇相信可能會(huì)繼續(xù)給不法分子帶來可趁之機(jī),如果選擇不相信則可能帶來長期的社會(huì)冷漠。

  張旭東表示,AI安全問題牽一發(fā)而動(dòng)全身,守好技術(shù)和法規(guī)兩道“關(guān)卡”是當(dāng)務(wù)之急,同時(shí)需要聯(lián)動(dòng)社會(huì)各界力量,從監(jiān)管機(jī)構(gòu)、AI科技企業(yè)到普通公眾共同重視、共同發(fā)力才能真正的從根本上使其良性發(fā)展。

  欣喜的是,AI安全問題已經(jīng)引起國內(nèi)相關(guān)監(jiān)管機(jī)構(gòu)的重視。此前,網(wǎng)信辦就正式發(fā)布《網(wǎng)絡(luò)音視頻信息服務(wù)管理規(guī)定》,指出自2020年1月1日起,AI造假音視頻不得隨意發(fā)布。新規(guī)定中關(guān)于AI造假音視頻的規(guī)定主要有四條:按照國家有關(guān)規(guī)定開展安全評(píng)估、以顯著方式予以標(biāo)識(shí)非真實(shí)音視頻信息、不得利用AI造假技術(shù)發(fā)布虛假新聞、部署AI造假音視頻鑒別技術(shù)和健全辟謠機(jī)制等。

  “當(dāng)然,最有效、最可行的解決方法仍是依靠技術(shù)制衡技術(shù)!睆埿駯|說,這主要包括兩方面,一是開發(fā)出高精度的AI檢測算法與檢測產(chǎn)品,從源頭制止虛假內(nèi)容的泛濫傳播;二是開發(fā)出相應(yīng)的“防火墻”技術(shù),從防御端鑄造高墻,保障配備了人臉識(shí)別系統(tǒng)的公共安全設(shè)備攻不可破。(記者 付麗麗)