審核專(zhuān)家:劉相權(quán)
北京信息科技大學(xué)機(jī)器人工程系主任
AI換臉
眼見(jiàn)不再為實(shí)!AI以假亂真的時(shí)代,我們?nèi)绾未_保真實(shí)?
最近,香港警方披露了一起AI“多人換臉”詐騙案,涉案金額高達(dá)2億港元。
被騙的是一家跨國(guó)公司香港分部的職員,他被邀請(qǐng)參加一場(chǎng)由總部首席財(cái)務(wù)官發(fā)起的“多人視頻會(huì)議”,并按照要求,將2億港元分多次轉(zhuǎn)賬到了5個(gè)本地銀行賬戶(hù)內(nèi)。
來(lái)源 | 央視網(wǎng)
其后向總部確認(rèn)時(shí),該員工才發(fā)現(xiàn)自己受騙。
警察調(diào)查后發(fā)現(xiàn),在那個(gè)視頻會(huì)議里,只有員工一個(gè)是真人,其他參會(huì)人全都是騙子用AI換臉技術(shù)偽造的!
據(jù)了解,詐騙者通過(guò)盜取該公司的YouTube視頻和其他公開(kāi)渠道媒體資料,巧妙地復(fù)制了公司高層管理人員的外貌和聲音。然后,他們運(yùn)用深度偽造技術(shù),制作出詐騙視頻,讓受害者誤以為其正在多人視頻會(huì)議中,與其他真實(shí)人員交流。
深度偽造技術(shù)是啥?
深度偽造(Deepfake)是由深度學(xué)習(xí)(Deeplearning)和偽造(Fake)組合成的名詞。
原本,這種對(duì)視頻或圖片進(jìn)行調(diào)整的人工智能技術(shù)只是一種有趣的新突破,能夠?qū)⒁粋€(gè)人的面部表情、說(shuō)話(huà)內(nèi)容和動(dòng)作放到別人的圖片或視頻上,并且看起來(lái)十分真實(shí)。
來(lái)源 | 央視網(wǎng)
由于這種技術(shù)很方便、成本低、效果逼真,給藝術(shù)、社交、醫(yī)療等領(lǐng)域都帶來(lái)了很多新的機(jī)會(huì)。
但是,由于這種技術(shù)使得制作假視頻變得更加容易,一些不法分子可能會(huì)利用它來(lái)騙人、傳播假消息或制造社會(huì)矛盾,給我們的安全帶來(lái)了很大的風(fēng)險(xiǎn)。
在AI面前,“有圖有真相”和“眼見(jiàn)為實(shí)”的定律都被顛覆了。
AI詐騙一般什么樣?
在生活中,遇到親戚朋友線(xiàn)上借錢(qián),謹(jǐn)慎的人一般會(huì)選擇和對(duì)方打個(gè)語(yǔ)音或視頻電話(huà),確認(rèn)對(duì)方的身份后再轉(zhuǎn)賬。
但是,如果接電話(huà)的“親戚朋友”也是騙子用AI偽造的呢?
來(lái)源 | 新華社
利用了AI技術(shù)的騙局,通常包含以下幾個(gè)步驟:
1、盜取目標(biāo)對(duì)象的社交賬號(hào),尋找潛在的受害者;
2、 利用AI機(jī)器人撥打騷擾電話(huà),收集目標(biāo)對(duì)象(改為目標(biāo)親友)的聲音資料,進(jìn)行聲音偽造;
3、 通過(guò)多種渠道搜集目標(biāo)親友的照片、視頻等資料,通過(guò)AI換臉偽裝成目標(biāo)對(duì)象親友;
4、利用AI換臉技術(shù),與受害人進(jìn)行視頻通話(huà),以獲取他們的信任,從而實(shí)施詐騙。
經(jīng)過(guò)這三步操作,以往通過(guò)“發(fā)送語(yǔ)音”或“進(jìn)行視頻通話(huà)”來(lái)防范詐騙的方法在AI詐騙面前變得不再有效。
來(lái)源 | 澎湃
更令人擔(dān)憂(yōu)的是,掌握AI技術(shù)的騙子數(shù)量正在不斷增加。公開(kāi)資料顯示,自2021年以來(lái),多個(gè)省份都出現(xiàn)了利用AI進(jìn)行詐騙和不當(dāng)牟利的案件。中國(guó)互聯(lián)網(wǎng)協(xié)會(huì)也指出,利用“AI換臉”和“AI換聲”等技術(shù)進(jìn)行詐騙和誹謗的違法行為頻繁出現(xiàn)。
學(xué)會(huì)幾招,及時(shí)識(shí)別AI偽造
如此以假亂真的詐騙方式,我們到底該如何防范呢?
1、要求視頻對(duì)象在臉前揮手,或者捏鼻子、按臉頰
在視頻電話(huà)時(shí),揮手會(huì)干擾面部的數(shù)據(jù),導(dǎo)致偽造的人臉出現(xiàn)抖動(dòng)、閃現(xiàn)或其他異常情況,因此我們可以要求對(duì)方在臉部前面揮手進(jìn)行識(shí)別。
另外,我們還可以讓對(duì)方嘗試按壓鼻子或臉部,觀察其面部變化。真人的鼻子在被按壓時(shí)會(huì)發(fā)生變形,但AI生成的鼻子則不會(huì)。
但隨著AI訓(xùn)練日趨成熟以后,捏鼻子也不是最保險(xiǎn)的識(shí)別方法。
來(lái)源 | 央視網(wǎng)
2、問(wèn)一些只有對(duì)方知道的問(wèn)題
盡管外形可以被偽造,但個(gè)人的記憶和經(jīng)歷是無(wú)法被復(fù)制的。
因此,在視頻通話(huà)中,我們可以問(wèn)一些只有對(duì)方知道的問(wèn)題,如家庭地址、生日、寵物名字等私人信息。如果對(duì)方在回答時(shí)表現(xiàn)出猶豫或無(wú)法準(zhǔn)確回答,那么這很可能是一個(gè)詐騙行為。
來(lái)源|文心一格(圖片由AI繪制)
加利福尼亞大學(xué)伯克利分校信息學(xué)院副院長(zhǎng)法里德表示:“當(dāng)新聞、圖像、音頻、視頻——任何事情都可以偽造時(shí),那么在那個(gè)世界里,就沒(méi)有什么是真實(shí)的?!?/p>
當(dāng)我們踏入AI以假亂真的時(shí)代,確保真實(shí)性的挑戰(zhàn)似乎比任何時(shí)候都更加艱巨。
然而,面對(duì)這場(chǎng)技術(shù)革命,我們并非束手無(wú)策。通過(guò)技術(shù)素養(yǎng)的提升、全球合作和公眾教育,我們有信心能夠應(yīng)對(duì)挑戰(zhàn),維護(hù)信息的真實(shí)與可信。