金沙正规网投平台网址
  • 首頁| 滾動| 國內| 國際| 軍事| 社會| 財經| 產經| 房產| 金融| 證券| 汽車| I T| 能源| 港澳| 臺灣| 華人| 僑網| 經緯
    English| 圖片| 視頻| 直播| 娛樂| 體育| 文化| 健康| 生活| 葡萄酒| 微視界| 演出| 專題| 理論| 新媒體| 供稿

    “換臉”真相:“深度偽造”的網絡狂歡和安全威脅

    2019年09月09日 06:17 來源:央視新聞客戶端 參與互動 

    視頻:《新聞1+1》換臉“ZAO”,豈能隨便“zao”?來源:央視新聞

      近期,一款名為ZAO的人工智能換臉APP在國內推出。用戶只需上傳一張正面照,就可以一鍵操作,把一些影視劇片段中演員的臉換成自己的,立刻生成視頻,還可通過社交媒體傳播,仿佛瞬間圓了明星夢。

      這一款換臉APP很快就成了爆款,頗受歡迎,但也很快引起有關部門的注意,就在本周,工信部就網絡數據安全問題約談了相關公司。

      與此同時,“換臉” 軟件所依托的的一項AI技術,也引起了人們的關注,它被稱為:DeepFake, 深度偽造。

      外國媒體報道:我們不能相信網上的所有東西,沒錯,深度偽造,深度偽造,深度偽造!是的,這到底是什么?深度偽造技術是利用人工智能合成以假亂真的視頻,這是一種高科技手段,可以把某些話塞進某人嘴里。

      Deepfake(深度偽造),“Deep learning”(深度學習)和“Fake”(偽造)結合而成的新單詞。

      簡單來說,這是一種可以實時偽造面部表情,并將其渲染成2D合成視頻的人工智能技術。

      早在一年多前, 2017年12月,一個名為“DeepFakes”的用戶在Reddit網站發布“假視頻”,將成人色情電影中演員的臉替換成了斯嘉麗·約翰遜等知名女演員的臉,畫面以假亂真。這為人工智能換臉技術吸引來了一大波流量,“DeepFake”深度偽造,也逐漸成為這一技術的代稱,同名算法也在Github開源,這是一個面向開源及私有軟件項目的托管平臺。

      網絡視頻打假專家 沃德爾博士:你好,今天我要和你討論一項影響名人的新技術。(記得)奧巴馬說特朗普是笨蛋,或者卡戴珊的說唱“因為我總是半裸嗎”?深度偽造!深度偽造!深度偽造!這也是深度偽造,我也不是阿黛爾,我是(打擊)網絡偽造的專家。深度偽造用來形容人工智能技術合成的視頻或音頻文件。它起初就是一種非?;镜拿娌扛鼡Q,現在還成了電影特技。有了這樣的爆款技術,天啊,我們不能相信任何東西了。沒錯,深度偽造就是可怕的反烏托邦。它們只會變得更容易,制作成本也更低廉。

      李浩是美國南加州大學的助理教授,“針幕動畫”公司的聯合創始人,這家公司推出的軟件可以讓用戶在玩虛擬現實游戲和購物時,即時定制自己的三維虛擬化身。

      “針幕動畫”聯合創始人 李浩:現在我制作了一個你的化身。

      美國公共廣播公司記者 奧布萊恩:一個和藹整潔的奧布萊恩。

      這種戲法可以用在任何人身上,當然也包括政界要人。

      美國公共廣播公司記者 奧布萊恩:現在我成了我們的總統(特朗普),日本首相安倍晉三。

      “針幕動畫”聯合創始人 李浩:當然,這個技術可以用來做一些真的很壞的事情。但主要目的絕不是如此,它被用于娛樂,一個有趣的工具,用于時尚、生活方式各方面,帶給我們更多體驗。

      但隨著技術的發展,這樣的合成圖像或視頻,真實度越來越強,欺騙性也越來越強。對此,研發者也不無擔憂。

      “針幕動畫”聯合創始人 李浩:我們都假設會有一個臨界點,屆時將無法區分真假。我的意思是,從視覺效果上說,我覺得你已經可以做到非常接近了,只是取決于你花多少努力在上面。但就任何人都可以創建的內容而言,我認為已經非常接近這個臨界點了。

      2018年1月,一個名為FakeApp的軟件上線,宣稱可以實現“一鍵換臉”??缮傻囊曨l內容包括惡搞美國總統特朗普,或是將自己的臉貼到好萊塢明星身上。

      雖然有的社交新聞站點比如Reddit網站,已明令禁止在自己的平臺傳播換臉視頻和圖片,但仍有超過9萬名用戶在Reddit上傳播這類視頻。

      計算機科學專家 法里德:我擔心這項技術被武器化,還擔心它如何影響我們整個社會。

      深度偽造不僅可以換臉,還可偽造聲音。

      據《華爾街日報》報道,今年3月,有犯罪分子利用“深度偽造”技術,電腦合成某公司CEO的聲音,成功詐騙22萬歐元。

      電腦合成聲音真的這么難以識破嗎?

      2018年,三名蒙特利爾大學的博士聯合創辦了一家名為“琴鳥”(Lyrebird)的公司。該公司開發出了一種“語音合成”技術,只要對目標人物的聲音進行1分鐘以上的錄音,把錄音丟給“琴鳥”處理,就能得到一個特別的密鑰,利用這個密鑰可以用目標人物的聲音,生成任何想說的話。

    “琴鳥”創始人:你需要錄自己幾分鐘的聲音。

      彭博社記者 萬斯:上千個字母在業余作家的屏幕上跳動,當你開始像這樣吃東西時,就會有問題,你們最好退出政治圈,別干了。我不知道它怎么工作的,現在創建我的數字聲音。創建你的數字聲音至少需要一分鐘,一分鐘,我的天啊。

      語音錄制完后,“琴鳥”會自動運轉合成出你的數字聲音。

      這時,只需要向電腦輸入想說的話,就可以用新合成的你的聲音說出來。

      記者萬斯的數字合成聲音:人工智能技術似乎發展非???,我們該感到害怕嗎。

      彭博社記者 萬斯:我的確聽到了,真的很有意思。我只是隨便挑了,我從沒說過的話。

      而且,“琴鳥”還能在合成聲音中加入“感情”元素,讓聲音聽上去更逼真。

      彭博社記者 萬斯:現在為了實驗一下我的電腦合成音,我要給我親愛的媽媽打個電話,看看她是否能聽出來。嗨,媽媽,你們今天什么安排。

      萬斯的母親:今天一早家里沒電了,我們正在房子里溜達。

      萬斯:我剛剛下班,等著接兒子回家。

      萬斯的母親:好的。

      萬斯:我覺得我可能感染了病毒。

      萬斯的母親:那你感覺不舒服,是嗎?

      萬斯:哈哈,我剛才是和你搗亂,你剛才在和電腦說話。

      萬斯的母親:我感覺在和你說話,真是奇妙。

      萬斯:你覺得嚇人還是覺得不錯。

      萬斯的母親:如果涉及到非常重要的事情,真的挺嚇人的。不過現在是你了,對嗎?

      萬斯:我不知道。

      萬斯的母親:聽上去是你。

      萬斯:是嗎?

      萬斯的母親:是,是,聽上去就是你。

      彭博社記者 萬斯:很明顯,有些人被這項技術嚇壞了。因為我們已經讓現實真相變得模糊不清。

      “琴鳥”創始人:當然,的確存在有人利用這項技術做壞事的風險。但是,科技不可能停止發展,所以我們決定選擇符合道德的做法,將技術展示給人們,讓人們知道這項技術的可行性,讓他們提高警惕。

      網絡安全公司Pindrop在2018年五月對美英德法四國共500家企業展開網上調查,結果顯示,從2013年到2017年,語音欺詐案件的數量增加了350%,每638個欺詐電話中就有1個是人工合成聲音。

      瑞士蘇黎世大學研究員 烏德里什:長久以來,人類的聲音是(造假者)最大的挑戰,因為每種聲音都極其復雜且獨一無二,它們幾乎不可能被偽造。但在最近幾年,(科技)取得了巨大進步,視頻素材和偽造聲音的結合造成了巨大的威脅。

      的確,有了成熟的聲音造假技術,再配上偽造圖像,做出一條以假亂真、別有用心的視頻真的不難了。

      “深度偽造”假視頻:特朗普總統是個徹底的笨蛋,你看我永遠不會說這些話,至少在公共演講中(不會),但其他人會說,比如喬丹·皮爾。這是一個危險的時代,以后我們要對我們所信任的互聯網更加警惕。在這個時代我們需要可信的新聞來源,聽起來很簡單,但我們該如何發展,信息時代將決定我們是生存,還是成為某種糟糕的反烏托邦。謝謝。

      這段視頻看上去是美國前總統奧巴馬在發表演講,實際上卻是喜劇演員和電影制作人皮爾的表演,聲音和畫面都是通過軟件合成的。

      計算機科學專家 法里德:人工智能系統合成了奧巴馬的嘴,使其與音頻流保持一致,讓視頻看起來像是奧巴馬總統在說他之前從未說過的話。這叫作唇同步深度偽造。

      技術本無善惡,深度偽造可以被運用于趣味視頻、游戲以及廣告合作中,但惡意運用也會帶來嚴重后果。它可能會摧毀我們對現實的認知,使人們不敢再相信視頻、錄像。

      美國卡內基國際和平基金會也警告稱,深度偽造正在帶來破壞性的影響,也會對反恐和國家安全造成危害。

      計算機科學專家 法里德:噩夢般的情況是,出來一段特朗普總統的視頻,他在視頻里說,我對朝鮮發射了核武器。有人黑進了他的推特賬號,這條消息被瘋狂傳播,短短30秒,全球核戰爆發。我覺得這可能嗎?不,但并非完全不可能,而且會把你嚇得半死,對嗎?但這并非不可能的事實,真的令人擔憂。

      從“深度學習”到“深度偽造”,照片、聲音、視頻都可輕松造假,而識別深度偽造則要比制作深度偽造難得多。

      當“眼見未必為實,耳聽未必為真”,我們又該怎么辦?

      扎克伯格“深度偽造”假視頻:這都要歸咎于Spectre漏洞,它告訴我誰掌控了數據,誰就掌控了未來。

      今年6月,圖片分享網站Instagram出現這樣一段視頻。臉書公司創始人扎克伯格就大數據的威力發表演講。

      但很快,扎克伯格就辟謠說,自己從未說過這些話。事實上,這是以色列一家科技公司利用深度偽造技術合成而來的。

      略顯尷尬的是,臉書曾宣稱,該公司不會刪除假新聞,但會減少其在網站上的影響力,并顯示來自事實核查人員的信息。

      而Instagram總裁莫斯里也在接受采訪時表示,目前業界還沒有大規模的數據或標準對這些假視頻進行檢測。

      Instagram總裁 莫斯里:目前,我們還沒有應對深度偽造的政策,我們正試著評估是否愿意這么做。如果要做,又該如何定義深度偽造。我覺得(此類事件)并不好。

      主持人蓋爾·金:你可以限制這種技術,你有影響力。

      莫斯里:實際上,我想的不僅是把它撤下來,我認為問題在于,我們如何以有原則的方式做到這一點。

      對此,《財富》雜志呼吁說,現在已經到了科技公司、學術界和政府共同努力尋找解決方案的時候了。

      6月13號,美國眾議院情報委員會召開關于人工智能深度偽造的聽證會,公開談論了深度偽造技術給國家、社會和個人帶來的風險,以及該采取的防范和應對措施。

      目前,世界多國也都開始進行立法,強化對人臉信息收集和識別技術應用場景的約束。但所有努力都離不開社交媒體平臺的配合。

      計算機科學專家 法里德:但大多數情況下,社交媒體平臺對如何處理這類非法內容、有害內容、不實信息、假新聞、選舉篡改、非自愿的色情等內容都顯得漫不經心,因為這些內容吸引眼球,對生意有好處。

      近日,臉書、微軟等科技公司和眾多學術機構聯合發起一場“揪出深度偽造影像挑戰賽”,希望改善現有工具,加強對深度偽造圖片、聲音和視頻的檢測能力。

      9月5號,臉書宣布將為此投入1000萬美元。

      美國加州大學伯克利分校的研究人員也在研究如何應對深度偽造。

      計算機科學專家 法里德:我們應對這一問題的方式是,建立了軟生物識別模型。這些生物特征指的是像指紋、虹膜、面部。它沒有那么獨特,但其目的是捕捉微妙的面部表情、頭部移動,這些每個個體獨有的,但在假視頻制作時被打亂了的特征。

      計算機科學專家 法里德:首先我們會測量各種頭部移動和面部表情,你可以在這個視頻里,看到我們正在捕捉藍色盒子,正在捕捉他的頭部在三維空間里如何轉動。紅點是在定位他的面部表情,實際上我們可以看到他何時會抬起眉毛,何時會張大嘴巴。當然,他眼睛里的綠色激光會告訴我們他在看哪里。整個視頻中的每一幀畫面,我們都會對他的面部表情、面部動作、頭部動作做一些測量,之后我們用這些建立軟生物識別模型。

      計算機科學專家法里德感嘆稱,制作假視頻的人越來越多,造假技術發展非常迅速,而相比之下,打假隊伍的力量顯得落后而薄弱。

      美國五角大樓有一個研究團隊,又稱美國國防高級研究計劃局,也在一直研究如何抵抗“深度偽造”的威脅。

    計算機科學家 圖雷克:這讓我們對圖片和錄像都不信任了。

      而檢測偽造視頻的軟件,可以描述嘴唇運動,將其與視頻中的聲音進行比對。

      計算機科學家 圖雷克:當看到這些紅點時,意味著說話者的聲音實際上與其嘴唇運動不一致。

      再來看這段視頻,看上去這兩人是坐在一起的,但通過測定他們臉上的光照角度,可以判定這是一個合成的視頻。

      計算機科學家 圖雷克:它預估了一個人臉3D模型跟這個模型一起,軟件還估計了面部反射特征和光照角度。這里,我們主要使用了光照角度來看那些(特征)是否一致。

      這是監控錄像中的一段畫面,檢測軟件試圖預測物體的移動方向。

      計算機科學家 圖雷克:它檢測到了物體運動的不連續性,這給我們發出了信號來仔細查看圖片或視頻,(推斷出)也許畫面就是從這里被清除的。

      檢測發現這段視頻被動過手腳,另一輛車被從畫面中剪切掉了。

      計算機科學家 圖雷克:這是一個貓和老鼠的游戲,拆穿假圖片或視頻的層面越多,給造假者形成的壓力也就越大。

      兩年前,美國發布《人工智能與國家安全》報告,明確將人工智能偽造技術列為威脅國家安全的重點技術。

      作為人工智能發展大國,中國也已經在加強政策和技術方面的監管,應對人工智能新技術可能帶來的安全風險。

      畢竟,當聲音、指紋、人臉等重要的生物識別信息都開始出現“高仿”時,風險和隱患也將越來越多。

    【編輯:劉歡】

    >社會新聞精選:

    本網站所刊載信息,不代表中新社和中新網觀點。 刊用本網站稿件,務經書面授權。
    未經授權禁止轉載、摘編、復制及建立鏡像,違者將依法追究法律責任。
    [網上傳播視聽節目許可證(0106168)] [京ICP證040655號] [京公網安備:110102003042-1] [京ICP備05004340號-1] 總機:86-10-87826688

    Copyright ©1999- 2019 chinanews.com. All Rights Reserved

    金沙正规网投平台网址
  • 金沙城网站 澳门金沙城娱乐手机版官网 澳门金沙游戏官网网址