科技要聞:互聯網公司如何準備應對深造未來


科技要聞:互聯網公司如何準備應對深造未來

文章插圖
互聯網在提高人們社會活動質量的同時可能對部分互聯網使用者造成傷害 。我們要正確認識網絡的兩面性 , 用其所長、避其所短,發揮網絡對生活的積極促進作用 。把網絡作為生活的補充就可以享受網絡的諸多益處 , 接下來這篇文章給大家說說互聯網科技的正能量 。
Deepfakes(一個通常描述使用尖端人工智能技術拍攝的視頻的術語)已經挑戰了我們對真實與非真實的假設 ??萍脊粳F在正試圖與之抗爭 。
凱德·梅斯(Cade Metz)
幾個月前,Google雇用了數十名演員坐在一張桌子旁,站在走廊上 , 然后沿著街對著攝像機聊天 。
然后 , 公司的研究人員使用一種新型的人工智能軟件交換了演員的面孔 。走路的人驀地在桌子旁 。曾經在走廊上的演員看上去就像在大街上一樣 。男人的臉貼在女人的身上 。女人的臉放在男人的身上 。隨著時間的推移,研究人員創建了數百個所謂的Deepfake視頻 。
通過創建這些數字操作的視頻,谷歌的科學家相信他們正在學習如何發現偽造品,研究人員和立法者擔心,這種偽造品可能會成為在2020年大選前傳播虛假信息的一種新的 , 陰險的方法 。
對于像Google這樣的互聯網公司來說,找到能夠發現深度欺詐的工具已變得迫在眉睫 。如果有人想散布虛假視頻,那么Google的YouTube或Facebook的社交媒體平臺將是最好的選擇 。
想象一下假冒的參議員伊麗莎白·沃倫(Elizabeth Warren),他與真實事物幾乎沒有區別,他們在經過篡改的視頻中進行了一場激戰 。或者是假的唐納德·也這樣做 。具有這種技巧的技術正在逐漸逼近現實 。
亞利桑那州立大學計算機科學教授Subbarao Kambhampati說:“即使采納當前的技術,對于某些人來說也很難說出什么是真實的,什么不是 。”
Deepfakes(一個通常描述使用尖端人工智能技術拍攝的視頻的術語)已經挑戰了我們對真實與非真實的假設 。
近幾個月來,視頻證據成為巴西,中非加蓬和重大事件的中心 。每個人都有相同的問題:視頻真實嗎?以加蓬為例,他不在國外接受醫療護理 , 他的政府公布了所謂的生活證明視頻 。反對者聲稱它是假的 。專家稱這種混亂為“騙子的紅利” 。
負責公司Deepfake研究的Google工程師之一尼克·杜福爾(Nick Dufour)說:“您已經看到了Deepfake所產生的實質性影響 。”“他們已經同意 人們聲稱,否則將非常令人信服的視頻證據是偽造的 。”
幾十年來,計算機軟件已使人們能夠控制照片和視頻或從頭開始創建假圖像 。但這是一個緩慢而艱難的過程,通常只供接受過Adobe Photoshop或After Effects之類的軟件變幻莫測的專家使用 。
現在,人工智能技術正在簡化流程 , 從而減少了篡改數字圖像所需的成本,時間和技能 。這些AI系統通過分析成千上萬的真實圖像來獨立學習如何構建偽圖像 。這意味著他們可以處理曾經屬于訓練有素的技術人員的部分工作量 。這意味著人們可以制造比以往更多的假貨 。
【科技要聞:互聯網公司如何準備應對深造未來】用于創建深層偽造的技術仍然是相當新的,其結果通常很容易注意到 。但是技術在不斷進展 。盡管用于檢測這些虛假視頻的工具也在不斷進展,但一些研究人員擔心它們無法跟上步伐 。
谷歌最近表示,任何學術或公司研究人員都可以下載其合成視頻集,并使用它們來構建識別偽造品的工具 。視頻收藏實質上是計算機數字欺騙的提綱 。通過分析所有這些圖像 , 人工智能系統學會了如何監視假貨 。Facebook最近做了類似的事情,使用演員制作假視頻,然后將其公布給外部研究人員 。
一家專門研究人工智能的加拿大公司Dessa的工程師最近測試了使用Google合成視頻制作的Deepfake檢測器 。它可以識別幾乎完美的Google視頻 。但是,當他們在通過互聯網提取的Deepfake視頻上測試其檢測器時,它有40%以上的時間失敗了 。
他們最終解決了這個問題,但是惟獨在借助“在野外”發現的視頻(不是由付費演員制作的)幫助重建了探測器之后,才證明了探測器的性能和用于訓練它的數據一樣好 。
他們的測試表明,要打擊假冒偽劣和其他形式的在線虛假信息,幾乎需要不斷進行重新發明 。數百個合成視頻不足以解決問題,因為它們不一定具有今天分發的假冒視頻的特征 , 在未來幾年中將更少 。
“與其他問題不同,這一問題向來在變化,” Dessa的創始人兼機器學習負責人Ragavan Thurairatnam說 。
2017年12月,一個自稱為“偽造品”的人開始使用AI技術,將名人的頭部嫁接到色情視頻中的裸體上 。隨著這種做法遍及Twitter , Reddit和PornHub等服務,術語Deepfake進入了流行的詞典 。很快,這就是公布到互聯網上的任何虛假視頻的代名詞 。
用于創建深層偽造的技術的改進速度使AI專家感到驚訝 , 并且沒有理由相信它會變慢 。多年來,Deepfakes應當受益于為數不多的技術行業公理之一:計算機總是功能越來越強大,并且數據總是更多 。這使所謂的機器學習軟件更加有效 , 它可以幫助創建深層虛假 。
“它變得越來越容易,并且它將繼續變得越來越容易 。毫無疑問,”慕尼黑工業大學計算機科學教授Matthias Niessner說道,他正在與Google進行深度研究 。“這種趨勢將持續數年 。”
問題是:哪方面會更快改善?
像Niessner這樣的研究人員正在努力構建可以自動識別和刪除深層造假的系統 。這是同一枚硬幣的另一面 。像Deepfake創作者一樣,Deepfake檢測器通過分析圖像來學習其技能 。
檢測器也可以突飛猛進 。Niessner和其他研究人員說,但這需要持續不斷的新數據流,這些數據代表互聯網上使用的最新Deepfake技術 。收集和共享正確的數據可能很困難 。相關示例很少,出于隱私和版權的原因 , 公司不能始終與外部研究人員共享數據 。
盡管激進主義者和藝術家間或 會公布深造假作,以展示這些視頻如何在線上改變政治言論 , 但這些技術并未廣泛用于傳播虛假信息 。據Facebook , 谷歌和其他追蹤深度欺詐行為的人士稱,它們主要用于散布幽默或假色情 。
目前,deepfake視頻具有細微的瑕疵 , 即使肉眼無法察覺 , 也可以通過自動化系統輕松檢測到 。但是一些研究人員認為,改進后的技術將足夠強大,可以創建沒有這些微小缺陷的偽造圖像 。像Google和Facebook這樣的公司希翼他們能夠在此之前安裝可靠的探測器 。
“在短期內,檢測將是相當有效的,”亞利桑那州立大學教授坎巴姆帕蒂說 。“從長遠來看,我認為將真實圖片和假圖片區分開是不可能的 。”