互聯網公司如何為未來的深造做準備?


互聯網公司如何為未來的深造做準備?

文章插圖
Deepfakes(一個常用來描述用尖端人工智能技術拍攝的視頻的術語)挑戰了我們對真假的假設 ??萍脊粳F在正試圖與之抗爭 。
凱德梅茲
幾個月前 , 谷歌雇傭了幾十名演員坐在一張桌子旁,站在走廊上,然后沿街和鏡頭聊天 。
然后,該公司的研究人員用一種新型人工智能軟件交換了演員的臉 。步行者突然出現在桌旁 。曾經在走廊里的演員看起來就像在街上一樣 。男人的臉貼在女人的身上 。女人的臉在男人的身上 。隨著時間的推移,研究人員已經創建了數百個所謂的Deepfake視頻 。
通過創建這些數字操作的視頻,谷歌科學家認為,他們正在學習如何發現偽造品 , 研究人員和立法者擔心,在2020年總統大選之前 , 這可能會成為一種新的、陰險的傳播虛假信息的方式 。
對于谷歌這樣的互聯網公司來說,找到能夠檢測深度欺詐的工具是極其迫切的 。如果有人想傳播假視頻,谷歌的YouTube或臉書的社交媒體平臺將是最好的選擇 。
想象一下假的伊麗莎白沃倫參議員 , 他和真的幾乎一樣,他們在修改后的視頻中打了一場激烈的戰斗 ?;蛘呒俚?。唐納德特朗普總統也這樣做了 。擁有這項技能的技術正在逐漸接近現實 。
亞利桑那州立大學計算機科學教授SubbaraoKambhampati說,“即使以目前的技術,一些人也很難分辨什么是真的,什么不是 ?!?br /> Deepfakes(一個常用來描述用尖端人工智能技術拍攝的視頻的術語)挑戰了我們對真假的假設 。
最近幾個月,視頻證據已經成為巴西、中非、加蓬和中國重大事件的中心 。大家都有同樣的疑問:視頻是真的嗎?以加蓬總統為例 。他在國外得不到醫療服務 , 他的政府發布了一段所謂的生命證明視頻 。反對者聲稱這是假的 。專家稱這種混亂是“騙子的紅利” 。
負責公司Deepfake研究的谷歌工程師之一尼克杜福爾說:“你已經看到了Deepfake的巨大影響 ?!薄八麄冊试S人們聲稱,否則視頻證據是偽造的,這將非常令人信服 ?!?br /> 【互聯網公司如何為未來的深造做準備?】幾十年來,計算機軟件使人們能夠操縱照片和視頻,或者從頭開始創建假圖像 。然而,這是一個緩慢而艱巨的過程,通常只有收到AdobePhotoshop或AfterEffects等不可預測軟件的專家才能使用 。
現在,人工智能技術正在簡化這一過程,從而降低篡改數字圖像所需的成本、時間和技能 。這些人工智能系統通過分析成千上萬幅真實圖像,獨立學習如何構建假圖像 。這意味著他們可以處理曾經屬于訓練有素的技術人員的部分工作量 。這意味著人們可以制造比以往任何時候都多的假貨 。
創建深度偽造的技術仍然是相當新的,結果通常很容易注意到 。但是技術在不斷發展 。盡管檢測這些假視頻的工具在不斷發展 , 但一些研究人員擔心他們跟不上步伐 。
谷歌最近表示,任何學術或企業研究人員都可以下載其合成視頻集,并使用它們來構建識別偽造品的工具 。視頻采集本質上是計算機數字欺騙的輪廓 。通過分析所有這些圖像 , 人工智能系統學會了如何監控假貨 。臉書最近也做了類似的事情,利用演員制作假視頻,然后發布給外部研究人員 。
專門從事人工智能的加拿大公司Dessa的工程師最近測試了由谷歌合成視頻制成的Deepfake探測器 。它可以識別幾乎完美的谷歌視頻 。然而 , 當他們在從互聯網上提取的Deepfake視頻上測試它的檢測器時,它有40%以上的時間都失敗了 。
他們最終解決了這個問題,但只有在野外發現的視頻(不是付費演員制作的)幫助重建探測器后,才證明探測器的性能和訓練它所用的數據一樣好 。
他們的測試表明 , 為了打擊虛假和其他形式的在線虛假信息,幾乎有必要不斷重塑它 。幾百個合成視頻并不足以解決問題,因為它們不一定具備今天分發的假視頻的特征,未來幾年還會更少 。
“與其他問題不同,這個問題在不斷變化 , ”Dessa的創始人兼機器學習主管RagavanThurairatnam說 。
2017年12月 , 一名自稱“假”的人開始利用AI技術將名人頭像嫁接到色情視頻中的裸照上 。隨著這種做法傳播到Twitter、Reddit、PornHub等服務,Deepfake這個詞進入了流行詞典 。很快,這就成了網上發布的任何假視頻的代名詞 。
創造深度偽造的技術的改進速度讓AI專家感到驚訝,沒有理由相信它會變慢 。多年來,Deepfakes應該受益于科技行業為數不多的公理之一 。
:計算機總是功能越來越強大,并且數據總是更多 。這使所謂的機器學習軟件更加有效 , 它可以幫助創建深層虛假 。
“它變得越來越容易 , 并且它將繼續變得越來越容易 。毫無疑問,”慕尼黑工業大學計算機科學教授Matthias Niessner說道 , 他正在與Google進行深度研究 。“這種趨勢將持續數年 。”
問題是:哪方面會更快改善?
像Niessner這樣的研究人員正在努力構建可以自動識別和刪除深層造假的系統 。這是同一枚硬幣的另一面 。像Deepfake創作者一樣,Deepfake檢測器通過分析圖像來學習其技能 。
檢測器也可以突飛猛進 。Niessner和其他研究人員說,但這需要持續不斷的新數據流,這些數據代表互聯網上使用的最新Deepfake技術 。收集和共享正確的數據可能很困難 。相關示例很少,出于隱私和版權的原因,公司不能始終與外部研究人員共享數據 。
盡管激進主義者和藝術家偶爾會發布深造假作,以展示這些視頻如何在線上改變政治言論,但這些技術并未廣泛用于傳播虛假信息 。據Facebook,谷歌和其他追蹤深度欺詐行為的人士稱 , 它們主要用于散布幽默或假色情 。
目前,deepfake視頻具有細微的瑕疵 , 即使肉眼無法察覺,也可以通過自動化系統輕松檢測到 。但是一些研究人員認為,改進后的技術將足夠強大,可以創建沒有這些微小缺陷的偽造圖像 。像Google和Facebook這樣的公司希望他們能夠在此之前安裝可靠的探測器 。
“在短期內,檢測將是相當有效的,”亞利桑那州立大學教授坎巴姆帕蒂說 。“從長遠來看,我認為將真實圖片和假圖片區分開是不可能的 。”