人工智能創(chuàng)造了一個假世界 - 這對人類意味著什么?
老話說“眼見為實”,這句話放在幾年之前或許還有些可信度,那個時候我們在照片和視頻中看到的內(nèi)容可以說是真實的。即使photoshopping圖像流行開來,我們?nèi)匀幌嘈舙過的圖片也總有個原圖。
然而,現(xiàn)在隨著的進(jìn)步,世界變得越來越虛化,你甚至不能確定你所看到或聽到的是真實的,還是人工智能和機(jī)器創(chuàng)造的。在許多情況下,這項技術(shù)用得很好,但既然它存在,它也可以用來欺騙。
人工智能創(chuàng)造了一個假世界 - 這對人類意味著什么?
“智能虛構(gòu)”的迷思
其實,如果觀眾能夠足夠了解,就會接受人工智能的“虛構(gòu)”。多年來,為了我們能夠能快樂地享受娛樂品,我們已經(jīng)開始接受電影和電視屏幕上對現(xiàn)實生活的表現(xiàn)。不過現(xiàn)在,好萊塢已經(jīng)連寫劇本都要獲得協(xié)助。

adobe公司正嘗試用機(jī)器模仿聲音,可創(chuàng)建一份30分鐘的合成音頻(洛杉磯時報2019年4月13日)
隨著機(jī)器學(xué)習(xí)的發(fā)展,算法可以對大量數(shù)據(jù)進(jìn)行分類分析,以了解哪些元素更有可能使電影獲獎,商業(yè)成功或更受觀眾歡迎。這是人工智能幫助人們?nèi)プ鲆恍皠?chuàng)造性活動”的另一個例子,(甚至他們可以自己做,根本用不到人類)
合成的聲音
現(xiàn)在只需要將音頻放入機(jī)器算法之中,它就能模擬出這個人的聲音,從而模糊真假之間的界限。這在某些情況下肯定會有所幫助,例如修復(fù)電影中的即時聲音采集,而不用讓演員回到現(xiàn)場重新錄制,但濫用的機(jī)會也是可能的,并且很容易想象。

ai拯救渣畫質(zhì)
智能內(nèi)容
個性化或智能內(nèi)容的出現(xiàn)是把雙刃劍,其他人工智能程序也一樣,它們應(yīng)該對用戶透明,否則就不是“科技引領(lǐng)生活”而成了“科技誤導(dǎo)生活”。?這里說的智能內(nèi)容是指內(nèi)容本身根據(jù)訂閱者的用戶畫像而自覺進(jìn)行的內(nèi)容變化,并且正在通過netflix和tiktok(一種短視頻應(yīng)用)進(jìn)行測試。我們習(xí)慣于我們的搜索和推薦引擎根據(jù)我們自身特點向我們推送“更適合”的信息,智能內(nèi)容會允許每個用戶獲得不同的體驗。

就在我還在看這篇文章的時候,網(wǎng)站就會給我推送“you may also like”
deepfake專業(yè)”槍手“
gpt2是openai(一個由埃隆·馬斯克投資的非營利性研究組織)開發(fā)的一個人工智能模型。它可以根據(jù)你輸入進(jìn)去的數(shù)據(jù)的語言特點來生成文字內(nèi)容,不論這是發(fā)在朋友圈的、還是寫進(jìn)科幻小說里的、還是其他任何一種語境。該小組沒有公開發(fā)布其研究報告,因為現(xiàn)實是很可怕的,他們害怕技術(shù)被濫用。
不再可信的照片
為了提高對人工智能技術(shù)的認(rèn)識,phillip wang創(chuàng)建了網(wǎng)站“?這個人不存在?!??網(wǎng)站上代表的每一個人臉看起來都像一個真人,但它們都是人工智能生成的。另一個類似的網(wǎng)站,whichfaceisreal.com,它的創(chuàng)建也是為了提高人們對這種技術(shù)的能力的認(rèn)識,要欺騙人們簡直太輕松了。兩個站點都旨在反映nvidia公司的軟件工程師所開發(fā)的技術(shù)有多么的強(qiáng)大。他們使用了“通用對抗網(wǎng)絡(luò)”(general adversarial network),這種技術(shù)就是說,兩個神經(jīng)網(wǎng)絡(luò)在創(chuàng)建人工圖像時反復(fù)競爭,通過計算機(jī)強(qiáng)大的高效的計算能力不斷地去“糾正對方”,最終兩者之間的和解就是問題的“最優(yōu)解”。盡管在某些人臉中有一些細(xì)節(jié)能讓他們暴露,但很多情況下都可以以假亂真。
假視頻的危險性
乍一看,人工智能的能力創(chuàng)造逼真的聲音,圖像和視頻,如此逼真,令人興奮,令人捧腹、令人難以置信。但在深入了解這項技術(shù)之前,我們必須停下來考慮更惡毒的用途。
“?deepfake?”技術(shù)使用計算機(jī)生成的音頻和視頻來呈現(xiàn)并未發(fā)生的事情。它被用來交換斯嘉麗·約翰遜的頭像以及色情電影中的其他著名人物,也就是我們說的ai換臉,(此前本號文章中具體談?wù)撨^這種被bbc稱為“色情報復(fù)的強(qiáng)大武器”)

除了個人的虛假陳述和可能對個人造成的損害之外,一些?立法者還擔(dān)心?這種技術(shù)可能在互聯(lián)網(wǎng)上傳播的錯誤信息。
這部奧巴馬總統(tǒng)的視頻?展示了音頻/視頻被操縱的可能性,以便讓一個有權(quán)威的人說出他們實際上從未做過的事情。除了影響個人聲譽之外,這種欺騙可能對國家安全和選舉產(chǎn)生負(fù)面影響。

youtube用戶用聲音模擬軟件做出的奧巴馬演講視頻
中國的國營新聞機(jī)構(gòu)新華社,也開發(fā)了自己的人工智能主持人,如果不是特殊說明,還真的不好分辨它究竟是一串代碼,還是一個真實的人。

新華社的ai主持人
隨著ai越來越復(fù)雜,確定什么是真實的和什么是人為的將變得更具挑戰(zhàn)性。如果“假”信息以文本,照片,音頻或視頻傳達(dá),輕易的迷惑大眾,則可以用于惡意目的?;蛟S我們再也不能相信“眼見為實”了。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“機(jī)電號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of JDZJ Hao, which is a social media platform and only provides information storage services.
