AI 畫(huà)得太逼真,以至于連 AI 自己都認(rèn)不出來(lái)了-訊息
“特朗普被逮捕了?。。 ?/p>
“消息”首先在 Twitter 傳開(kāi),熱度蹭蹭地竄升?!笆甲髻刚摺?Eliot Higgins 馬上出來(lái)澄清:“別誤會(huì)了,照片是我用 Midjourney 生成的,為此還花錢(qián)買了 V5 版本。”
特朗普被捕了丨來(lái)自 Twitter @Eliot Higgins
(資料圖)
但來(lái)不及了,這一系列照片(因?yàn)镠iggins還連載了“入獄”后續(xù))在 Instagram、TikTok 上“瘋傳”,全民狂歡的勁頭就像一起經(jīng)歷真實(shí)的政治事件——川普“入獄”、“越獄”、“出獄”、“再就業(yè)”等等層出不窮。
特朗普的獄中生活丨來(lái)自 Twitter@Eliot Higgins
由 AI 生成的內(nèi)容“謊騙”過(guò)人眼,起初人們還挺興奮,但問(wèn)題是,這種興奮在最近發(fā)生得過(guò)于頻繁,它開(kāi)始轉(zhuǎn)變?yōu)橐环N惶恐。
圖像之外,還有文字——包括 Science、Nature 等在內(nèi)的學(xué)術(shù)期刊對(duì)于 ChatGPT 的使用明令限制,不許將其列為論文合著者;一些高校甚至中學(xué)老師開(kāi)始頻繁抱怨,學(xué)生用 AI 生成的作業(yè)越來(lái)越多,也越來(lái)越難以甄別。
那么,在目前這個(gè)階段,我們還剩下哪些辦法能識(shí)別出“AI 出品”呢?
讓 AI 指認(rèn) AI:26%,我說(shuō)的是準(zhǔn)確率
如果你也一瞬間將“川普入獄圖”信以為真,或根本讀不出一篇中規(guī)中矩的新聞稿究竟是否出自人類之手,別懊惱!這確實(shí)不太容易。
幾年前 Deepfake 換臉圖片中,還常會(huì)因?yàn)槟槻繄D像疊加不好,出現(xiàn)“雙下巴”等醒目的錯(cuò)亂。然而今天 Midjourney 連結(jié)構(gòu)最難把握的手都能畫(huà)好了。
Deepfake 臉部重合問(wèn)題丨源自 Medium 作者Jonathan Hui
就連 AI 自己,對(duì)于什么內(nèi)容是自己生成的,也不太確信。OpenAI 做了一個(gè)分類模型(ai text classifier)檢測(cè)器(detector)(https://platform.openai.com/ai-text-classifier),在英文文本的評(píng)估中,正確識(shí)別了 26% 的 AI 生成文本,錯(cuò)誤地將 9% 的人類文本標(biāo)記為 AI 文本。
起初我對(duì)此結(jié)果存疑。直到我讓 Bing 以“春”、“夏”、”秋”、“冬”為話題分別寫(xiě)四首詩(shī),并交給 OpenAI 的檢測(cè)器來(lái)判斷。不幸的是,它給出的結(jié)果,分別是“文本非常不可能是 AI 寫(xiě)的”,“不可能是 AI 寫(xiě)的”,“不可能是 AI 寫(xiě)的”,“不可能是 AI 寫(xiě)的”——正確率為零。
OpenAI自己的 AI 識(shí)別工具,以及市面上另一家 originality.ai 做的檢測(cè)器本質(zhì)上都是“語(yǔ)言模型”——就跟 ChatGPT 一樣。
OpenAI 識(shí)別局限丨源自 OpenAI
Originality.ai (基于 Transformer )搭建了全新架構(gòu),在此之上訓(xùn)練一個(gè)預(yù)訓(xùn)練語(yǔ)言模型。然后用建立在數(shù)百萬(wàn)個(gè)樣本上的訓(xùn)練集對(duì)模型進(jìn)行微調(diào)。輸入一旦超過(guò)模型既定的閾值,就界定該內(nèi)容是被 AI 生成的。
為了提升準(zhǔn)確性,這類工具在生成訓(xùn)練數(shù)據(jù)中,要盡可能生成多樣化的數(shù)據(jù)(用不同生成方式,和用多個(gè)生成模型),以便模型更好地知道 AI 生成的文本類型。
利用現(xiàn)有的人類創(chuàng)作的文本數(shù)據(jù)對(duì)模型進(jìn)行微調(diào),使 AI 生成的文本更加自然(也就是更像“人話”),以便模型能學(xué)到,即便 AI 生成的文本越來(lái)越有“迷惑性”,但跟人類之間那個(gè)微妙的邊界仍然存在——這聽(tīng)起來(lái)更像 AI 假“識(shí)別”之名行模仿之事。
但至少目前,跨沒(méi)跨過(guò)那個(gè)“邊界”總有一些標(biāo)準(zhǔn)。GPTZero (也是一款 AI “殺手”,https://gptzero.me/)在辨別一段輸入是不是由 AI 生成的,它借助兩個(gè)文本屬性,困惑性(perplexity)、突發(fā)性(burstiness)。
“困惑性”是指一段文本的復(fù)雜性和隨機(jī)性。模型接受生成的文本數(shù)據(jù)集訓(xùn)練,所以機(jī)器下一個(gè)詞接什么,下一句話說(shuō)什么,可預(yù)測(cè)性更高。然而人類遣詞造句的隨機(jī)性就高了,說(shuō)出的話更加讓機(jī)器意想不到。
“突發(fā)性”則指句子之間的變化程度。人類寫(xiě)作,有更多的句子結(jié)構(gòu)變化,長(zhǎng)、短句,復(fù)雜、簡(jiǎn)潔句交替使用。機(jī)器生成的句子往往更加統(tǒng)一。
但模型的漏洞很容易鉆。AI 生成的內(nèi)容與日俱增,對(duì)一份全然不同于,且從未在訓(xùn)練集中出現(xiàn)的內(nèi)容,AI 極有可能預(yù)測(cè)錯(cuò)誤;短文本對(duì)于模型來(lái)說(shuō)簡(jiǎn)直是災(zāi)難,因?yàn)槲谋驹蕉?,呈現(xiàn)的變化可能性越少,OpenAI 要求輸入的文本至少有 1000 個(gè)字符。
那么 AI “鑒”畫(huà)的成績(jī)有好點(diǎn)嗎?
很遺憾,也沒(méi)有。
一位開(kāi)發(fā)者 Matthew Maybe 在開(kāi)發(fā)者社區(qū)上傳了自己的 image detector。(https://huggingface.co/spaces/umm-maybe/AI-image-detector)
實(shí)際上,他就是訓(xùn)練了一個(gè)圖片二分類模型。訓(xùn)練數(shù)據(jù)全部來(lái)自 Reddit,真實(shí)圖片來(lái)自 r/art 等版塊,AI 圖片來(lái)自 r/midjourney 等版塊,并“手動(dòng)”為這些圖片打了標(biāo)簽。
后來(lái)經(jīng)朋友提醒,還將真實(shí)圖片上傳日期限制在 2019 年之前,避免有 AI 生成圖片的混入。
使用評(píng)價(jià)褒貶不一,Reddit 用戶說(shuō),說(shuō)不好是不是靠猜的。因?yàn)樗脩粲?xùn)練的數(shù)據(jù)樣本太少,只有幾千個(gè)。另外他“故意”不去解決,由計(jì)算機(jī)處理過(guò)(可能指 PS 等軟件),而非 AI 生圖所造成的判斷結(jié)果“假陽(yáng)性”問(wèn)題。
“與其做一個(gè)完美模型,我更想對(duì)藝術(shù)家負(fù)責(zé)。”以至于,模型在判斷是不是“真”圖上,給出結(jié)果也有保守“傾向”。
研究者們認(rèn)為,即便一張圖片肉眼看起來(lái)“完美”,由于生成過(guò)程會(huì)留下痕跡,讓它仍能被識(shí)別出來(lái)是AI畫(huà)的。這些生成痕跡,與攝像頭拍攝留下的“標(biāo)識(shí)”不同。而且每個(gè)生成算法留下各自獨(dú)特痕跡,以便溯源。
過(guò)往在基于 GANs(生成式對(duì)抗網(wǎng)絡(luò))的 deepfakes “換臉術(shù)”中,通過(guò)找生成痕跡的檢測(cè)方法被證明是有效的。
于是上述研究者們想,類似方法能否用于這段時(shí)間發(fā)展起來(lái)的 AI 生圖所基于的擴(kuò)散模型上。他們發(fā)現(xiàn),擴(kuò)散模型留下的痕跡,普遍不如 GANs 明顯。例如 Stable Diffusion 的痕跡雖弱,但尚可用來(lái)檢測(cè),DALL-E 2 幾乎不可見(jiàn)。
生成痕跡在 DALL-E2 中幾乎不可見(jiàn)丨源自參考文獻(xiàn)[7]
基于模型之間的差距,以及對(duì)現(xiàn)有 detectors 做了效果評(píng)估之后,他們得出結(jié)論,現(xiàn)有 detectors 最大問(wèn)題是“通用性”。
引入一個(gè)擴(kuò)散模型生成的圖片用以訓(xùn)練,可以幫助檢測(cè)出類似模型生成的圖片,但對(duì)其他的檢測(cè)效果就不好。一個(gè)模型是為 GANs 訓(xùn)練的,它很難檢測(cè)出基于擴(kuò)散模型的生成圖片。
以及當(dāng)圖片因?yàn)樵谏缃幻襟w上經(jīng)常被壓縮、裁剪,從而質(zhì)量有所下降,detectors 識(shí)別起來(lái)就有困難。
先是信不過(guò)AI,然后就是人類的相互猜忌
但今天的 AI 畫(huà)圖,不見(jiàn)得找不出一點(diǎn)錯(cuò)。有的時(shí)候畫(huà)面缺少 3D 建模;在陰影和反射畫(huà)面中不對(duì)稱。肉眼挑錯(cuò)的方法雖不是長(zhǎng)久之計(jì),但至少是目前最可行的辦法。
比如在特朗普被捕的這些照片中。打眼一看畫(huà)面主體好像沒(méi)問(wèn)題,但仔細(xì)一看,畫(huà)面人物越多,“詭異”的事情越多。
比如“多腿”特朗普;
圖片來(lái)源 Twitter @Eliot Higgins
特朗普膚色不自然,面部呈現(xiàn)一種“蠟質(zhì)”的不真實(shí);以及找不到主人的手;
圖片來(lái)源Twitter @Eliot Higgins
警察的帽子和徽章都模糊處理,細(xì)看甚至不盡相同;
圖片來(lái)源Twitter @Eliot Higgins
當(dāng) AI 表現(xiàn)人物表情,往往以一種比較夸張的方式呈現(xiàn)。(有的時(shí)候就連微笑所帶來(lái)的皮膚褶皺都畫(huà)得非常明顯);
圖片來(lái)源Twitter @Eliot Higgins
以及 AI 似乎還沒(méi)學(xué)會(huì)“眼神追蹤”,一群追趕特朗普的人,他們看向的方向都不相同。
圖片來(lái)源Twitter @Eliot Higgins
而在普通人眼中認(rèn)為完美的 AI 藝術(shù),也在經(jīng)驗(yàn)老道的藝術(shù)家那里形成了一套“經(jīng)驗(yàn)主義”。
一名 3D 角色藝術(shù)家(Dan Eder)說(shuō),“如果想試圖辨認(rèn)一張 AI 生成圖像,應(yīng)該考慮作品的整體設(shè)計(jì)。假設(shè) AI 畫(huà)了一張“幻想戰(zhàn)士盔甲”,乍一看,很漂亮,細(xì)節(jié)也很豐富,但很多時(shí)候這背后沒(méi)有“邏輯”。邏輯是指,當(dāng)一位人類藝術(shù)家為角色創(chuàng)作盔甲,他得考慮到,這件盔甲的功能性,肢體位置,要能展開(kāi)多少?!?/p>
另一位藝術(shù)家則說(shuō),AI 生成的圖像缺乏“意向性”(指人類的每一個(gè)覺(jué)知都是指向外部事物),AI 沒(méi)什么經(jīng)驗(yàn)基礎(chǔ),能理解人、樹(shù)、手……是什么。“所有這些都是剛被扔進(jìn)畫(huà)面里的,為了讓你的提示詞和數(shù)據(jù)點(diǎn)對(duì)應(yīng)起來(lái)。這是它能呈現(xiàn)的最接近的東西,但不知道為什么?!?/p>
即便藝術(shù)家們聲稱:AI 做圖缺少一種清晰的視覺(jué)敘事。但這種說(shuō)法也被認(rèn)為是一種“事后諸葛亮”。
去年年底,一位數(shù)字藝術(shù)家 Ben Moran 發(fā)推,抱怨自己的作品被 r/Art 版塊審核員“禁了”,原因是違法了“no AI art”規(guī)則。這幅“戰(zhàn)區(qū)繆斯”(a muse in warzone)風(fēng)格的確類似很多 AI 生成藝術(shù)(在當(dāng)時(shí))——文藝復(fù)興繪畫(huà)風(fēng)格,穿著戰(zhàn)士服的女性。
Moran 自證丨圖片來(lái)源Ben Moran
Moran 說(shuō),“不信,我交出 PSD 文件。”審核員卻說(shuō),“不必!如果你是一個(gè)‘正經(jīng)兒’藝術(shù)家,你得畫(huà)些其他風(fēng)格??谡f(shuō)無(wú)憑,因?yàn)椴粫?huì)有人再相信,AI 沒(méi)‘替’你畫(huà)畫(huà)?!?/p>
AI 學(xué)習(xí)網(wǎng)絡(luò)上大量畫(huà)作,從而形成自己“傾向性”的風(fēng)格,這本不是人類的錯(cuò)。AI 生成內(nèi)容逼近肉眼可辨的真實(shí),連內(nèi)容創(chuàng)作“金字塔”尖的藝術(shù)家們也需要自證。諷刺的是像上述例子,為了自證,人類需要主動(dòng)“避開(kāi)” AI 所“擅長(zhǎng)”的東西了。
參考文獻(xiàn)
[1]https://12ft.io/proxy?q=https%3A%2F%2Fwww.wired.com%2Fstory%2Fhow-to-tell-fake-ai-images-donald-trump-arrest%2F
[2]https://www.inquirer.com/politics/nation/ai-trump-arrest-photos-fake-20230322.html
[3]https://originality.ai/how-does-ai-content-detection-work/
[4]https://originality.ai/huggingface-ai-content-detection-review/
[5]https://openai.com/blog/new-ai-classifier-for-indicating-ai-written-text
[6]https://www.npr.org/2023/01/09/1147549845/gptzero-ai-chatgpt-edward-tian-plagiarism
[7]https://arxiv.org/pdf/2211.00680.pdf
[8] https://medium.com/@matthewmaybe/can-an-ai-learn-to-identify-ai-art-545d9d6af226
關(guān)鍵詞:
責(zé)任編輯:hnmd004
- AI 畫(huà)得太逼真,以至于連 AI 自己都認(rèn)不2023-03-31
- 天天實(shí)時(shí):為了一份實(shí)踐證明,大學(xué)生甘當(dāng)免2023-03-31
- 能鏈科技,能源界的“美團(tuán)”?2023-03-31
- 世界新消息丨崔東樹(shù):合并“藍(lán)牌”“綠牌”2023-03-31
- 國(guó)家“十四五”抽水蓄能規(guī)劃重點(diǎn)實(shí)施項(xiàng)目—2023-03-31
- 國(guó)家電投錢(qián)智民:新能源成為未來(lái)電力裝機(jī)的2023-03-31
- 穩(wěn)定幣USDC在過(guò)去兩周內(nèi)市值暴跌100億美元2023-03-31
- 英國(guó)內(nèi)政大臣啟動(dòng)經(jīng)濟(jì)犯罪計(jì)劃 每日快看2023-03-31
- 【環(huán)球時(shí)快訊】西藏證監(jiān)局對(duì)東方財(cái)富證券股2023-03-31
- 華潤(rùn)微:碳化硅產(chǎn)品二極管和MOS均已系列化2023-03-31
- 【環(huán)球聚看點(diǎn)】博鰲亞洲論壇2023年年會(huì)閉幕2023-03-31
- 【世界聚看點(diǎn)】國(guó)家“十四五”抽水蓄能規(guī)劃2023-03-31
- 崔東樹(shù):合并“藍(lán)牌”“綠牌”后新能源車市2023-03-31
- 國(guó)家電投錢(qián)智民:新能源成為未來(lái)電力裝機(jī)的2023-03-31
- 全國(guó)碳市場(chǎng)交易價(jià)格行情日?qǐng)?bào)【2023年3月302023-03-31
- 每日訊息!浙江峰谷差1.26元/度!全國(guó)4月代2023-03-31
- 全球熱推薦:河南武陟警方通報(bào)“民辦小學(xué)關(guān)2023-03-31
- 大連市民營(yíng)經(jīng)濟(jì)發(fā)展大會(huì)召開(kāi)_世界熱消息2023-03-31
- 蒙牛2022年業(yè)績(jī)|連續(xù)18年市場(chǎng)份額第一,低2023-03-31
- 全景求是:大廠為何要通過(guò)背景調(diào)查來(lái)控制招2023-03-31
- 漢中市名優(yōu)新特產(chǎn)品亮相西安 速看料2023-03-31
- 漢中:勉縣舉辦春茶品鑒會(huì)2023-03-31
- 每日資訊:漢中市寧強(qiáng)縣安樂(lè)河鎮(zhèn):小小羊肚2023-03-31
- 漢中市漢臺(tái)區(qū):“龍游花海·共賞非遺”龍江2023-03-31
- 世界播報(bào):漢中經(jīng)四川巴中至南充鐵路嘉陵江2023-03-31
- 國(guó)家外匯局:2月我國(guó)國(guó)際收支貨物和服務(wù)貿(mào)2023-03-31
- 大型儲(chǔ)能電站項(xiàng)目落戶山東棲霞,助力煙臺(tái)邁2023-03-31
- 快看點(diǎn)丨兩輪車巨頭入局!又一款鈉離子電池2023-03-31
- 三種新技術(shù)!這個(gè)海上風(fēng)電“試驗(yàn)場(chǎng)”正式投2023-03-31
- 環(huán)球即時(shí):杭州臨安區(qū)出臺(tái)購(gòu)房新政:公積金2023-03-31