僅需7張照片,任何人都能在這個(gè)世界上“無(wú)中生你”
伴隨著越來(lái)越多AIGC工具免費(fèi)開放,人們一方面可以利用相應(yīng)工具實(shí)現(xiàn)多種方式的展現(xiàn),而另一方面,人們的“偽造”成本也可以被降低,比如結(jié)合AIGC類工具,說不定就可以通過一句話的描述來(lái)憑空變出一個(gè)“人”。這便是AIGC對(duì)社會(huì)秩序所發(fā)起的挑戰(zhàn)。具體如何解讀,不妨來(lái)看作者的看法。
注意看,這是一位小學(xué)老師,他正赤裸著上身在學(xué)校教室里自拍。
如果這是一張真實(shí)的照片,那么圖片中這位名為John的小學(xué)老師很可能將被學(xué)校直接勒令開除。
圖片來(lái)自Arts Technica網(wǎng)站,版權(quán)屬于原作者
但好在,這位John是一個(gè)由Arts Technica為了做人工智能社交圖片實(shí)驗(yàn)而虛構(gòu)出來(lái)的人物。John的人物設(shè)定是一位普通的小學(xué)老師,和我們生活中的大部分的人一樣,在過去的 12 年里,John喜歡在 Facebook 上發(fā)布自己在工作記錄、家庭生活、假期照片等。
Arts Technica團(tuán)隊(duì)通過從中選取了7張含有John的圖片,再使用了近期大火的Stable Diffusion和谷歌研究院發(fā)布的Dreambooth兩個(gè)AIGC工具,接著就在社交媒體上生成了不同版本、讓人真假難辨的John。
在這些照片里,John從一位普通的、喜歡分享日常生活的英文老師,一會(huì)變成了一個(gè)喜歡在教室里、公眾場(chǎng)合脫衣服自拍的“危險(xiǎn)分子”,一會(huì)又變成了一個(gè)喜歡穿各種奇裝異服搞怪的“小丑”……翻看照片,每一張似乎都不是John,但每一張卻都有著John的臉。
而實(shí)際上,如今通過借助各種免費(fèi)開放的AIGC工具,John的經(jīng)歷可能會(huì)輕易地發(fā)生在我們每個(gè)普通人的身上。
一、當(dāng)AIGC遇上真人
Arts Technica表示,一開始在計(jì)劃做這個(gè)實(shí)驗(yàn)時(shí),他們征集了一些愿意分享自己的社交媒體圖片來(lái)做AI實(shí)驗(yàn)訓(xùn)練的志愿者,但由于生成出來(lái)的照片太真實(shí)、帶來(lái)的潛在名譽(yù)危害太大,讓他們最終放棄了使用真人的照片,而是選擇先用AI生成了一個(gè)虛擬的John。
實(shí)驗(yàn)結(jié)果讓他們感覺到,在當(dāng)前的技術(shù)環(huán)境下,我們每個(gè)普通人都處在一種潛在的危險(xiǎn)之中。
整個(gè)實(shí)驗(yàn)過程其實(shí)非常簡(jiǎn)單:從社交媒體上拿到的7張有個(gè)人臉部圖像的圖片,再使用網(wǎng)上開源和免費(fèi)的Stable Diffusion及Dreambooth的合成代碼,你就可以通過輸入一段描述性的語(yǔ)句,生成各種不同風(fēng)格和不同場(chǎng)景下有關(guān)這個(gè)人的圖片。
比如網(wǎng)友們用馬斯克網(wǎng)上的公開照片作為訓(xùn)練集,用它們生成了的各種風(fēng)格的圖片。
一些人也用維基百科的聯(lián)合創(chuàng)始人Jimmy Wales的公開照片進(jìn)行訓(xùn)練,把這個(gè)溫文爾雅的企業(yè)家變成了一位運(yùn)動(dòng)型的健美先生。
在這里,首先要帶大家快速回顧一下Stable Diffusion和Dreambooth的功能。
Stable Diffusion 是一個(gè)文字轉(zhuǎn)圖片的生成模型??梢灾挥脦酌腌姇r(shí)間就生成比同類技術(shù)分辨率、清晰度更高,更具“真實(shí)性”或“藝術(shù)性”的圖片結(jié)果。和其它同類型的AI生成圖片相比,Stable Diffusion 的生成結(jié)果更為寫實(shí)。
此外,Stable Diffusion還有一個(gè)重要特點(diǎn)就是其完全免費(fèi)開源,所有代碼都在 GitHub 上公開,任何人都可以拷貝使用。也正是“寫實(shí)”和“開源”兩個(gè)特性,也讓它在DALL·E、Imagen 等封閉及半封閉同類產(chǎn)品中“殺”出了一條道路。
Dreambooth則是來(lái)自于谷歌AI實(shí)驗(yàn)室的一種新的從文本到圖像的“個(gè)性化”(可適應(yīng)用戶特定的圖像生成需求)擴(kuò)散模型。它的特點(diǎn)是,只需幾張(通常 3~5 張)指定物體的照片和相應(yīng)的類名(如“狗”)作為輸入,即可通過文字描述讓被指定物體出現(xiàn)在用戶想要生成的場(chǎng)景中。
比如你輸入一輛汽車圖片,就可以下指令毫不費(fèi)力的改變它的顏色。你輸入一張松獅狗的照片,你可以在保留它的面部特點(diǎn)的情況下將它轉(zhuǎn)變成熊、熊貓、獅子等等,也可以讓它穿上不同的衣服出現(xiàn)在不同的場(chǎng)景之中。
圖片來(lái)自于https://dreambooth.github.io/
圖片來(lái)自于https://dreambooth.github.io/
本來(lái)呢,Stable Diffusion聚焦于用文本生成創(chuàng)意圖片,Dreambooth則聚焦于有條件限制地“改造”圖片,這兩個(gè)工具之間并沒有什么直接的交集。但奈何廣大網(wǎng)友們的想象力和行動(dòng)力都太過強(qiáng)大,他們把這兩個(gè)開源產(chǎn)品一搗鼓,很快就搞出了一個(gè)可以將Stable Diffusion和Dreambooth結(jié)合使用的新工具。
在這個(gè)新的工具中,你可以使用Dreambooth的功能用任何幾張圖片作為訓(xùn)練圖,在生成目標(biāo)之后,再結(jié)合Stable Diffusion強(qiáng)大的文本轉(zhuǎn)化功能,就可以讓這個(gè)指定目標(biāo)以任何你所想要描繪的形式出現(xiàn)。
二、娛樂之外,也打開了“潘多拉魔盒”
在這個(gè)新玩法出現(xiàn)之后,網(wǎng)友們就像發(fā)現(xiàn)了新大陸一般,開始紛紛嘗試改造自己的照片。
有人把自己化身為了西部牛仔、有人走進(jìn)了中世紀(jì)的油畫、有人變成了鐵血戰(zhàn)士等等……與此同時(shí),各種關(guān)于教普通人如何使用Stable Diffusion+Dreambooth的工具的教程視頻、文章也開始在網(wǎng)上出現(xiàn)。
圖片截自于Youtuber James Cunliffe
然而,當(dāng)大家都在開心地po著自己的圖片,大夸技術(shù)有趣炫酷的同時(shí),也有很多人開始關(guān)注到這個(gè)技術(shù)背后的隱藏的巨大風(fēng)險(xiǎn)。
相較于此前已經(jīng)被討論得很多的“深度偽造(Deepfake)”技術(shù)來(lái)說,AIGC類工具讓偽造從“換臉”直接進(jìn)化到了“無(wú)中生有”的階段,也就是說,任何人通過一句話的描述就可以憑空“變出”一個(gè)你。此外,“偽造”技術(shù)的門檻也變得更低,跟著一個(gè)Youtube視頻學(xué)個(gè)10分鐘,沒有技術(shù)背景的小白也可以輕松掌握。
據(jù)統(tǒng)計(jì),目前全世界有超過 40 億人使用社交媒體,如果你曾在社交媒體平臺(tái)上公開上傳過自己的照片,那么一旦有人產(chǎn)生了不良的動(dòng)機(jī),就將很容易地使用這些的圖片進(jìn)行造假和濫用。最后的結(jié)果可能是一張暴力照片、一張不雅照、一張侮辱性的照片,而這些照片則將能輕易地被用于栽贓嫁禍、校園霸凌、造謠傷害等各種灰暗的場(chǎng)景之中。
目前,從Stable Diffusion目前的生成圖片來(lái)看,如果仔細(xì)觀察還是比較容易分辨出人物的真假。但問題在于,鑒于最近幾年來(lái)AIGC技術(shù)的進(jìn)步非常迅速,人們或許將可能很快就無(wú)法用肉眼分辨生成照片和真實(shí)照片之間的區(qū)別。
而且,即使就是一張經(jīng)不起推敲的照片,但傳遞的負(fù)面信息其對(duì)一個(gè)人的破壞力也可能是驚人的。比如。若真的有文章開頭這位名為John的小學(xué)老師,當(dāng)有人看到他在教室里或者其他不雅照時(shí),無(wú)論真假,很可能僅僅是一個(gè)懷疑或者是謠言,就能毀掉他的聲譽(yù)和事業(yè)。
這就像是丹麥電影《狩獵》里演的一樣,即使最后證明小女孩對(duì)男教師的猥褻指控都是編造的,但由傳言所帶來(lái)的惡意依然在男教師的生活中如影隨形。
三、嘗試用“魔法打敗魔法
其實(shí)對(duì)于AIGC技術(shù),開發(fā)人員們也早已意識(shí)到了其可能帶來(lái)的危害。比如當(dāng)谷歌宣布推出Imagen、Dreambooth時(shí),在解釋文檔中都避免使用了真人的照片,而是用物品和可愛的動(dòng)物的圖片舉例進(jìn)行了說明。
不僅是谷歌,DallE等同類工具也無(wú)一不是如此。對(duì)此,麻省理工評(píng)論曾對(duì)這種轉(zhuǎn)移公眾視線的做法進(jìn)行了強(qiáng)烈質(zhì)疑。他們?cè)谖闹袑懙溃骸拔覀冎豢吹礁鞣N可愛的圖像,但看不到任何包含仇恨、刻板印象、種族主義、暴力、性別歧視的畫面。但即使不說,我們也清楚的知道,它們就在那里?!?/p>
目前,針對(duì)這個(gè)問題,很多平臺(tái)也在嘗試著用各種方法解決。其中,OpenAI和谷歌等一些平臺(tái)的解決辦法是將工具關(guān)在籠子里,僅開放給少數(shù)受信任的用戶使用;Stability AI 在最新發(fā)布的 2.0 版本的訓(xùn)練數(shù)據(jù)集中刪除了大部分含有不良信息的數(shù)據(jù),同時(shí)在軟件許可協(xié)議中明確規(guī)定不允許創(chuàng)建人物圖像。
但政策性的規(guī)定畢竟指標(biāo)不治本,近期,包括Stable Diffusion在內(nèi)的一些平臺(tái)也在嘗試使用技術(shù)手段解決這個(gè)問題,其中包括“不可見水印”技術(shù)。通過這種人眼看不到的水印,系統(tǒng)將能夠自動(dòng)識(shí)別圖片的真假,同時(shí)能對(duì)圖片的編輯和再生成進(jìn)行保護(hù)。
此外,針對(duì)訓(xùn)練的源頭——原始圖片保護(hù)上,上個(gè)月,MIT的研究人員宣布開發(fā)了一項(xiàng)過專門針對(duì)AI照片編輯的 PhotoGuard 技術(shù),用以阻止 AI 使用某些圖像接受訓(xùn)練。比如同樣的一張肉眼看不出區(qū)別的照片,使用了PhotoGuard技術(shù)之后,AI便無(wú)法從中提取到足夠的有效信息。
圖片來(lái)自gradientscience
最近一兩年來(lái),AIGC的技術(shù)突飛猛進(jìn),一大批圖像生成工具和ChatGPT的爆火出圈,讓大家意識(shí)到老生常談的人工智能時(shí)代這次似乎真的已經(jīng)在拐角了。
不久前Stable Diffusion的研究人員就曾表示,Stable Diffusion 將很可能在一年之內(nèi)就在智能手機(jī)上運(yùn)行。很多同類工具也都開始著手在更輕量化的設(shè)備上訓(xùn)練這些模型,比如目前ChatGPT的各種插件已經(jīng)開始被用戶廣泛使用。因此人們可能很快就會(huì)看到,由人工智能推動(dòng)的創(chuàng)意產(chǎn)出將在未來(lái)幾年出現(xiàn)爆炸式增長(zhǎng)。
但隨著AIGC走向公眾化、平民化,深度合成內(nèi)容制作的技術(shù)門檻越來(lái)越低,普通人僅需要少量的圖像、音頻、視頻、文本等樣本數(shù)據(jù),就能夠模糊信息真實(shí)和虛假的邊界。在沒有出臺(tái)相關(guān)法律規(guī)范的前提下,技術(shù)一旦被濫用,將會(huì)給個(gè)人、企業(yè)造成巨大風(fēng)險(xiǎn)與實(shí)質(zhì)性危害。
自從今年AI繪畫類工具爆火以來(lái),很多人把目光放在了AI對(duì)于藝術(shù)創(chuàng)作的顛覆上,但實(shí)際上,AI不僅是改變了創(chuàng)作模式,而是可能也對(duì)社會(huì)秩序發(fā)起了挑戰(zhàn)。有條件地限制AI的能力,這也可能是在讓AIGC改變我們的生活之前,必須要首先解決的問題。
參考文章:
- https://arstechnica.com/information-technology/2022/12/thanks-to-ai-its-probably-time-to-take-your-photos-off-the-internet/
- PhotoGuard技術(shù):http://gradientscience.org/photoguard/
作者:Juny,編輯:VickyXiao;公眾號(hào):硅星人(ID:covricuc)
原文鏈接:https://mp.weixin.qq.com/s/Ip-LyuSEG_xI9ttJP2Sz-g
本文由 @硅星人 授權(quán)發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)作者許可,禁止轉(zhuǎn)載
題圖來(lái)自 Unsplash,基于 CC0 協(xié)議
該文觀點(diǎn)僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺(tái)僅提供信息存儲(chǔ)空間服務(wù)。
- 目前還沒評(píng)論,等你發(fā)揮!