以下文章來源于趣解商業(yè) ,作者張語格
作者 | 張語格
編輯 | 趣解商業(yè) TMT 組
" 看到好萊塢的標(biāo)志牌著火的圖片,還以為好萊塢陷落了,結(jié)果竟然是 AI 偽造的。"
影迷橙子(化名)之前時(shí)常和朋友吐槽,社交平臺(tái)上 AI 生成的圖片是 " 一眼假 ",然而,在前兩天洛杉磯山火相關(guān)的新聞圖中,橙子完全沒意識(shí)到里面摻雜了大量 AI 假圖。
" 好萊塢標(biāo)志牌著火的那張圖,各個(gè)影迷群幾乎都傳瘋了,大家還調(diào)侃這是在電影市場之外,先在物理層面‘陷落’了,結(jié)果,第二天就看見媒體辟謠說這張照片是 AI 偽造的。" 橙子表示,這張假圖本身就有情緒性,和新聞報(bào)道放在一起更顯得真假難辨。
" 趣解商業(yè) " 注意到,雖然已經(jīng)辟謠,但至今仍有不少網(wǎng)友將這張 AI 圖當(dāng)作真實(shí)照片。
01.
你被 AI 騙過嗎?
在 " 好萊塢標(biāo)志牌著火 " 之前,西藏定日 6.8 級(jí)地震發(fā)生后,也曾有一張 AI 生成的 " 小男孩被困 " 圖片在社交媒體上瘋狂流傳。
橙子無奈表示," 當(dāng)時(shí)我還吐槽這種人物圖 AI 味道太重,手指數(shù)目不對,臉部虛化過于嚴(yán)重,只有完全不了解 AI 的中老年群體才會(huì)信。結(jié)果沒幾天,我就被好萊塢著火的 AI 圖給‘騙’過去了。"
在近日的社會(huì)新聞里," 好萊塢標(biāo)志牌著火 " 和 " 地震被埋男孩 " 欺瞞了不少人的眼睛,盡管兩張圖都已經(jīng)被官方辟謠,但仍有不少用戶 " 深信不疑 ",其中也包括很多年輕人。
據(jù)媒體報(bào)道,經(jīng)查,青海某網(wǎng)民為博取眼球,將 " 小男孩被埋圖 " 與日喀則地震相關(guān)的信息進(jìn)行關(guān)聯(lián)拼湊、移花接木,混淆視聽、誤導(dǎo)群眾,致使謠言信息傳播擴(kuò)散。目前,涉案人員已被屬地公安機(jī)關(guān)依法行政拘留。
1 月 10 日晚間,抖音官方發(fā)布公告稱,平臺(tái)已嚴(yán)肅處置 23652 條涉地震不實(shí)信息并配發(fā)了辟謠內(nèi)容。公告中還提到,2023 年和 2024 年,抖音就曾發(fā)布 AI 內(nèi)容治理相關(guān)公告,明確平臺(tái)不鼓勵(lì)利用 AI 生成虛擬人物進(jìn)行低質(zhì)創(chuàng)作,將嚴(yán)格處罰違規(guī)使用 AI 生成虛擬人物發(fā)布違背科學(xué)常識(shí)、弄虛作假、造謠傳謠的內(nèi)容。
經(jīng)常刷短視頻的陳沐(化名)表示,現(xiàn)在刷到 AI 創(chuàng)作的內(nèi)容概率越來越高了," 你看完一個(gè)換臉視頻以后,平臺(tái)就會(huì)瘋狂給你推類似的 AI 換臉二創(chuàng)。" 然而,目前社媒平臺(tái)的審核并不能完全精準(zhǔn)識(shí)別到所有 AI 創(chuàng)作內(nèi)容,還需要用戶發(fā)布時(shí)自覺勾選標(biāo)注;而因?yàn)?AI 內(nèi)容聲明的標(biāo)識(shí)并不顯著,有些內(nèi)容即使明確標(biāo)識(shí)是 AI 創(chuàng)作,仍會(huì)被很多用戶當(dāng)作真實(shí)內(nèi)容。
據(jù)媒體報(bào)道,2024 年 6 月中旬,一家 MCN 機(jī)構(gòu)的實(shí)際控制人王某某因利用 AI 軟件生成虛假新聞并大肆傳播,擾亂公共秩序,被警方行政拘留。據(jù)警方通報(bào),王某某共經(jīng)營 5 家 MCN 機(jī)構(gòu),運(yùn)營賬號(hào) 842 個(gè),自 2024 年 1 月以來,王某某通過 AI 軟件生成虛假新聞,最高峰一天能生成 4000 至 7000 篇。
2024 年下半年,有網(wǎng)友稱自己在小紅書上通過賬號(hào)矩陣管理軟件同時(shí)操控 1327 個(gè) AI 美女賬號(hào),沒有任何一個(gè)被平臺(tái)識(shí)別出來。由于 AI 真人賬號(hào)過多,小紅書上還出現(xiàn)了專門打假的博主。
有網(wǎng)友表示,為了避開技術(shù) bug,很多 AI 生成的 " 真人圖 " 通常會(huì)避免出現(xiàn)手指," 很多人都是用提示詞讓手伸出畫面,放在身后,握拳,用東西遮擋雙手等;如果是真人視頻,則要注意口型,AI 生成視頻一般口型和臺(tái)詞會(huì)對不上,或是不太自然。"
然而,也并不是所有人都在乎照片、視頻里的形象是不是真人。有網(wǎng)友表示," 好看、能提供情緒價(jià)值就可以了,難道那些真人博主就長得和照片一模一樣?既然都不真實(shí),是不是 AI 又有什么所謂?"
由于對 " 數(shù)字人 " 警惕性不足,通過 AI 換臉的詐騙案也層出不窮。
據(jù)《北京商報(bào)》報(bào)道,2024 年 2 月有詐騙犯運(yùn)用 Deepfake 深度偽造技術(shù),制作出公司高層發(fā)言視頻,誘導(dǎo)職員先后 15 次將 2 億港元轉(zhuǎn)至指定賬戶。
除此之外,還有用 AI 換臉真人制作色情影片、盜刷醫(yī)保的違法案例。杭州曾有人通過 AI 換臉偽造女明星涉黃視頻,甚至還組建群聊,滿足定制換臉色情影片的需求,根據(jù)時(shí)長、視頻難度收取相應(yīng)的費(fèi)用。杭州蕭山檢察在該群內(nèi)查獲的淫穢視頻高達(dá) 1200 余部。
AI 模糊了真實(shí)與虛假的邊界,也給越來越多的人帶來困擾。
北京周泰律師事務(wù)所張子航律師表示,在公共事件中,故意歪曲事實(shí),用 AI 或者其他技術(shù)手段制作圖片、視頻,并在社交平臺(tái)傳播造成負(fù)面影響的,首先要追究的是制作者的責(zé)任,制作者面臨的可能是行政責(zé)任,也可能是刑事責(zé)任。
此外,發(fā)布虛假信息的社交平臺(tái),也有可能要承擔(dān)法律責(zé)任。張子航律師表示,平臺(tái)雖然不是技術(shù)和內(nèi)容的提供者、制作者,但負(fù)有審核和監(jiān)管義務(wù),社交平臺(tái)如未能盡到義務(wù),導(dǎo)致虛假圖片傳播并造成嚴(yán)重的負(fù)面影響,監(jiān)管部門有權(quán)對發(fā)布平臺(tái)做出罰款、責(zé)令整改等形式的處罰。
02.
AI 正 " 污染 " 互聯(lián)網(wǎng)
社交平臺(tái)上,不止一個(gè)網(wǎng)友表達(dá)過對 "AI 入侵 " 的擔(dān)憂。
有小紅書網(wǎng)友表示,現(xiàn)在 AI 大模型迭代速度很快,2023 年用 AI 畫人類的手和腳還亂七八糟,2024 年 Flux 模型畫手的正確率就明顯提升了很多,再過幾年,說不準(zhǔn) AI 就能正確畫出人體各部位,還有各種肢體動(dòng)作了。" 若不加強(qiáng)管理,到時(shí)社交網(wǎng)絡(luò)上恐怕會(huì)變得烏煙瘴氣。"
AI 生成的內(nèi)容,同樣也充斥著海外的社交網(wǎng)絡(luò),有些嚴(yán)重侵害了明星、名人的權(quán)益,有些甚至在經(jīng)濟(jì)層面產(chǎn)生了嚴(yán)重影響。
2024 年 1 月,由 AI 生成的明星泰勒 · 斯威夫特 " 不雅照 " 在 X(原推特)、臉書等社交媒體上流傳,瀏覽量已過千萬,引發(fā)公眾關(guān)注。
據(jù)網(wǎng)絡(luò)安全公司 Home Security Heroes2023 年發(fā)布的數(shù)據(jù),2023 年網(wǎng)絡(luò)上可監(jiān)測到的 Deepfake 視頻有 95280 個(gè),其中 98% 都是色情內(nèi)容,而這類內(nèi)容的主角 99% 都是女性。
2023 年 5 月,一張五角大樓發(fā)生爆炸的照片曾在 Twitter 上被大范圍轉(zhuǎn)發(fā),其中包括很多投資相關(guān)的網(wǎng)站和社媒賬戶;據(jù)媒體報(bào)道,照片發(fā)布正趕上美國股市當(dāng)天的開盤時(shí)間,一度引發(fā)美股恐慌性短暫下跌。
互聯(lián)網(wǎng)觀察基金會(huì) IWF 的分析師曾表示,AI 生成的非法內(nèi)容(包括兒童受虐圖片、AI 名人換臉視頻等)正在急劇增加,像我們這樣的組織或者警察,可能會(huì)被成百上千張新圖片的鑒別工作壓垮,我們并不總能知道,在這其中是否真的有一個(gè)孩子需要幫助。
張子航律師認(rèn)為,AI 逐漸讓人意識(shí)到,眼見并不為實(shí)。AI 技術(shù)的推廣,有可能使得網(wǎng)民對網(wǎng)絡(luò)信息從一個(gè)極端到另一個(gè)極端,也就是從全信到全不信。
除了入侵互聯(lián)網(wǎng)內(nèi)容生態(tài),AI 生成的內(nèi)容也給大模型訓(xùn)練帶來了風(fēng)險(xiǎn)。中國信通院發(fā)布的《人工智能治理藍(lán)皮書(2024 年)》提到,近年來,人工智能內(nèi)生風(fēng)險(xiǎn)加大,模型缺陷、幻覺等問題凸顯;人工智能應(yīng)用風(fēng)險(xiǎn)不斷蔓延,人機(jī)倫理、勞動(dòng)替代、能源短缺等問題突出。
OpenAl 前首席技術(shù)官 Mira Murati 曾指出,底層大型語言模型的最大挑戰(zhàn)是會(huì)編造錯(cuò)誤或不存在的事實(shí)。
牛津大學(xué)的伊利亞舒梅洛夫博士及其團(tuán)隊(duì)在《Nature》上發(fā)表的論文提到,當(dāng)生成模型開始接受 AI 內(nèi)容訓(xùn)練時(shí),最終生成內(nèi)容的質(zhì)量會(huì)明顯下降,反饋循環(huán)可能導(dǎo)致模型輸出偏離現(xiàn)實(shí)、甚至有明顯偏見的內(nèi)容,研究人員將這種現(xiàn)象稱為 " 模型崩潰 "。
此前,國內(nèi)領(lǐng)先的 AI 實(shí)驗(yàn)室 DeepSeek 發(fā)布新的 AI 模型 DeepSeek V3 模型就出現(xiàn)在測試中竟然聲稱自己是 OpenAI 的 ChatGPT 的情況,并且能夠詳細(xì)闡述 OpenAI API 的使用方法。
參與過文本生成模型研究的子璐(化名)表示,大模型訓(xùn)練的數(shù)據(jù)在投喂前都會(huì)進(jìn)行篩選和清洗,圖片、視頻的生成在技術(shù)上更復(fù)雜,訓(xùn)練數(shù)據(jù)的樣本也更容易去做清洗,比如固定去找一些攝影師的作品。" 相比之下,文本生成的訓(xùn)練數(shù)據(jù)會(huì)更雜一些,也更容易被污染,如果沒有人工仔細(xì)篩選,很可能會(huì)收錄進(jìn)一些虛假的新聞。"
如果 AIGC 的增加是必然趨勢,那普通用戶該如何對這類內(nèi)容有效甄別?某互聯(lián)網(wǎng)大廠 AI 安全研究員 Lisa(化名)對此表示,普通用戶可以從圖像的視覺紋理特征來區(qū)分 AI 創(chuàng)作。"
除此之外,文本和圖像還可以借助第三方工具來辨別?!度斯ぶ悄苤卫硭{(lán)皮書(2024 年)》提到," 以技治技 " 正在成為平衡人工智能安全與創(chuàng)新的必要工具。
據(jù) " 趣解商業(yè) " 了解,現(xiàn)在已經(jīng)有 AIGC 檢測工具根據(jù)相似檢索、內(nèi)容檢測和水印追溯等方法,支持文本、圖片等 AI 生成內(nèi)容的檢測。Lisa 表示,如今生成內(nèi)容越來越逼真,真實(shí)圖片與生成圖片的特征差異越來越小,檢測工具的模型學(xué)習(xí)難度其實(shí)也在增加。
不過,大部分用戶都是不熟悉 AI 技術(shù)的普通人,不具備鑒別意識(shí)和能力,識(shí)別 AIGC、鑒別真假不應(yīng)成為用戶的負(fù)擔(dān)和責(zé)任。創(chuàng)作者應(yīng)自覺聲明內(nèi)容屬性,平臺(tái)擁有更完善的技術(shù)資源和團(tuán)隊(duì),更應(yīng)承擔(dān)起識(shí)別和審查 AI 內(nèi)容的主要責(zé)任。
03.
發(fā)展和治理 " 兩手抓 "
張子航律師認(rèn)為,想要防范 AI 創(chuàng)作內(nèi)容帶來的風(fēng)險(xiǎn),除了用戶增強(qiáng)核實(shí)意識(shí)與能力,平臺(tái)也應(yīng)當(dāng)加強(qiáng)規(guī)范。" 尤其要關(guān)注短時(shí)間內(nèi)被頻繁關(guān)注、轉(zhuǎn)發(fā)的內(nèi)容,如果發(fā)現(xiàn)是 AI 創(chuàng)作,確認(rèn)為虛假信息后應(yīng)當(dāng)予以刪除,如果不能確認(rèn)真假,也應(yīng)當(dāng)提示和標(biāo)注該內(nèi)容為 AI 創(chuàng)作。
據(jù) " 趣解商業(yè) " 了解,目前已有多家社媒平臺(tái)針對 AIGC 內(nèi)容做出了相應(yīng)的監(jiān)管規(guī)范。
小紅書在 2023 年啟動(dòng)了 AIGC 治理體系建設(shè),對識(shí)別為疑似 AI 生成的內(nèi)容進(jìn)行顯著標(biāo)識(shí);抖音也在 2023 年、2024 年陸續(xù)發(fā)布了《關(guān)于人工智能生成內(nèi)容的平臺(tái)規(guī)范暨行業(yè)倡議》《 AI 生成虛擬人物治理公告》等一系列公告,并持續(xù)對多種 AIGC 造假內(nèi)容進(jìn)行嚴(yán)厲打擊;今年 1 月,快手還在站內(nèi)開設(shè)了 " 辟謠 " 榜位,通過官方賬號(hào)轉(zhuǎn)發(fā)辟謠作品,利用算法優(yōu)化,增加辟謠內(nèi)容曝光量,同時(shí)將辟謠信息精準(zhǔn)推送給曾瀏覽過相關(guān)謠言的用戶。
中國企業(yè)資本聯(lián)盟中國區(qū)首席經(jīng)濟(jì)學(xué)家柏文喜認(rèn)為,除了加強(qiáng)監(jiān)管和治理,平臺(tái)還可以完善用戶舉報(bào)機(jī)制,以及建立版權(quán)保護(hù)機(jī)制,要求用戶在使用 AI 生成內(nèi)容時(shí)必須遵守相關(guān)的版權(quán)法規(guī),明確標(biāo)注內(nèi)容的來源和版權(quán)歸屬,防止侵權(quán)行為的發(fā)生;同時(shí)也要注重用戶教育,通過平臺(tái)的官方渠道,如發(fā)布指南、教程、案例分析等形式,提高用戶對 AI 內(nèi)容的識(shí)別能力和辨別真?zhèn)蔚囊庾R(shí)和能力。
張子航律師還表示,AI 生成工具要有提供顯著標(biāo)識(shí)的功能,像人臉替換、人聲合成等顯著改變個(gè)人身份特征的編輯服務(wù),應(yīng)當(dāng)強(qiáng)制標(biāo)識(shí)為 AI 創(chuàng)作。" 如果這類服務(wù)未強(qiáng)制標(biāo)識(shí),創(chuàng)作者也不聲明為 AI 創(chuàng)作,我個(gè)人認(rèn)為是構(gòu)成共同侵權(quán)的,需要承擔(dān)一部分的侵權(quán)責(zé)任。"
"AI 工具企業(yè)會(huì)避免生成含有色情、暴力等價(jià)值觀扭曲的內(nèi)容,但卻管不了內(nèi)容的用途。如果有人要求 AI 生成一張性感女孩的換臉照片,照片本身并沒有危害,但用戶拿這張照片造謠中傷女孩,這其實(shí)是使用者的問題,也是 AI 企業(yè)很難管轄的領(lǐng)域。"
如今,國內(nèi)外都愈加重視對 AIGC 的監(jiān)管與合規(guī)性問題,目前至少有 60 多個(gè)國家制定和實(shí)施了人工智能治理政策。
2023 年 1 月 10 日,國家互聯(lián)網(wǎng)信息辦公室、工業(yè)和信息化部和公安部聯(lián)合發(fā)布的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》正式施行,旨在加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)深度合成管理,維護(hù)國家安全和社會(huì)公共利益,保護(hù)公民、法人和其他組織的合法權(quán)益;此后,國家網(wǎng)信辦聯(lián)合國家發(fā)展改革委等多部門公布了《生成式人工智能服務(wù)管理暫行辦法》,并自 2023 年 8 月 15 日起施行。
新的技術(shù)進(jìn)步呼吁新的監(jiān)管體系,而這一點(diǎn)并不能完全指望科技商業(yè)公司的自我約束,需要監(jiān)管方、平臺(tái)方的共同努力。盡管 AI 的應(yīng)用范圍廣泛且難以界定,但法律和道德的邊界始終清晰;未來,政策監(jiān)管和平臺(tái)審核的力度必然會(huì)更加深入,社交平臺(tái)上的內(nèi)容生態(tài)還會(huì)因此發(fā)生哪些改變,值得進(jìn)一步關(guān)注。