Sora 2標註AI生成水印 幾近形同虛設

Sora 2用AI生成視頻受到歡迎之餘,引來安全不足的質疑。OpenAI

有網站指導如何去除Sora 2浮水印。視頻截圖

本報訊

OpenAI全新人工智能(AI)視頻生成器Sora 2會在生成的視頻上增加可見浮水印,旨在協助人們辨別真實與AI生成視頻,然而這個小雲朵標誌非常容易被清除,已有數個網站教導在數分鐘內將其清除。

科技新聞網站404 Media指出,只要在任何社交媒體簡單搜尋「sora watermark」(Sora浮水印),就會看見多條網址,讓用戶上傳Sora 2視頻後,就可以移除浮水印。404 Media測試過其中三個網站,確實能在數秒之間將片中的浮水印清除。

專研經過數碼處理影像的柏克萊加大(UC Berkeley)教授法里德(Hany Farid)認為,將Sora 2視頻浮水印輕易移除是意料中事,「Sora不是第一個加入可見浮水印的AI模型,也不是第一次有人在這些模型發布數小時內釋出程式碼或提供服務來移除這些浮水印」。

在9月30日發布後數小時內,儘管OpenAI已經施加限制,Sora 2就已被演變成侵權機器,網民惡搞生成了納粹海綿寶寶和罪犯寶可夢等視頻,真假難辨。

OpenAI在網誌中強調,「所有生成結果發布時都帶有可見浮水印,所有Sora視頻也會被嵌入業界標準的C2PA元資料,我們會維護內部反向影像和音訊搜索工具,以高精準度對視頻追溯回到Sora,這些工具建立於ChatGPT圖像生成和Sora 1的成功系統上。」

專家認為這些安全措施仍有不足之處。數碼保安公司SocialProof Security執行長托巴克(Rachel Tobac)稱,可見浮水印不足以防止惡意用戶持續試圖利用Sora生成AI內容來欺騙人們。她曾看過有些工具透過改變內容的色調和亮度,從而分解AI產生的元數據,「不幸的是我們看到這些浮水印和元數據清除工具很容易就打破這個(C2PA)標準」。她稱,該標準適用於不太持久的AI垃圾產生器,但無法阻止不法之徒的濫用。

科技-三藩市版