

本報訊
由馬里蘭大學和紐約大學進行的一項最新研究指出,DALL-E 2和Stable Diffusion等人工智能(AI)圖像生成模型,可以而且確實會複製來自訓練數據的圖像,包括有版權的資料。隨著這些服務進入廣泛商業用途,恐造成抄襲和侵權疑慮。
不過這份研究尚未接受同儕審查。聯合作者向一場研討會提交研究結果,研討會的規則禁止媒體瀏覽,直至該研究已被接受發表。一名不願透露姓名的研究員透過電郵向科技新聞網站TechCrunch分享想法。
研究員寫道︰「儘管Stable Diffusion之類的擴散模型產生漂亮圖像,而且通常看起來高度原創和針對特定文字提示而訂做的,但我們展示這些圖像實際上可能從它們的訓練數據進行複製,不管是大規模還是透過複製訓練圖像的部份。」
像Stable Diffusion等最先進圖像生成系統採用的是所謂的「擴散模型」,即大規模訓練數據組,從文字提示學習創造圖像。這些受訓「重新創作」圖像,而非從頭開始繪圖的模型,會從純雜訊開始,然後隨時間改進一幅圖像,逐漸接近文字提示。
鑑於擴散系統接受數以十億幅計不同來源圖像的訓練,難以憑經驗衡量複製情況出現的頻率。
為了研究Stable Diffusion,研究員的做法是從一組稱為LAION-Aesthetics的數據組(其中一個被用作訓練Stable Diffusion的圖像數據組)中隨機抽出9,000幅圖像和相應圖說。LAION-Aesthetics包含圖像連配對文字,包括受版權保護的電影角色、來自iStock等受知識產權(IP)保護來源的圖像和在生藝術家的作品。
研究員向Stable Diffusion輸入圖說,讓系統創造新圖像,然後為每幅圖像寫上新圖說,試圖使Stable Diffusion複製人造圖像。在利用一款自動類似發現工具比較後,研究員從上述兩組生成圖像發現,Stable Diffusion「大量複製」,包括從訓練組圖回收的背景和物件。
研究員說,從所有實驗中,Stable Diffusion有1.88%的時間從訓練數據組作出複製。雖然聽起來不是很多,但考慮到當前擴散系統廣受公眾接受,據估計Stable Diffusions截至10月已生成逾1億7000萬幅圖像,此比例難以忽略。研究員說︰「藝術家和內容創作者絕對要警惕,有人會未經同意下可能用他們作品圖利。」