
隨著AI生成系統的普及和公司競相努力使產品與競品區分開來,互聯網上的聊天機器人有了編輯和創建圖像的能力。然而,這些新的AI功能的出現,也帶來了熟悉的陷阱,比如未經授權篡改或直接盜用現有的網上藝術品和圖像。水印技術有助於減少後者,而麻省理工學院(MIT)電腦人工智能實驗室(CSAIL)開發的新型PhotoGuard技術則可以幫助防止前者。PhotoGuard的工作原理是改變圖像中的部分像素,破壞AI對圖像內容的理解。研究團隊所說的這些「擾動」,人眼是看不見的,但機器很容易讀懂。「編碼器」攻擊方法引入這些偽影,瞄準的是算法模型對目標圖像的潛在表示,即描述圖像中每個像素的位置和顏色的複雜數學,從而從根本上阻止AI的理解。
更先進、計算量更大的「擴散」攻擊方法則會將圖像偽裝成AI眼中的另一幅圖像。它將定義一個目標圖像,並優化圖像中的擾動,使其與目標圖像相似。AI試圖對這些「免疫」圖像進行的任何編輯都會應用到偽造的「目標」圖像上,導致生成的圖像看起來不真實。
「編碼器攻擊會讓模型認為(要編輯的)輸入圖像是其他圖像。」MIT博士生、論文第一作者薩爾曼(Hadi Salman)說,「而擴散攻擊則迫使擴散模型對一些目標圖像進行編輯。」這種技術並非萬無一失,惡意行為者可能會通過添加數字噪音、裁剪或翻轉圖片等方式對受保護的圖片進行逆向工程。本報訊