世界各地的法官正面臨著一個日益嚴重的問題:越來越多的法律文件借助人工智能(AI)生成,但這些文件卻有不少錯誤,例如引用根本不存在的案例。律師和法庭文件都證實了這一點。
對於正學習在工作中使用AI工具的人來說,這是一個警示。現時,許多僱主希望招募能夠運用這個最新技術的員工,協助完成諸如研究和撰寫報告等任務。隨著教師、會計師和行銷人員開始使用AI聊天機器人和助理來激發創意,以及提高工作效率,他們也逐漸發現這些程式同樣會出錯。
法國數據科學家兼律師夏洛廷(Damien Charlotin)在過去六個月中,至少紀錄了490份包含「幻覺」的法庭文件,「幻覺」指的是AI生成虛假或誤導性的資訊。他表示,隨著越來越多的人使用AI,這種情況正在更頻繁地發生。他創建了一個數據庫,用於追蹤法官裁定AI生成「幻覺內容」的案例,例如捏造判例法或不實的引述。
法律界並非唯一受AI陷阱困擾的產業,出現在網路搜尋結果頁面頂部的AI Overview(AI概覽),也經常出現錯誤。此外,AI工具還引發了隱私疑慮。各行各業的員工皆須謹慎處理上傳或在提示中輸入的訊息,以確保僱主和客戶的機密資訊得到妥善保護。
法律和職場專家分享應對AI錯誤的經驗,並指出需要避免的風險。他們表示,不要奢求讓AI替你做出重大決定。一些用戶將AI工具視為實習生,可以交辦任務,但仍須親自檢查和確認它完成的工作內容。美聯社電