阿拉斯加法院AI助手出師不利,準確性挑戰揭示技術鴻溝

2026 年 1 月 4 日

阿拉斯加州法院系統正設計一款名為「阿拉斯加虛擬助手(Alaska Virtual Assistant, AVA)」的開創性生成式人工智能聊天機械人,旨在幫助居民處理已故親人財產轉移的複雜遺產認證程序。然而,這個原意在於快速提升司法可及性的項目,卻演變成一場充滿錯誤開端和不實答案的漫長旅程,從預計的三個月延長至超過一年三個月。

國家州級法院中心(NCSC)的顧問索薩(Aubrie Souza)表示,延遲是為了確保系統的正確性所必需的盡職調查。此案例揭示了美國各地政府機構在將強大的人工智能系統應用於要求真實與可靠的現實問題時所面臨的困境。阿拉斯加州法院系統行政總監馬茲(Stacey Marz)強調,與其他技術項目不同,此類應用需要達到100%的準確性,因為不準確的資訊可能對用戶造成無法彌補的傷害。

AI幻覺與準確性挑戰

該項目面臨的最大挑戰之一是AI的「幻覺」問題,即系統會自信地提供虛假或誇大的資訊。索薩舉例說,當被問及在哪裡可以獲得法律幫助時,AVA曾建議用戶查詢阿拉斯加州一所法學院的校友網絡,但事實上該州並不存在法學院。為解決此問題,負責技術開發的律師兼法學教授馬丁(Tom Martin)投入大量精力,確保聊天機械人僅從阿拉斯加州法院系統的遺產認證文件中提取資訊,而非進行廣泛的網絡搜索。

除了準確性,團隊還需精心設計AI的「個性」。馬丁指出,不同的AI模型有不同的行為模式,有些善於遵守規則,有些則不然。對於法律應用,一個既能遵守規則、又能以淺白語言解釋自身的智能系統至關重要。團隊甚至發現,早期版本的AVA過於「富有同情心」,反而惹惱了正在悲傷中、只想要直接答案的用戶。因此,他們移除了多餘的哀悼用語,讓互動更為直接有效。

成本與持續監控的雙重考量

儘管AI工具的運行成本極低——馬丁提到,在某種技術設置下,20次AVA查詢的成本僅約11美分,這對於預算有限的法院系統是一大優勢。然而,背後的隱性成本卻相當高昂。為了評估AVA的準確性,團隊最初設計了91個問題進行測試,但法院系統的司法服務主任佐藤(Jeannie Sato)表示,由於事關重大且需要人工審核,這項測試變得過於耗時。最終,團隊將測試問題精簡至16個關鍵問題。

此外,驅動AVA的AI模型(如OpenAI的GPT系列)不斷更新換代,這意味著行政團隊必須持續且定期地監控AVA的行為和準確性變化,無法做到完全「放手不管」。儘管困難重重,AVA目前計劃於一月底上線。馬茲對其潛力保持樂觀,但也更清晰地認識到AI目前的局限性。她坦言,團隊已調整了項目目標,承認目前機械人尚無法完全複製人類輔導員的服務,但期望隨著模型更新,準確性會逐步提升。這個項目證明了,儘管生成式AI的熱潮不斷,要將其成功應用於革新公共服務仍是一項巨大的挑戰。

來源:nbcnews.com

封面來源:Adobe Stock