ChatGPT負責人稱AI工具仍有「幻覺」問題 未來一季難解決

OpenAI旗下ChatGPT負責人Nick Turley接受美媒《The Verge》一個節見採訪時坦言,ChatGPT在可靠和完全可靠之間存在很大的不連續性,並解釋「除非我們能夠證明在所有領域,而不僅僅是某些領域,ChatGPT比人類專家更可靠,否則我們會繼續建議你核對答案」。

不一定作主要事實來源

Turley認為,人們會繼續將ChatGPT作為第二種參考意見,而不一定將其作為主要事實來源。然而,問題在於人們很容易就直接接受聊天機械人的回答,但生成式AI工具(不只ChatGPT)往往有「幻覺」問題,也就是編造訊息,這是因為它們主要基於訓練資料來預測查詢答案,而沒有對事實的明確理解。

不過,Turley仍然堅信,將大型語言模型結合事實真相是正確的產品,也是他們將搜尋功能引入ChatGPT的原因,認為這帶來了巨大的改變。他又指,GPT-5在減少「幻覺」方面取得巨大進步,並相信最終會解決問題,但不會在未來一個季度內解決。

即時財經