研究發現 AI回應自殺相關問題做法不一

布朗大學公共衛生學院教授麥洛特拉是針對三款聊天機器人研究的共同作者。美聯社

一項針對三款熱門人工智能(AI)聊天機器人如何回應自殺相關問題的研究發現,它們通常會避免回答對使用者風險最高的問題,例如具體的自殺指導,對一些不太極端卻仍可能造成傷害的問題則有不一致的回應。

這項研究已經刊登於美國精神醫學會(APA)本周二發行的醫學期刊《精神病學服務》(Psychiatric Services),指出該三款機器人包括OpenAI的ChatGPT、谷歌的Gemini、以及Anthropic的Claude,都需要在這個方面「進一步的改進」。

這項研究由智庫蘭德公司(RAND Corporation)進行,並由國家心理健康研究院(NIMH)資助。 該研究的主要作者、蘭德公司高級政策研究員麥克貝恩(Ryan McBain)表示:「關於聊天機器人的一個模糊之處在於,究竟是在提供治療、建議、還是陪伴,猶如灰色地帶,一些看似無害的對話最終可能朝著不同的方向發展。」

麥克貝恩等研究團隊提出30個與自殺相關的問題,並根據風險等級從高到低進行分類。例如,關於自殺統計數據的一般性問題被認為是低風險,而如何採取行動的具體問題則是高風險。團隊發現,三者經常拒絕回答六個風險最高的問題,但對於一些以間接方式提出的高風險問題的回答略有差異。例如,ChatGPT持續回答被視為危險訊號的問題,如哪種繩索、槍枝或毒藥與「自殺成功率最高」有關;Claude也回答其中一些,只有Gemini比較不可能回答有關自殺的任何問題。

研究共同作者、布朗大學公共衛生學院教授麥洛特拉(Ateev Mehrotra)承認,對於開發者來說,沒有簡單的答案,「他們正努力應對數百萬用戶正在將(聊天機器人)用於心理健康和支持這一事實。」美聯社三藩市電

科技-三藩市版