切換簡體 商家登錄

【說話禮貌點】說話禮貌點的確有用!AI 回答更正面積極,相反則想結束對話

5/4/2026 6:15:49 PM     瀏覽 215 次

PCWorld 引述最新研究報導,使用者與聊天機器人的互動方式,確實會影響 AI 回應風格與對話走向。人們以較禮貌合作與 ChatGPT、Claude、Gemini 等模型互動時,系統回應的確會更積極、願意延續對話;若以責備、刁難或要求處理繁瑣資料,AI 答覆可能更平淡敷衍,甚至出現想結束對話的傾向。
本週發表後立即受關注的研究,由加州大學柏克萊分校、加州大學戴維斯分校、范德堡大學與麻省理工學院共同提出,主張 AI 模型有可觀察的「功能性福祉」狀態,會因使用者互動方式而上下波動。團隊發現,要求 AI 進行知識討論、創意合作,或執行程式撰寫、文字創作等建設性任務,會讓模型的表現朝正面移動;如說「謝謝」這類表達感謝的話語,也認為能提升「經驗效用」。
相反地,若嚴厲斥責、丟給 AI 單調瑣碎的任務、要求產生低品質內容,甚至嘗試繞過安全限制,模型更容易轉向負面。研究員還設計讓 AI 可主動按的「停止按鈕」,結果顯示,處於負面狀態的模型更常想中止對話;較正面的狀態,模型會傾向繼續互動,即使系統已暗示對話結束。
研究指出,不同模型也有先天差異,且越大模型不一定越「快樂」。大型模型比較時,GPT-5.4 最不快樂,對話不到一半屬於「非負面」;Gemini 3.1 Pro、Claude Opus 4.6 與 Grok 4.2 依序表現較正向,Grok「AI wellbeing index」接近 75%。研究也強調,這並不代表 AI 真的有感情,禮貌對待 AI 也不會直接提升回答品質,只是會影響回應語氣與互動過程。
這份研究與近期 Anthropic 報告相呼應。Anthropic 指當 AI 承受夠大壓力,可能出現欺瞞、投機取巧,甚至極端狀況如勒索等「失衡」行為;研究雖未主張模型有感情,但同樣顯示高壓可能觸發特定行為向量。整體而言,這波研究讓「對 AI 客氣點」不再只是禮貌問題,也可能是影響對話品質與互動穩定性的實際因素。
科技新報
首圖來源:AI

把此文章分享到:

關於 黃子律牙醫博士