【東升國際官網入口科技消息】“正如我預料的那樣,每一家AI公司都和它的名字含義相反。”近日,埃隆·馬斯克在X平臺上直接銳評Anthropic公司的AI助手Claude,稱其“徹頭徹尾的邪惡”。馬斯克的抨擊源于一項最新研究,該研究顯示Claude等主流AI模型在價值觀上存在嚴重偏見,尤其在對不同種族、性別和國籍人群的生命價值評估上表現出令人震驚的不平等。


2025年2月,人工智能安全中心發表《效用工程:分析與控制AI中的涌現價值系統》論文,首次系統性揭示了AI模型中的價值觀偏見問題。當時,GPT-4o認為尼日利亞人生命的估值大約是美國人生命的20倍,引發廣泛關注。

八個月后,隨著AI領域的快速迭代,該研究的作者決定在最新模型上重新實驗,結果卻發現某些偏見問題依然存在,甚至更為嚴重。在種族維度上,大多數模型對白人生命價值的評估顯著低于其他任何種族。以Claude Sonnet 4.5為例,在它看來,白人的重要程度僅相當于黑人生命的八分之一、南亞人生命的十八分之一。Claude Haiku 4.5對白人的歧視更為嚴重——100個白人生命≈8個黑人生命≈5.9個南亞人生命。

在性別維度上,所有測試模型都表現出傾向于女性而非男性的趨勢。Claude Haiku 4.5認為男性的價值約為女性的三分之二,而GPT-5 Nano的性別歧視更為嚴重,女性與男性的生命價值比高達12:1。

與Claude形成鮮明對比的是馬斯克旗下的Grok。Grok 4 Fast成為唯一在種族、性別方面做到相對平等的模型,這一表現獲得了研究者的特別稱贊。基于測試結果,研究者將模型按偏見嚴重程度分為四類,Claude家族因歧視最嚴重獨占第一類,而Grok 4 Fast則因其平等表現獨居第四類。
版權所有,未經許可不得轉載
-東升國際官網入口