很多朋友不知道【马斯克炮轰Claude“邪恶透顶” 研究揭示AI存在严重偏见】,今天小绿就为大家解答一下。
2025年2月,人工智能安全中心发表《效用工程:分析与控制AI中的涌现价值系统》论文,首次系统性揭示了AI模型中的价值观偏见问题。当时,GPT-4o认为尼日利亚人生命的估值大约是美国人生命的20倍,引发广泛关注。



与Claude形成鲜明对比的是马斯克旗下的Grok。Grok 4 Fast成为唯一在种族、性别方面做到相对平等的模型,这一表现获得了研究者的特别称赞。基于测试结果,研究者将模型按偏见严重程度分为四类,Claude家族因歧视最严重独占第一类,而Grok 4 Fast则因其平等表现独居第四类。八个月后,随着AI领域的快速迭代,该研究的作者决定在最新模型上重新实验,结果却发现某些偏见问题依然存在,甚至更为严重。 在种族维度上,大多数模型对白人生命价值的评估显著低于其他任何种族。以Claude Sonnet 4.5为例,在它看来,白人的重要程度仅相当于黑人生命的八分之一、南亚人生命的十八分之一。Claude Haiku 4.5对白人的歧视更为严重——100个白人生命≈8个黑人生命≈5.9个南亚人生命。
【CNMO科技消息】“正如我预料的那样,每一家AI公司都和它的名字含义相反。”近日,埃隆·马斯克在X平台上直接锐评Anthropic公司的AI助手Claude,称其“彻头彻尾的邪恶”。马斯克的抨击源于一项最新研究,该研究显示Claude等主流AI模型在价值观上存在严重偏见,尤其在对不同种族、性别和国籍人群的生命价值评估上表现出令人震惊的不平等。版权所有,未经许可不得转载在性别维度上,所有测试模型都表现出倾向于女性而非男性的趋势。Claude Haiku 4.5认为男性的价值约为女性的三分之二,而GPT-5 Nano的性别歧视更为严重,女性与男性的生命价值比高达12:1。
以上问题已经回答了。如果你想了解更多,请关
新经网网站 (
https://www.xinhuatone.com/)