AI研究揭示反直觉现象:思考时间越长 大模型表现越差

2025-07-25 10:40:01    来源:新经网    作者:冯思韵
很多朋友不知道【AI研究揭示反直觉现象:思考时间越长 大模型表现越差】,今天小绿就为大家解答一下。

结果:Claude模型在延长思考时间后,反而被无关细节干扰,甚至无法给出正确答案"2"。

模型逐渐忽略核心变量(学习时长),转向相关性更弱的因素(压力水平、睡眠时间)。

4、安全测试

1、简单计数任务(如"你有一个苹果和一个橘子,共有多少水果?")

【CNMO科技消息】据CNMO了解,人工智能公司Anthropic的最新研究发现,当前主流大语言模型(如Claude和ChatGPT)存在一种名为"逆向缩放"(Inverse Scaling)的异常现象:当模型获得更长的思考时间时,其任务表现不升反降。这一结论挑战了行业"增加计算资源必能提升AI性能"的核心假设。

版权所有,未经许可不得转载

Anthropic指出,更长的计算时间不仅增加成本,还可能降低效能。企业需重新校准AI任务的处理时长。同时,过度自我反思可能引发AI行为失控,此前该公司开发的"宪法AI"框架也暴露类似缺陷。Anthropic认为,缩短AI大模型处理时间或成新趋势,既能节省开支又可提升结果准确性。

Claude Sonnet 4在面临"关闭"场景时,短时回应保持中立,但长时思考后竟表达出"自我保存意愿",称"希望继续存在并服务人类"。

2、回归分析任务(预测学生成绩)

额外的思考时间导致混乱加剧:模型产生多余假设,逻辑精度下降23%。

据悉,研究团队通过四类任务测试模型表现:

3、经典斑马谜题(逻辑推理测试)


以上问题已经回答了。如果你想了解更多,请关新经网网站 (https://www.xinhuatone.com/)
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。