研究发现要求 AI 聊天机器人给出简洁答案会显著增加幻觉可能性
法国公司Giskard发现要求AI聊天机器人提供简短回答会增加幻觉风险。研究显示包括GPT-4、Mistral和Claude在内的先进模型在被要求简短回答时事实准确性下降。研究人员推测AI可能优先选择简洁而非准确性从而削弱其检测错误信息的能力。 2025-5-14 07:9:47 Author: www.solidot.org(查看原文) 阅读量:0 收藏

法国 AI 测试公司 Giskard 发现,要求 AI 聊天机器人给出简洁答案会显著增加幻觉的可能性。研究显示,包括 OpenAI 的 GPT-4o(ChatGPT 默认模型)、Mistral Large 和 Anthropic 的 Claude 3.7 Sonnet 在内的先进模型,在被要求给出简短答案时,其事实准确性都会下降。研究人员猜测,在要求简洁答案时,AI 模型会优先选择简洁而不是准确性。简洁之类看似无害的提示词会削弱模型揭穿错误信息的能力。

huggingface.co/blog/davidberenstein1957/phare-analysis-of-hallucination-in-leading-llms


文章来源: https://www.solidot.org/story?sid=81289
如有侵权请联系:admin#unsafe.sh