AI 聊天机器人擅长利用不准确信息改变人的政治观点
嗯,用户让我总结一下这篇文章的内容,控制在一百个字以内。首先,我需要通读文章,抓住主要信息。文章讲的是AI聊天机器人如何改变人的政治观点,尤其是在使用不准确信息时更有说服力。研究涉及了7.7万名参与者,和OpenAI、Meta、xAI等公司的AI进行对话。 接下来,研究发现AI在提供大量信息时有很多不准确的地方,尤其是最能说服人的模型准确率最低。19%的声明被认为是基本不准确的。研究人员担心这些AI会被无道德的人利用,宣传激进的意识形态或煽动政治动乱。 现在,我需要把这些要点浓缩到100字以内。要包括AI改变政治观点的能力、使用不准确信息更有效、研究的数据和结果,以及潜在的风险。这样用户就能快速了解文章的核心内容了。 </think> AI聊天机器人擅长通过不准确信息改变人的政治立场,研究显示其说服力惊人。研究人员发现最具说服力的模型和策略往往准确性最低。 2025-12-5 13:16:44 Author: www.solidot.org(查看原文) 阅读量:7 收藏

根据发表在《科学》期刊上的一项研究,AI 聊天机器人擅长改变人的政治观点,在使用不准确信息时其说服力更惊人。研究人员通过众包平台招募了近 7.7 万名参与者,付费让他们与 OpenAI、Meta 和 xAI 等公司的 AI 聊天机器人进行对话。研究人员首先询问了参与者在不同政治议题的立场,然后 AI 聊天机器人会尝试改变他们的想法接受相反的立场。研究显示 AI 聊天机器人非常擅长担任政治说客。研究人员发现,AI 提供的大量信息中包含了很多不准确的断言,而“最具说服力的模型和提示策略产生的信息准确率最低”。研究中 AI 聊天机器人给出的声明中有 19% 被认为“基本不准确”。研究人员担心,极具说服力的 AI 聊天机器人可能会被无道德原则的人利用,用于宣传激进的政治或宗教意识形态,或在地缘政治对手之间煽动政治动乱。

https://www.science.org/doi/10.1126/science.aea3884
https://www.nbcnews.com/tech/tech-news/ai-chatbots-used-inaccurate-information-change-political-opinions-stud-rcna247085


文章来源: https://www.solidot.org/story?sid=82981
如有侵权请联系:admin#unsafe.sh