AI内容正在污染科学最底层的基石
好的,我现在需要帮用户总结一篇文章的内容,控制在100字以内。用户的要求很明确,不需要用“文章内容总结”之类的开头,直接写描述。 首先,我得仔细阅读文章。文章主要讲的是科学编辑和审稿人现在面临的困境,因为大型语言模型的普及导致投稿激增。这些模型被用来生成欺诈或低质量的作品,让审稿变得更难、更耗时。此外,AI还能伪造图像,比如生物医学研究中的显微图像等,这些虚假内容不仅影响期刊,还蔓延到预印本服务器arXiv。使用LLM的科学家发表的论文比不使用的人多33%。随着AI的进步,检测工具可能失效,整个科学出版业可能被颠覆,虚假信息会成为认知污染。 接下来,我需要提炼关键点:编辑和审稿人的困境、投稿激增、AI生成欺诈作品、伪造图像、影响扩大到预印本、发表数量增加、检测工具失效的风险、科学出版业颠覆的可能性。 然后把这些点浓缩成一句话,确保不超过100字。要注意逻辑连贯,涵盖主要问题和影响。 最后检查一下有没有遗漏的重要信息,并确保语言简洁明了。 </think> 科学编辑和审稿人面临AI生成论文激增的挑战。ChatGPT等工具被用于制作虚假或低质量作品,并生成伪造图像和引用。这导致审稿难度增加,并使检测工具失效。虚假信息已蔓延至预印本平台,并可能颠覆科学出版业。 2026-1-25 08:1:31 Author: blog.upx8.com(查看原文) 阅读量:0 收藏

作为科学文献守护者的编辑和无偿审稿人如今却面临着前所未有的困境。大型语言模型普及后不久,期刊的投稿邮箱就被前所未有的稿件淹没。ChatGPT及其同类工具被用来为欺诈或粗制滥造的作品披上一层新的“可信”外衣。这使得编辑和审稿人甄别良莠的工作变得更加耗时,技术难度也更大。

人工智能甚至可以生成伪造论文所需的图像。能够生成逼真的薄切片组织、显微图像或电泳凝胶图像,而这些图像通常被用作生物医学研究的证据。

人工智能科学垃圾如今已蔓延至期刊之外,并充斥着其他研究成果传播渠道。在ChatGPT发布后的几个月里,arXiv预印本服务器的投稿量也出现了与期刊相同的激增。使用大语言模型LLM的科学家发表的论文数量比未使用LLM的研究人员多出约33%。

人工智能本身在不断进步,容易暴露错误的地方可能会彻底消失,自动伪造论文检测器也可能失效。如果这些工具变得过于强大,整个科学出版业都可能被颠覆。虚假图片和虚假引用将越来越深入地嵌入我们的知识体系中。它们将成为一种永久性的认知污染,永远无法被清除。

—— 大西洋 (The Atlantic)


文章来源: https://blog.upx8.com/AI%E5%86%85%E5%AE%B9%E6%AD%A3%E5%9C%A8%E6%B1%A1%E6%9F%93%E7%A7%91%E5%AD%A6%E6%9C%80%E5%BA%95%E5%B1%82%E7%9A%84%E5%9F%BA%E7%9F%B3
如有侵权请联系:admin#unsafe.sh