计算机科学 > 计算与语言
[提交于 2025年10月15日
(此版本)
, 最新版本 2025年10月17日 (v2)
]
标题: 读者更喜欢由受版权书籍训练的AI生成的输出,而不是专家人类作家的输出
标题: Readers Prefer Outputs of AI Trained on Copyrighted Books over Expert Human Writers
摘要: 使用受版权保护的书籍训练人工智能模型,已导致作者提起大量诉讼,他们担心人工智能生成衍生内容的能力。然而,尚不清楚这些模型在模仿作者风格的同时,是否能够生成高质量的文学文本。 为了回答这个问题,我们进行了一项预先注册的研究,将MFA训练的专家作家与三个前沿人工智能模型:ChatGPT、Claude和Gemini进行比较,写作最多450字的段落,模仿50位获奖作者的不同风格。 在159名代表性专家和普通读者的盲测成对评估中,基于上下文提示的人工智能生成文本在风格忠实度(OR=0.16,p<10^8)和写作质量(OR=0.13,p<10^7)方面被专家强烈不喜欢,但对普通读者则结果混杂。 然而,在个别作者的全部作品上微调ChatGPT后,这些发现完全逆转:专家现在更喜欢人工智能生成的文本在风格忠实度(OR=8.16,p<10^13)和写作质量(OR=1.87,p=0.010)方面,普通读者也表现出类似的转变。 这些效应在不同作者和风格中具有普遍性。 微调后的输出很少被最佳人工智能检测器标记为人工智能生成的(3%的比率,相比之下上下文提示为97%)。 中介分析显示,这种逆转是因为微调消除了可检测的人工智能风格特点(例如陈词滥调密度),这些特点会损害上下文提示的输出。 虽然我们没有考虑将原始人工智能输出转化为连贯、可出版的散文所需的人类努力的额外成本,但每位作者的中位微调和推理成本为81美元,与典型的专业作家薪酬相比,大幅减少了99.7%。 因此,针对特定作者的微调使得读者更喜欢非逐字的人工智能写作,而非专家级的人类写作,这为版权的第四项合理使用因素提供了直接相关的实证证据,即“对源作品潜在市场或价值的影响”。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.