计算机科学 > 人机交互
[提交于 2025年8月31日
]
标题: 机器有多像人类? 与大型语言模型的66,000次对话证据
标题: How human is the machine? Evidence from 66,000 Conversations with Large Language Models
摘要: 当人工智能(AI)被用来替代消费者(例如,使用合成数据)时,通常假设AI模仿已有的消费者,更一般地模仿人类行为。 十个使用大型语言模型(LLMs)的实验调查了在有充分记录的偏见和启发式方法领域中,这一假设是否成立。 在各项研究中,我们观察到四种不同类型的与人类行为不同的偏差。 首先,在某些情况下,LLMs会减少或纠正人类中观察到的偏见。 其次,在其他情况下,LLMs会放大这些相同的偏见。 第三,或许最引人入胜的是,LLMs有时会表现出与人类中发现的偏见相反的偏见。 第四,LLMs对相同(或类似)提示的回应往往不一致(a)在同一模型经过一段时间延迟后,(b)在不同模型之间,以及(c)在独立的研究中。 这种不一致性可能不同于人类的行为,并表明至少在某一时刻,LLMs的回应与人类不同。 总体而言,当LLMs用于模仿或预测消费者行为时,非人类的回应是有问题的。 这些发现通过显示偏见的来源不一定以人类为中心,补充了关于合成消费者数据的研究。 它们还为关于消费者,更一般地为人类能否被AI取代的任务的争论做出了贡献。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.