Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2510.07321

帮助 | 高级搜索

计算机科学 > 人机交互

arXiv:2510.07321 (cs)
[提交于 2025年8月31日 ]

标题: 机器有多像人类? 与大型语言模型的66,000次对话证据

标题: How human is the machine? Evidence from 66,000 Conversations with Large Language Models

Authors:Antonios Stamatogiannakis, Arsham Ghodsinia, Sepehr Etminanrad, Dilney Gonçalves, David Santos
摘要: 当人工智能(AI)被用来替代消费者(例如,使用合成数据)时,通常假设AI模仿已有的消费者,更一般地模仿人类行为。 十个使用大型语言模型(LLMs)的实验调查了在有充分记录的偏见和启发式方法领域中,这一假设是否成立。 在各项研究中,我们观察到四种不同类型的与人类行为不同的偏差。 首先,在某些情况下,LLMs会减少或纠正人类中观察到的偏见。 其次,在其他情况下,LLMs会放大这些相同的偏见。 第三,或许最引人入胜的是,LLMs有时会表现出与人类中发现的偏见相反的偏见。 第四,LLMs对相同(或类似)提示的回应往往不一致(a)在同一模型经过一段时间延迟后,(b)在不同模型之间,以及(c)在独立的研究中。 这种不一致性可能不同于人类的行为,并表明至少在某一时刻,LLMs的回应与人类不同。 总体而言,当LLMs用于模仿或预测消费者行为时,非人类的回应是有问题的。 这些发现通过显示偏见的来源不一定以人类为中心,补充了关于合成消费者数据的研究。 它们还为关于消费者,更一般地为人类能否被AI取代的任务的争论做出了贡献。
摘要: When Artificial Intelligence (AI) is used to replace consumers (e.g., synthetic data), it is often assumed that AI emulates established consumers, and more generally human behaviors. Ten experiments with Large Language Models (LLMs) investigate if this is true in the domain of well-documented biases and heuristics. Across studies we observe four distinct types of deviations from human-like behavior. First, in some cases, LLMs reduce or correct biases observed in humans. Second, in other cases, LLMs amplify these same biases. Third, and perhaps most intriguingly, LLMs sometimes exhibit biases opposite to those found in humans. Fourth, LLMs' responses to the same (or similar) prompts tend to be inconsistent (a) within the same model after a time delay, (b) across models, and (c) among independent research studies. Such inconsistencies can be uncharacteristic of humans and suggest that, at least at one point, LLMs' responses differed from humans. Overall, unhuman-like responses are problematic when LLMs are used to mimic or predict consumer behavior. These findings complement research on synthetic consumer data by showing that sources of bias are not necessarily human-centric. They also contribute to the debate about the tasks for which consumers, and more generally humans, can be replaced by AI.
主题: 人机交互 (cs.HC) ; 一般经济学 (econ.GN)
引用方式: arXiv:2510.07321 [cs.HC]
  (或者 arXiv:2510.07321v1 [cs.HC] 对于此版本)
  https://doi.org/10.48550/arXiv.2510.07321
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Arsham Ghodsinia [查看电子邮件]
[v1] 星期日, 2025 年 8 月 31 日 20:36:50 UTC (1,041 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
许可图标 查看许可
当前浏览上下文:
cs.HC
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-10
切换浏览方式为:
cs
econ
econ.GN
q-fin
q-fin.EC

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号