计算机科学 > 计算与语言
[提交于 2025年10月14日
]
标题: 通过道德基础理论调查大型语言模型中的政治和人口统计学关联
标题: Investigating Political and Demographic Associations in Large Language Models Through Moral Foundations Theory
摘要: 大型语言模型(LLMs)已经越来越多地融入日常生活中,对于许多互联网用户来说,在医学、人际关系甚至法律事务等领域,它们扮演着重要的建议者角色。这些角色的重要性引发了关于LLMs在困难的政治和道德领域中如何以及作出什么回应的问题,特别是关于可能的偏见的问题。为了量化LLMs中潜在偏见的性质,各种研究已经应用了道德基础理论(MFT),这是一个将人类道德推理分为五个维度的框架:伤害、公平性、群体忠诚、权威和纯洁性。先前的研究已经使用MFT来测量人类参与者在政治、国家和文化线上的差异。尽管已有部分分析针对角色扮演场景中LLMs对政治立场的回应进行了分析,但到目前为止,还没有研究直接评估LLMs回应中的道德倾向,也没有将LLMs的输出与可靠的人类数据联系起来。在本文中,我们直接分析LLMs的MFT回应与现有人类研究之间的差异,探讨常见可用的LLMs回应是否表现出意识形态倾向:通过其固有的回应、直接的政治意识形态表示,或者在从构建的人类角色视角进行回应时。我们评估LLMs是否固有地生成更符合某种政治意识形态的回应,并进一步检查LLMs通过明确提示和基于人口统计的角色扮演准确代表意识形态观点的能力。通过系统地分析LLMs在这些条件和实验中的行为,我们的研究提供了关于AI生成回应中政治和人口统计依赖程度的见解。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.