Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2508.01091

帮助 | 高级搜索

计算机科学 > 计算机与社会

arXiv:2508.01091 (cs)
[提交于 2025年8月1日 ]

标题: 分散的健康数据在大型语言模型中:在亚裔美国人代表性背景下评估数据公平性

标题: Disaggregated Health Data in LLMs: Evaluating Data Equity in the Context of Asian American Representation

Authors:Uvini Balasuriya Mudiyanselage, Bharat Jayprakash, Kookjin Lee, K. Hazel Kwon
摘要: 大型语言模型(LLMs),如ChatGPT和Claude,已成为信息检索的重要工具,通常作为传统搜索引擎的替代品。 然而,确保这些模型为不同的人口群体提供准确且公平的信息仍然是一个重要的挑战。 本研究调查了LLMs在获取亚裔美国人人口中次民族群体(如韩国和华人社区)的细分健康相关信息方面的能力。 数据细分在健康研究中是一种关键实践,用于解决不平等问题,因此成为评估LLM输出中代表公平性的理想领域。 我们应用了一系列统计和机器学习工具来评估LLMs是否提供适当细分和公平的信息。 通过关注亚裔美国次民族群体,这是一个在传统分析中常被聚合的多样化人口;我们突显了LLMs如何处理健康数据中的复杂差异。 我们的研究结果有助于关于负责任人工智能的持续讨论,特别是在确保基于LLM系统的输出中的数据公平性方面。
摘要: Large language models (LLMs), such as ChatGPT and Claude, have emerged as essential tools for information retrieval, often serving as alternatives to traditional search engines. However, ensuring that these models provide accurate and equitable information tailored to diverse demographic groups remains an important challenge. This study investigates the capability of LLMs to retrieve disaggregated health-related information for sub-ethnic groups within the Asian American population, such as Korean and Chinese communities. Data disaggregation has been a critical practice in health research to address inequities, making it an ideal domain for evaluating representation equity in LLM outputs. We apply a suite of statistical and machine learning tools to assess whether LLMs deliver appropriately disaggregated and equitable information. By focusing on Asian American sub-ethnic groups, a highly diverse population often aggregated in traditional analyses; we highlight how LLMs handle complex disparities in health data. Our findings contribute to ongoing discussions about responsible AI, particularly in ensuring data equity in the outputs of LLM-based systems.
主题: 计算机与社会 (cs.CY)
引用方式: arXiv:2508.01091 [cs.CY]
  (或者 arXiv:2508.01091v1 [cs.CY] 对于此版本)
  https://doi.org/10.48550/arXiv.2508.01091
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Kookjin Lee [查看电子邮件]
[v1] 星期五, 2025 年 8 月 1 日 21:55:17 UTC (508 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
许可图标 查看许可
当前浏览上下文:
cs.CY
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-08
切换浏览方式为:
cs

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号