Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2508.14683

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2508.14683 (cs)
[提交于 2025年8月20日 ]

标题: 通过反事实去偏改善图神经网络的公平性

标题: Improving Fairness in Graph Neural Networks via Counterfactual Debiasing

Authors:Zengyi Wo, Chang Liu, Yumeng Wang, Minglai Shao, Wenjun Wang
摘要: 图神经网络(GNNs)在建模图结构数据方面已经取得了成功。 然而,与其他机器学习模型类似,GNNs在基于种族和性别等属性的预测中可能会表现出偏差。 此外,GNNs中的偏差可能由于图结构和消息传递机制而加剧。 最近的前沿方法通过从输入或表示中过滤掉敏感信息来减轻偏差,例如边删除或特征掩码。 然而,我们认为这些策略可能会无意中消除非敏感特征,导致预测准确性和公平性之间的平衡受损。 为了解决这个挑战,我们提出了一种新的方法,利用反事实数据增强来减轻偏差。 该方法涉及在消息传递之前使用反事实创建多样化的邻域,从而从增强的图中学习无偏的节点表示。 随后,使用对抗性鉴别器通过传统GNN分类器来减少预测中的偏差。 我们提出的技术Fair-ICD在适度条件下确保了GNN的公平性。 在标准数据集上使用三种GNN主干进行的实验表明,Fair-ICD显著提高了公平性指标,同时保持了高预测性能。
摘要: Graph Neural Networks (GNNs) have been successful in modeling graph-structured data. However, similar to other machine learning models, GNNs can exhibit bias in predictions based on attributes like race and gender. Moreover, bias in GNNs can be exacerbated by the graph structure and message-passing mechanisms. Recent cutting-edge methods propose mitigating bias by filtering out sensitive information from input or representations, like edge dropping or feature masking. Yet, we argue that such strategies may unintentionally eliminate non-sensitive features, leading to a compromised balance between predictive accuracy and fairness. To tackle this challenge, we present a novel approach utilizing counterfactual data augmentation for bias mitigation. This method involves creating diverse neighborhoods using counterfactuals before message passing, facilitating unbiased node representations learning from the augmented graph. Subsequently, an adversarial discriminator is employed to diminish bias in predictions by conventional GNN classifiers. Our proposed technique, Fair-ICD, ensures the fairness of GNNs under moderate conditions. Experiments on standard datasets using three GNN backbones demonstrate that Fair-ICD notably enhances fairness metrics while preserving high predictive performance.
评论: 2024年KDD研讨会论文集
主题: 机器学习 (cs.LG)
引用方式: arXiv:2508.14683 [cs.LG]
  (或者 arXiv:2508.14683v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2508.14683
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Zengyi Wo [查看电子邮件]
[v1] 星期三, 2025 年 8 月 20 日 12:59:05 UTC (104 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-08
切换浏览方式为:
cs.LG

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号