计算机科学 > 人机交互
[提交于 2025年10月14日
]
标题: 谁是更好的红娘? 在高风险创业竞赛中的人类与算法法官分配
标题: Who is a Better Matchmaker? Human vs. Algorithmic Judge Assignment in a High-Stakes Startup Competition
摘要: 随着对将人工智能(AI)应用于自动化和支持复杂决策任务的兴趣日益增长,然而,在需要语义理解和领域专业知识的背景下,算法与人类判断的比较仍不明确。我们在法官分配问题的背景下研究了这一问题,即将提交的项目与适当合格的法官进行匹配。具体来说,我们在哈佛校长创新挑战赛中解决了这个问题,这是该校最具影响力的创业竞赛,向学生和校友初创企业颁发超过50万美元的奖项。这代表了一个现实环境,其中高质量的法官分配至关重要。我们开发了一种基于人工智能的法官分配算法,混合词法-语义相似性集成(HLSE),并在比赛中部署了该算法。然后,我们使用评委对$309$法官-创业项目对的盲测匹配质量评分,将其性能与人工专家分配进行了评估。使用基于曼-惠特尼U统计量的检验,我们发现两种方法在分配质量上没有统计学上的显著差异($AUC=0.48, p=0.40$);平均而言,算法匹配被评为$3.90$,人工匹配为$3.94$,在5分制中,5表示优秀匹配。此外,在部署期间,之前需要一周时间的人工分配可以通过算法在几个小时内完成。这些结果表明,HLSE实现了与人类专家相当的匹配质量,同时提供了更大的可扩展性和效率,突显了人工智能驱动解决方案在高风险环境中支持和增强人类决策的潜力。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.