Amsterdam's high-stakes experiment to create fair welfare AI
a year ago
- #welfare fraud
- #AI ethics
- #algorithmic bias
- 阿姆斯特丹的‘智能核查’算法旨在评估福利申请者的潜在欺诈行为,但因存在偏见和公平性问题遭到强烈批评
- 该算法最初对移民和男性群体存在偏见,导致错误标记调查对象,尽管官方多次尝试重新校准系统
- 阿姆斯特丹虽遵循了包括偏见测试和公众咨询在内的伦理AI准则,但该系统仍未能达到公平性与有效性的标准
- 由于持续存在的偏见和低效问题,该试点项目最终被终止,重新采用同样存在记录偏差的人工审核流程
- 这一案例引发了关于公共服务领域‘负责任AI’可行性及算法决策伦理影响的更广泛讨论