从预测建模中消除人为偏见

预测模型应该是中立的,这是一种帮助消除决策中个人偏见的方法。但是,这些算法也充满了与创建它们的真实数据相同的偏见。沃顿商学院统计学教授詹姆斯·约翰罗(James Johndrow)开发了一种消除这些偏见的方法。他与妻子、统计学家克里斯蒂安·林(Kristian Lum)合著的最新研究报告《消除敏感信息的算法:适用于与种族无关的累犯预测》(An Algorithm for remove Sensitive Information: Application to race -independent recidiancy Prediction)关注的是在预测累犯的数据中去除种族信息,但这种方法可以应用于刑事司法系统之外。

rendering of the human head from three angles with visuals of networks reaching out from the center of the brain

他说:“在刑事司法领域,有很多算法的运用,例如,谁需要缴纳保释金才能在审判前出狱,而谁只要缴纳保释金就可以出狱。其核心是这种风险评估的想法,并试图找出谁最有可能,例如,出现在他们的法庭日期,”Johndrow说。“潜在的问题是,这些算法只针对现实世界中的数据进行训练。这些算法和它们的预测可以融入所有正在发生的人类事件,所以最近有更多的注意力放在确保某些群体不受这些算法的歧视上。”

详情请访问沃顿知识在线。

新闻旨在传播有益信息,英文原版地址:https://penntoday.upenn.edu/index.php/news/removing-human-bias-predictive-modeling

http://petbyus.com/18330/