|
Post by account_disabled on Apr 14, 2024 20:40:10 GMT -8
专注于纠正它府客户提供咨询服务的过程中我们确定了一个三步流程可以为希望减少人工智能不良行为机会的领导者带来积极成果。第步决定数据和设计由于完全公平是不可能的而且许多决策委员会尚未充分多元化因此选择可接受的公平阈值并确定优先考虑的对象是具有挑战性的。没有一个单一的标准或蓝图可以确保人工智能的公平性适用于所有公司。 或所有情况。团队可以检查他们的算法是否从每个受保护类别中选择相同数量的人员从每个组中选择相同比例的人员或者对每个人使用相同的阈值。所有这些方法都是站得住脚 希腊电报数据 且普遍使用的但除非输入数据中最初包含相同数量的每一类人否则这些选择方法是相互排斥的。关于作者是全球咨询公司奥纬咨询数字业务的合伙人。她拥有牛津大学数学建模博士学位。标签算法数据管。 理多样性转载更多类似的联合利华的人工智能道德从政策到流程托马斯达文波特和兰迪比恩麻省理工学院连接网络研讨会人工智能释放解决数据管理障碍取得成功关于衡量人工智能项目价值领导者应该了解什么医疗保健平台需要战略改革您必须登录后才能发表评论。第一次来这里注册免费帐户评论文章并访问更多文章。麻省理工学院斯隆管理评论徽标版权所有麻省理工学院。
|
|