
课程咨询: 400-996-5531 / 投诉建议: 400-111-8989
认真做教育 专心促就业
偏见对于每一个人来说或多或少都是存在的,而今天我们就通过案例分析来了解一下,如何才能消除对人工智能技术的偏见。
1.数据公平
人工智能在克服许多挑战方面发挥了重要作用。然而,人工智能系统采用的数据必须结构良好,并且尽可能不带偏见。
在大多数情况下,人工智能出现偏见的主要原因在于训练数据,尤其是对于缺乏经验的开发人员或小公司来说。获得一个足够多样化的数据集,需要将每个人口统计或任何其他关键属性考虑在内,这是数据科学家梦寐以求的事情。这就是企业在开发人工智能时应该尽力消除训练数据中的偏见的原因,并在开发过程的每个阶段都考虑到这一点。
2.对抗性学习
除了有缺陷的数据集,在模型学习阶段也会出现偏见。为了应对这种情况,许多开发人员现在采用了对抗性学习方法。这意味着除了采用主模型(例如对应用程序进行排序的模型)之外,还需要采用另一个模型,该模型试图根据主模型的结果找出敏感变量(年龄、性别、种族等)。如果主模型是无偏置的,对抗性模型将无法确定敏感属性。数据科学家认为这种技术是有效、容易使用的方法之一,因为与传统的重新权衡方法不同,对抗性学习可以应用于大多数建模方法。
3.基于拒绝选项的分类
后,还有一些后处理技术可以帮助消除偏见。这种方法的吸引力在于,工程师和数据科学家不需要为调整模型或更改数据集而烦恼,因为只需要修改模型输出即可。
拒绝基于选项的分类是流行的后处理技术之一。本质上,通过拒绝模型不可信的预测来减少偏差。例如,可以将置信阈值设置为0.4。如果预测确定性为0.39或更低,人工智能系统将标记输出为具有偏见。
【免责声明】本文系本网编辑部分转载,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如涉及作品内容、版权和其它问题,请在30日内与管理员联系,我们会予以更改或删除相关文章,以保证您的权益!更多内容请加danei0707学习了解。欢迎关注“达内在线”参与分销,赚更多好礼。