专家们强烈要求从设计阶段重新评估人工智能算法

华盟原创文章投稿奖励计划

目前为止,人工智能算法的固有偏见已经得到了充分的证明,怎样才能使这种偏见最小化呢?在开发过程中投入更多的人力将是一个良好的开端。

宾夕法尼亚大学的教授Michael Kearns和Aaron Roth指出解决方案是“在算法的设计阶段嵌入公平、准确性、透明度和道德的精确定义”。在沃顿知识在线发表的一篇采访中,Kearns和Roth——《道德算法:社会意识算法设计的科学》的合著者注意到,软件工程师或开发人员并没有产生这个问题。Kearns说:“最让我惊讶的是,即使是部署这些算法的人有时也会对这些事情的发生感到惊讶。”

Roth指出,算法本身没有道德品质,他说:“问题在于我们投入这些管道的算法不是老式的手工编码算法。相反,这些是机器学习过程的输出。在机器学习训练过程中,没有任何地方是一个人坐下来编码算法在任何情况下应该做的所有事情。它们只是指定了一些目标函数。通常是一些狭隘的目标函数,比如最大化的精度或利润。”

总之,该算法的目标函数较窄,可能会产生负面或不可预见的副作用。为了对抗这种偏见,有必要找出可能被偏见伤害的群体,然后“把它写进我的目标函数中,” Kearns说。

两位作者指出,算法倾向于区别对待,并不是因为软件开发人员有偏见。Roth说:“不良行为的根源并不是软件工程师的恶意,这使得监管更加困难。你必须找出问题行为的根源,并找到解决办法。其中之一就是数据中已经隐藏的偏见。”

他举例说,亚马逊发现它的简历筛选算法是用“女性”这个词或女子学院的名字来投简历。他表示:“没有人是故意这么做的,但这在某种程度上预示了亚马逊招聘经理以前做出的决定。这并不奇怪,因为机器学习算法只是试图在你给它们的数据中找到模式。没有理由认为他们会消除数据中已经存在的偏见。”

消除这种偏见的最佳方法是提高公众意识,并指定经过培训的人员来审查和审计人工智能的产出。Kearns说:“在歧视性培训中,让了解这一领域的科学家和工程师检查你对机器学习的使用,算法开发管道,并保持警惕,确保你没有从事不良的隐私保护行为。是时候让计算机科学家、统计学家和其他参与构建这些算法和模型的人坐到c级讨论的位置上了。”

Roth补充说,不要等着接到法律部门的电话。“如果你想确保你的学习算法不会因为隐私问题或公平问题而受到法律挑战,你必须从一开始就考虑到这些问题来设计它们。这些不仅是政策问题,而且是技术问题。让了解科学和技术的人从一开始就参与进来是很重要的。”

本文来源zdnet,经授权后由七月的肥猫发布,观点不代表华盟网的立场,转载请联系原作者。

发表评论