微软科学家说负责任的人工智能取决于模型的可视性

2020-03-24 13:17:00

人工智能的兴起已经警告人们有偏见,欺骗性和恶意的应用程序。

微软公司高级机器学习科学家和云倡导者弗朗西斯卡·拉泽里(Francesca Lazzeri)表示,但是有一种方法可以避免偏差并确保负责任的AI 。

微软科学家说负责任的人工智能取决于模型的可视性

“在我们的团队中,我们有一个称为“可解释性工具包”的工具包,它实际上是一种开放机器学习模型并了解不同变量,不同数据点之间的不同关系的方式,” Lazzeri说。“这是一种简单的方法,您可以了解为什么您的模型可以为您提供特定的结果。”

除了在Microsoft工作之外,Lazzeri还是博士的导师。和麻省理工学院的博士后学生。

在佛罗里达州奥兰多举行的Microsoft Ignite活动中,她与SCU Miniman 和Rebecca Knight交谈,后者是SiliconANGLE Media的移动直播工作室的联合主持人。他们讨论了负责任的AI的发展道路以及Microsoft最近在机器学习中发布的版本。

微软科学家说负责任的人工智能取决于模型的可视性

Lazzeri说,在AI应用程序中发现的大多数偏差问题都始于数据。她说:“您必须确保数据足以代表您的AI应用程序所针对的总体。” “大多数时候,客户只是使用自己的数据。查看外部数据类型也很有帮助。”

避免问题的另一种方法是与业务和数据专家一起检查模型。“有时候我们有数据科学家在孤岛上工作;他们并没有真正传达他们在做什么,” Lazzeri指出。“您必须始终确保数据科学家,机器学习科学家与数据专家,业务专家以及每个人都在密切合作……以确保我们了解我们在做什么。”

对于刚开始机器学习之旅的公司,第一步是确定必须回答的业务问题,Lazzeri解释说:“一旦想到了这个问题,第二步就是了解他们是否拥有正确的数据支持该过程所需的内容。”

微软科学家说负责任的人工智能取决于模型的可视性

在那之后,重要的是能够将业务问题转换为机器学习问题。“而且,最后,您始终必须确保能够部署此机器学习模型,以便为部署以及我们所谓的操作部分做好准备,” Lazzeri说。“这确实是您要在机器学习解决方案中增加业务价值的时刻。”

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。