环球门户网

为什么人类是对抗人工智能偏见的关键

更新时间:2021-12-09 12:02:47

导读 人工智能曾经是科幻小说中的东西。但今天,它以聊天机器人、语音助手甚至谷歌地图的形式融入了我们的日常体验。事实上,根据Statista的数据

人工智能曾经是科幻小说中的东西。但今天,它以聊天机器人、语音助手甚至谷歌地图的形式融入了我们的日常体验。事实上,根据Statista的数据,现在有84%的全球商业组织认为AI会给他们带来竞争优势。

人工智能可能很常见(至少在简单的层面上),但要把它发展到成熟就更难以捉摸了。训练机器像人类一样学习、反应和操作,需要在无数情况下输入大量数据。

对于组织来说,面对许多潜在的问题,仅仅管理它们是非常困难的。最常见也可能是最危险的问题是数据偏差。如果组织计划在人工智能方面做得很好,那么处理这种偏见应该是它的首要任务。否则,公司将面临算法交付错误结果并可能疏远大多数客户的风险。

解决这个问题的第一步是首先了解算法是如何变得有偏差的。每个开发人员(对于这件事,每个人)都有有意识和无意识的偏差,这会影响他们最初的开发,而且因为算法的智能只有训练数据那么聪明,可能会成为危险的先例。糟糕的数据可能会导致有偏见的人工智能做出伤害他人的积极决策。然而,尽管人类是所有偏见的根源,但他们也是消除偏见的关键。

如今的消费者希望AI变得更加自然和人性化,但要实现这一点,算法中输入的数据必须更能代表现实世界。

大规模收集真人的各种训练数据就是做到这一点的方法。经过审查的全球社区涵盖许多国家、年龄、性别、种族、文化、政治派别、意识形态、社会经济和教育水平,各组织可以验证其算法正在产生准确、类似人类和真正有用的结果。这适合于获得训练数据和正在进行的数据收集的基准集,因此建议引入允许持续反馈和修改的结构。

也许有些用户已经报告了产品的一些问题,比如语音或面部识别,然后这些反馈可以整合到下一个版本的算法中,供未来的用户使用。

现实是,尽管技术无限实现,AI也只能和写它的人一样好。当我们考虑到每个人有意无意的偏见时,就会造成很多问题。在某种程度上,人工智能总是带有偏见的,但通过在发布前收集实际的人类交互,企业可以训练自己的算法,获得能够为客户提供真正价值的结果。

我们已经到了人工智能开始影响我们社会中个人和群体未来的地步。因此,开发这些算法的公司必须发挥积极作用,才能让AI更好地反映社会,让每个人都更公平。

版权声明:转载此文是出于传递更多信息之目的。若有来源标注错误或侵犯了您的合法权益,请作者持权属证明与本网联系,我们将及时更正、删除,谢谢您的支持与理解。