人工智能该如何远离偏见与歧视-中工国际-中工网
中工网首页时政评论国际军事社会财经企业工会维权就业论坛博客理论人物网视图库体育汽车文化书画教育娱乐旅游绿色城建打工

中工国际

科技

人工智能该如何远离偏见与歧视

2018-10-15 08:22:13 文汇报

  越来越多的高技术产业和数字服务都以人工智能和机器学习为基础。但是,我们必须看到:人类社会存在的偏见和歧视也会被复制到人工智能系统中。因此,我们应对人工智能的整个程序进行监管,包括信息输入输出、数据、算法、模型等,以克服偏见与歧视在人工智能领域的延续。

  在人工智能问题上,有个所谓 “黑盒子”的问题,即我们不能看到程序算法的内部,因此无法理解人工智能是如何做出决策的。如果没有解决好这个问题,一些涉嫌歧视的数据将被算法永久性地编码进人工智能程序中,从而影响未来人类与人工智能的关系。不过,仅靠纯粹的技术手段,很难实现对人工智能的每个阶段实现无漏洞监控,同时还需通过人工评估和干预,才能确保偏见和歧视被彻底消除。

  要消除人工智能潜在的歧视问题,第一步是打开算法“黑匣子”。出于专利保护和商业机密的考虑,许多公司的人工智能程序算法都处于保密状态。不过,这一状况正得到改变,目前人工智能领域正在加快代码的开源,制定新的透明度标准,来提高人工智能产品的可靠性。AI NOW是美国纽约大学一个倡导算法公平的非营利组织,它提倡 “程序员必须对算法得出的结论做出解释,否则就不能投入使用”。

  目前,相当一部分互联网巨头开始正视这一点。如谷歌开发的几个人工智能项目,程序员为机器学习增加了手动限制,使输出的信息更准确,可理解性更高。美国国防部高级研究计划局还资助了一项名为XAI(可解释的人工智能)的计划,旨在打开人工智能的 “黑匣子”,以保证用户更好地控制人工智能程序。微软首席执行官萨蒂亚·纳德拉也认可 “算法问责制”的必要性。

  但通过打开算法 “黑匣子”,制定法规和政策来确保消除人工智能的偏见和歧视,这还远远不够。因为偏见与歧视不光存在于算法中,还存在于人工智能得出的结论、预测和建议中。

  以虚拟助手为例,处理比较简单的任务时,人工智能系统会偏向使用女声(例如Apple的Siri和亚马逊的Alexa);而解决疑难问题时,系统则选用男声(例如IBM的Watson和微软的爱因斯坦)。由于在人工智能行业女性从业人数偏少,这更是增加了性别歧视的可能性。

  鉴于此,我们应加强对人工智能所使用的数据、算法以及模型的评估,以剔除潜在的可导致偏见与歧视的因素,并且加强程序员的 “算法问责制”,这样才能提高人工智能产品的可靠性,最终建立起人机信任。

  

编辑:徐林

相关阅读

高清图片

 

图片

 

排行

 

专题

  • 专题

    2018中国国际进口博览会

  • 专题

    中非合作论坛北京峰会

  • 专题

    “一带一路”倡议五周年

  • 专题

    泰国普吉岛游船倾覆事故

  • 专题

    上合青岛峰会

 
关于我们 | 广告服务 | 联系我们 | 本站地图 | 投稿邮箱 | 版权声明 | 违法和不良信息举报电话:010-84151598 | 网络敲诈和有偿删帖举报电话:010-84151598
Copyright © 2008-2018 by www.workercn.cn. all rights reserved
扫码关注

中工网微信


中工网微博


中工网抖音


工人日报
客户端
×