加入收藏 | 设为首页 | 会员中心 | 我要投稿 河北网 (https://www.hebeiwang.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 建站 > 正文

人工智能的不良、偏颇和不道德的应用

发布时间:2019-09-02 20:26:25 所属栏目:建站 来源:Harris编译
导读:首席信息官应相识一些个不道德人工智能的例子,并相识其在确保企业人工智能保持中立方面的浸染。 现在,人工智能技能的回收正在敏捷加速。调研机构Gartner公司猜测,到2020年,人工智能将成为30%以上的首席信息官的五大投资重点。麦肯锡公司的一项研究预计

首席信息官应相识一些个不道德人工智能的例子,并相识其在确保企业人工智能保持中立方面的浸染。

人工智能的不良、偏颇和不道德的应用

现在,人工智能技能的回收正在敏捷加速。调研机构Gartner公司猜测,到2020年,人工智能将成为30%以上的首席信息官的五大投资重点。麦肯锡公司的一项研究预计,环球科技公司在人工智能技能方面耗费了200亿至300亿美元,首要用于研发。

固然人工智能技能的社会效用令人佩服,但正如英国卫报对“不服等项目”所提出的那样,也存在着一些公道的忧虑,“当我们提供应呆板的数据反应出我们本身不服等社会的汗青时,我们现实上是在要求措施进修我们本身的成见。”

不幸的是,人工智能的不良、成见或不道德行使的例子很常见。以及关于企业怎样保持中立的提议。

1.抵押贷款

贷款小看的模式已从人类成见转向算法成见。哈斯商学院金融学传授Adair Morse配合撰写的一项研究得出结论:“纵然编写算法的人规划建设一个公正的体系,他们的措施对少数借钱人也有差异的影响——换句话说,在法令下是小看性的。”

人们也许会以为,银行和房地产经纪人将非白人借钱人体系地断绝到不太有利的社区,这已成为已往。但令人惊奇的是,抵押贷款行业的自动化只使得在用户界面后头潜匿红线变得越发轻易。计较机安详专家BruceSchneier在其最近出书的“DataandGoliath”一书中论述了2000年富国银行怎样操作“社区计较器”建设了一个促进抵押贷款的网站,辅佐买家找到吻合的社区。计较器网络用户当前的邮政编码,按照当前社区的生齿统计数据相识他们的种族,而且只保举具有相似生齿统计数据的社区。本年早些时辰,美国住房和都市成长部就住房和抵押贷款告白中的种族成见告状了Facebook公司。

2.人力资源

到今朝为止,当路透社报道亚马逊公司的新雇用引擎解除女性时,污名昭著的雇用成见题目引起了公家的留意。

据路透社报道,亚马逊公司在2014年组建了一个团队,该团队行使500多种算法自动化工程师和编码职员的简历考核流程。该团队行使亚马逊公司软件团队成员的简历对体系举办了培训,而这些团队成员绝大大都是男性。因此,该体系学会了打消任何上过女子学院或在简历中列出女子组织职员的资格。

越来越多的企颐魅正在人力资源流程的各个层面回收算法决定体系。制止2016年,72%的求职者简历不是由事恋职员筛查的,而是完全由计较机筛选。这意味着求职者和员工与人打交道的频率会低落——像亚马逊公司这样的故事也许会变得越发广泛。

然而,一好动静是一些公司正在全力消除隐藏的成见。ABBYY公司首创人David Yang配合创建了Yva.ai,这是一个专门计划的说明平台,通过停止行使任何也许导致成见的指标(譬喻性别、年数、种族)来停止算法毛病,纵然这些指标是次要的(如参加妇女的勾当或体育勾当),中学(如姓名或结业日期),乃至是大学(如介入精英学院,这已被越来越多地称为对少数群体的成见的指示)。

在另一个例子中,此刻由微软公司全部的LinkedIn已经陈设了体系来网络和操作LinkedIn档案中的性别信息,而不是忽略这些信息。LinkedIn然后行使这些信息对任何隐藏的毛病举办分类和更正。

3.搜刮规模

纵然是根基的互联网搜刮也会受到成见的影响。譬喻,加州大学洛杉矶分校传授萨Safiya Umoja Noble在谷歌搜刮“黑人女性”后,受到开导写了一本名为《抑制的算法》的菱,探求与侄女分享的风趣网站,功效发明网站页面上充斥着不良内容。同时,搜刮“首席执行官”时却表现了大量的白人形象。(荣幸的是,首席执行官的题目在搜刮引擎上正在获得办理。)

谷歌搜刮的其他成果(譬喻AdWords)也存在成见。来自卡内基梅隆大学和国际计较机科学研究所的研究职员发明,男性求职者比女性更轻易看到高薪高管地位的告白。在翻译某些说话时,谷歌翻译也被称为性别小看,譬喻假定护士是姑娘,大夫是汉子。

4.引导行业

伦敦圣乔治医院医学院的招生主任建设了一个1979年的项目,该项目很大噶?鲱早陈诉的受污染体系的案例,但最终不测地解除了险些全部少数族裔和女性申请人。到1986年,学校的事恋职员开始存眷隐藏的小看,最终发明每年至少有60名少数民族和女性申请人被不公正地解除在外。

人们也许想知道为什么花了这么长时刻才发出警报,思量到按照报道,只要一个非欧洲名字可以自动低落申请人的分数15分。闻名的英国医学杂志直截了内地将这种成见称为“职业上的污点”,最终,该校受到了稍微的赏罚,并提供了抵偿,包罗登科一些被解除在外的申请人。

首席信息官的脚色

行业领先的科技公司正在全力办理数据的道德行使题目。譬喻,微软公司已经拟定了一套六项道德原则,涵盖公正、靠得住、安详、隐私和安详、海涵性、透明度、责任。与此同时,Facebook公司最近向慕尼黑技能大学拨款750万美元,成立一小我私人工智能道德研究所。其他科技公司已经认同了人工智能同盟的搭档相关及其“搜集环球各类声音以实现人工智能的理睬”的原则。

假如人工智能应用措施没有成见,企业必需支持人工智能技能的整体要领。人工智能只和它背后的数据一样好,以是这些数据必需是公正的,而且代表全部人和文化。

另外,必需按照国际法拟定技能原则。本年的G20峰会财长初次认同认真人工智能行使的原则。这包罗以工钱本的人工智能要领,该要领号令各国以尊重人权并分享其所提供的好处的方法行使人工智能。

在最简朴的层面上,首席信息官必要质疑他们正在构建的人工智能应用是否道德、安详和正确。题目也许包罗:

1.人工智能技能背后的数据是否精采,可能是否存在算法毛病?

2.是否起劲检察人工智能算法,以确保它们颠末恰当调解和培训,可以或许按照预先界说的测试集天生预期功效?

3.在人工智能技能怎样影响组织内部以及客户和相助搭档好处相干者外部方面,是否僵持透明原则(如GDPR)?

4.是否设立了专门的人工智能管理和咨询委员会,包罗跨职能率领和外部参谋,以成立和监视人工智能办理方案的管理?

归根结底,人工智能的伦理应用应被视为一项法令和道德任务,同时也是一项贸易呼吁。不要成为不良和有成见的人工智能的另一个例子。企业必要从这些不道德的用例中进修教导,以确定其人工智能事变是否保持中立。

(编辑:河北网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读