加入收藏 | 设为首页 | 会员中心 | 我要投稿 河北网 (https://www.hebeiwang.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 移动互联 > 正文

牛津、剑桥等14家机构告诫:鉴戒AI被用于恶意目标

发布时间:2018-02-24 15:49:32 所属栏目:移动互联 来源:凤凰科技
导读:在这份题为《人工智能的恶意用途:猜测、提防缓和解》(The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation)的陈诉中,专家列出了将来5年人工智能也许给人类带来题目的一些途径,以及人类的应对之道。 人工智能可以

在这份题为《人工智能的恶意用途:猜测、提防缓和解》(The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation)的陈诉中,专家列出了将来5年人工智能也许给人类带来题目的一些途径,以及人类的应对之道。

牛津、剑桥等14家机构申饬:借鉴AI被用于恶意方针

人工智能可以被用于恶意目标

凤凰网科技讯 据The Verge北京时刻2月23日报道,当评论人工智能带来的伤害时,我们凡是夸大的是料想之外的副浸染。我们担忧的是,我们也许会心外地开拓出具有超等伶俐的人工智能体系,而健忘赋予它道德;可能我们在陈设刑事讯断算法时,这些算法接收了用来逊??的数据存在的种族成见意识。

但这还不是人工智能也许带来的所有风险。

人们会主动将人工智能用于不道德、犯法或恶意目标吗?这会带来更大题目吗?来自包罗牛津大学、剑桥大学、人类的将来研究所(Future of Humanity Institute)、埃隆·马斯克(Elon Musk)投资的非营利性组织OpenAI在内的机构的二十多位专家称,这两个题目的谜底是必定的。

在这份题为《人工智能的恶意用途:猜测、提防缓和解》(The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation)的陈诉中,专家列出了将来5年人工智能也许给人类带来题目的一些途径,以及人类的应对之道。陈诉联相助者迈尔斯·布伦戴奇(Miles Brundage)向The Verge暗示,固然人工智能可以被用来动员恶意进攻,但我们没有须要谈人工智能色变,可能绝望。

布伦戴奇暗示,“我喜好起劲的立场,也就是说我们还大有可为。陈诉的本意不是描写气馁的将来——人类可以采纳诸多提防法子,我们尚有很多对象必要进修。我并不以为我们已经陷入绝境,但我把这份陈诉看作是动作的倡议书。”

陈诉的内容很普及,但重点先容了人工智能加剧实体和数字安详体系面对威胁和制造全新威胁的几种首要方法。它还提出了应对这些题目的5点提议,个中包罗使人工智能工程师提前奉告他们的研究被用于恶意目标;启动官场和学术界之间对话,停止当局和立法构造对此一窍不通。

人工智能最大的威胁之一是,通过使本来要求人工完成的使命实现自动化,人工智能可以大幅度低落某些进攻的本钱。

陈诉提出的第二个要点是,人工智能可觉得现有威胁增进新维度。譬喻,在垂纶进攻中,人工智能不只能用来天生常见的电子邮件和动静,还能天生卖弄音频和视频内容。

虽然,人工智能还能对一些恶意举动起到“助纣为虐”的浸染。譬喻,在政治和社会糊口中阁下舆论。

陈诉还叙述了人工智能带来的全新威胁,个中包罗可怕分子在保洁呆板人中潜匿炸弹,把它送到特定场合,方针接近后由人工智能技能自动引爆炸弹。

为了提防、减轻人工智能也许带来的危害,陈诉给出了5点提议:

·研究职员该当奉告他们的研究也许的恶意行使方法。

·政策拟定者必要向技能专家相识这些威胁。

·人工智能行业必要向收集安详专家进修怎样更好地掩护其体系。

·必要拟定人工智能道德框架,并严酷遵守。

·必要有更多人参加对这一题目的接头,个中不该该仅仅范围于人工智能科学家和政策拟定者,还应该包罗伦理学家、企业和平凡公共。

换句话说:就是更多的对话和更多的动作。(编译/霜叶)

(编辑:河北网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读