当前位置:  首页 > 十大景点

人工智能:“花海”之下仍有“荆棘”

2018-03-18 11:06:00来源:pk10旅游公司

  图为工人在河北沧州中捷高新区一间汽车部件消费项目厂房内调试焊接机器人。 时时社记者 杨世尧摄

  由于无人驾驶汽车的无人操作与各国现有道路交通法规抵触,相应立法和规范不时是其展开的重要前提条件。图为无人驾驶汽车的探测方式模仿图。

  中国科技大学研制的智能机器人与小朋友互动。 (资料图片)

  人工智能能够同声传译、写新闻稿、辅佐医生看病、让机器人脸辨认的精度高于人类、以至写诗和打败围棋世界冠军,其应用可谓“百花齐放”。

  数据显现,截至2017年6月,全球人工智能企业总数抵达2542家,估量到2030年,人工智能将为世界经济贡献15.7万亿美圆。

  在今年7月国务院印发的《新一代人工智能展开规划》(以下简称《规划》)中提出,到2020年,我国人工智能中心产业范围超越1500亿元,带动相关产业范围超越1万亿元。顶层设计相继出台,巨头发力规划生态,资本市场热情洋溢,细分行业独角兽不时涌现,人工智能这片“花海”已不止“看上去很美”。

  但“花海”之下仍有“荆棘”。市场研讨机构埃森哲大中华区信息技术效劳总裁陈笑冰坦言:“人工智能也将会引发新的安全和伦理问题,鉴于未来人工智能将深化生活,政府也需求真实为人工智能制定监管规则,保证人工智能应用合理合规展开。”《规划》也同时提出:“人工智能展开的不肯定性带来新应战。人工智能是影响面广的推翻性技术,可能带来改动就业结构、冲击法律与社会伦理、侵犯个人隐私、应战国际关系准绳等问题,将对政府管理、经济安全和社会稳定乃至全球管理产生深远影响。”

  人工智能展开将面对怎样的应战与风险?又应该设立怎样的“游戏规则”,让新技术能够与人类社会良性互动?

  监管刚刚起步

  人工智能不时融入人类生活的同时,也引发公众对人工智能的忧虑。对此,专家表示,应该树立监管机构来引导、促进和保证人工智能的安康展开

  此前有报道称,“脸书”人工智能研讨所中的两个聊天机器人“失控”,展开出了人类无法了解的言语,“被迫关闭”引发了普遍关注。固然随后被证明是一场“乌龙”,只是由于工程师遗忘参与“运用英语语法”这一条件。

  但对事实的夸大报道,也显现出媒体和公众对人工智能的忧虑。在北京市中盾律师事务所律师陈涛看来,随着人工智能深化融入消费和生活,必需以立法来对其安全性中止监管,给公众吃下“定心丸”。互联网汽车的特斯拉埃隆·马斯克也表示,咱们应该警惕人工智能崛起的潜在风险,并树立监管机构来引导这项强大技术的展开。

  对人工智能中止立法监管,首先要处置人工智能运用中基本的安全问题,以及运用者与效劳提供者的义务界定问题。以无人驾驶汽车为例,上路前,对其安全性如何全面评判?一旦无人驾驶汽车呈现事故,如何判别运用者、软件提供商以及车辆制造商等多方主体的义务,如何在后续赔偿和保险理赔中中止规则?实践上,立法监管不只降低风险,也让效劳企业能够“有据可依”,从而促进和保证人工智能的安康展开。

  从目前来看,各个国度的人工智能监管都刚刚被提上日程。在美国,2016年10月,总统行政办公室和国度科技委员会发布了两份重量级报告:《美国国度人工智能研讨展开战略规划》与《为未来的人工智能做好准备》,后者提出了展开人工智能的7项关键战略,在第三条“社会影响战略”中,提出“了解和肯定人工智能在法律、伦理和社会范畴中的影响”;在第四条“安全战略”中,则提出“确保人工智能系统的安全和对公众的隐私维护”。

  在欧盟,2016年欧盟法律事务委员会向欧盟提交了《欧盟机器人民事法律规则》,针对基于人工智能控制的机器人,提出了运用的义务规则、伦理准绳、对人类自身和财富的伤害赔偿等监管准绳。英国下议院科学技术委员会在今年4月表示,也将展开关于人工智能监管的研讨。

  在我国,《规划》中同样提出,到2020年,“部分范畴的人工智能伦理规范和政策法规初步树立”。其中特别提出,要“展开与人工智能应用相关的民事与刑事义务确认、隐私和产权维护、信息安全应用等法律问题研讨,树立追溯和问责制度,明白人工智能法律主体以及相关权益、义务和义务等”,“重点盘绕自动驾驶、效劳机器人等应用基础较好的细分范畴,加快研讨制定相关安全管理法规,为新技术的快速应用奠定法律基础”。

  不过,对人工智能的监管也不能“闭门造车”。“立法的前提是了解人工智能的科学规律,需求充沛准备、探求和积聚,对技术进步充沛了解,同时思索公众的实践需求。”陈涛表示。

  安全仍有漏洞

  安全是人工智能面临的庞大应战。这其中既包括在应用层面的传统黑客攻击方式,也存在着对基础设备方面中止的数据库、云效劳等攻击。但更关键的安全问题是从最中心的算法层面发起攻击

  两张人眼看起来一模一样的熊猫图片,一张被神经网络正确辨认为“熊猫”,另外一张却由于被加上了人眼难以察觉的微小扰动,就被神经网络以99.3%的置信度辨认为“长臂猿”——这就是能够“玩弄”人工智能的对立样本,直接折射出人工智能所面对的安全问题缩影。

  专注于互联网安全的极棒实验室总监王海兵通知《经济日报》记者:“安全是人工智能面临的庞大应战。”他表示,一方面,人工智能要面对传统的黑客攻击方式,比如在应用层面,能够攻击它的操作系统或者逻辑漏洞。“比如说,经过对智能门锁的攻击,就能完成恣意人脸都能够经过门禁。”在人工智能的基础设备方面,则能够对人工智能运用的数据库、云效劳等中止攻击,“比如说,机器视觉经常调用的OpenCv库,机器学习用到的TensorFlow框架,人工智能的从业者能够直接调用这些效劳,但不幸的是,这些基础设备同样有漏洞。”王海兵说。

  但是,人工智能所面对的更关键安全问题,正是诸如熊猫图片这样的对立样本。王海兵表示:“用对立样本攻击人工智能,其实就是从最中心的算法层面来攻击它。”

  美国加州大学伯克利分校教授宋晓冬这样引见对立样本攻击的危害:“比如,无人驾驶汽车依据交通标示中止决策。假如交通标示是一个对立样本,那么人类能够完整不受干扰,但无人驾驶汽车却可能将它完整辨认成错误信息,这将带来严重结果。”实践上,美国伊利诺伊大学的一项测试曾经证明,自动驾驶系统有可能被对立样本“蒙骗”。

  “但公众不用过于担忧,至少往常来看,针对自动驾驶的对立样本对立性很差。比如,它只能在0.5米的距离内让自动驾驶系统错判,但自动驾驶场景毕竟是逐步接近交通标识的。”王海兵也表示,“未来会不会有更圆满的对立样本,仍是未知数”。

  人工智能面对众多安全问题,对此,开发者也在努力总结与之对立的伎俩。智能家居消费厂商BroadLink高级副总裁康海洋表示:“咱们会将多方数据融合和统一剖析,以提升数据的可信水平,同时也在尽量让整个系统变得愈加透明。此外,咱们还会及时销毁一切能销毁的数据,减少用户被攻击的可能性。”

  伦理尚待明白

  通知人工智能何为“正确”,正在成为十万火急。假如不对其进化方向和目的构成共识,人工智能的伦理规则将无法“落地”

  假如坚持前行,会撞上沿途的5位行人;假如避开他们,就会撞上路边的墙,车中的两名乘客则可能有生命风险。在这种状况下,指挥自动驾驶的人工智能应该如何选择?英国伦敦玛丽女王大学高级讲师雅思密·艾登表示:“假如是人类驾驶员,大能够直接撞上行人,并表示‘是他们自己忽然跳出来的’,但人工智能在道德上很难取得这么朴素的原谅。”

  这只是人工智能所处伦理困境的冰山一角。今年以来,麻省理工和哈佛大学分离推出了人工智能伦理研讨计划,微软和谷歌等巨头也成立了人工智能伦理委员会,通知人工智能何为“正确”,正在成为十万火急。《互联网进化论》一书的作者、计算机博士刘锋坦言:“固然大方向上说,人工智能应当以造福人类为前提,但假如不对进化方向和目的构成共识,人工智能的伦理规则将无法‘落地’。”

  关于人工智能来说,“伦理正确”的中心是正确的“算法”。美国一些法院运用的一个人工智能立功风险评预算法COMPAS,被第三方机构以为对黑人构成了系统性歧视。业界因而狐疑,小众人群有可能由于个体差别而接受“算法的歧视”。腾讯研讨院研讨员曹建峰表示,假如算法自身有问题,一旦将算法应用在立功评价、信誉贷款、雇佣评价等关乎人身利益的场所,“由于它是范围化运作的,并不是仅仅针对某一个人,可能影响具有相似状况的一群人或者种族的利益。范围性是很大的”。

  此外,还有来自数据的风险。以色列历史学家尤瓦尔·赫拉利表示,“人工智能技术的一个潜在结果是:促成数据集中到某一个中央,也进而招致权益的集中”。比如,大量互联网数据集中在少数几家巨头的手中,人工智能技术能否会因而遭到垄断?“AlphaGo之父”哈萨比斯就曾表示:“我提示诸位,必需正确地运用人工智能。”他通知记者,“人工智能技术不能仅为少数公司和少数人所运用,必需共享”。

  AlphaGo超越了人类几千年来对围棋的了解,但人类并非能完整了解AlphaGo为何会如此决策。从这一点来看,人工智能像个“魔盒”,这也让透明性成为人工智能伦理中的重要组成部分。英国阿兰图灵研讨所科研主管安德鲁·布莱克表示,算法可问责性的存在至关重要。“透明性规则应被作为伦理道德准绳,编入算法之中,这样人们才干更为明晰地认知人工智能的社会影响,并在问题发作之时能够及时找出缘由,调整战略。”(记者 陈 静)

文章关键词:

人工智能