湖北广播网 > 房产频道 > 房地产创新 > 正文

习近平总书记为什么对人工智能提出了这四个字

2018-11-07 09:24 来源:湖北广播网

摘要:人工智能如何才能“健康发展”

中共中央政治局10月31日下午就人工智能发展现状和趋势举行第九次集体学习。中共中央总书记习近平在主持学习时强调,人工智能是新一轮科技革命和产业变革的重要驱动力量,要努力推动我国新一代人工智能健康发展。

如何理解“健康发展”这四个字?近年来,社会各界关于人工智能的话题热度只增不减。人工智能经过半个多世纪的发展,取得了令世人瞩目的成果,人工智能产品也不断地从实验室走入人们的日常生活。正在爆发的新一轮人工智能热潮,得益于海量的数据、强大的计算资源以及更先进的算法。算法本质上是一系列指令,与传统算法不同的是,人工智能的算法是通过对已有数据的学习,能够在与历史数据不同的情境下做出判断,具有感知、推理、决策行为并能够按一定目标完成相应任务的计算系统。简单地说,就是通过大量的数据训练出一个可以自组织、自学习的数学模型,然后在更多场景中利用这个模型预测其它场景下的结果。

新一代人工智能的重要特征在于对大数据的深度学习,深度学习先是在语音、自然语言处理领域取得突破,继而在图像识别领域的准确率超过人类,然后迅速在各个领域大放异彩。卢西亚诺·弗洛里迪在其著作《第四次革命——人工智能如何重塑人类现实》中把人工智能称为继蒸汽机发明、电力应用、计算机应用之后的“第四次革命”,其广泛应用将带来巨大的社会效益。在刚刚结束的2018世界人工智能大会上,马云提出人工智能是一种认识和思考世界的方式,是生产力、生产关系、生产资料的改变。对此,我们需要充分认识未来人工智能发展可能带来的社会影响,它能够释放过去人类技术和工具的潜能,同时也带给我们前所未有的挑战。

人工智能的发展意味着其决策和行动的自主性日益增强,逐步从被动的工具向能动者转变,正因为如此,其决策和行为一定要符合人类基本的价值观以及法律和伦理规范,否则将对人类社会产生威胁其至灾难。图灵在《智能机器》一文中不但详细讲述了人工智能技术的发展趋势和方向,同时也提到了人工智能对人类的威胁。2015年,包括中国学者在内的全球十多位科技政策与科技伦理专家在《科学》杂志上发表了一封题为《承认人工智能的阴暗面》的公开信,倡议将人工智能的社会伦理问题纳入现实的社会政策与伦理规范议程。2017年在美国加州举办的阿西洛马人工智能会议上,近千名人工智能领域的行业领袖和专家联合签署了《阿西洛马人工智能23条原则》,其中涉及伦理价值的共13条,包括人工智能开发中的安全、透明度、责任、价值观等,可以说是对过去60多年有关人工智能公共话语的一个总结。2018年在天津高新区召开的雷克大会(即机器人与人工智能大会)上,工信部赛迪研究院发布了《人工智能创新发展道德伦理宣言》,包括人工智能系统、人工智能与人类的关系、人工智能具体接触人员的道德伦理要求、人工智能的应用、当前发展人工智能的方向等方面。

由此可见,对人工智能的认识不能只停留在技术层面,人工智能近年来的爆发式发展所带来的社会伦理影响已经引起全社会的高度关注,加强相关法律、伦理和社会问题研究,构建保障人工智能健康发展的法律法规和伦理道德框架是当前值得关注的重大命题。

人工智能的发展和大规模应用所带来的伦理挑战涉及安全威胁、数据隐私、算法歧视、人工智能主体权利等问题。路易斯维尔大学网络安全实验室的罗曼教授发表的《人工智能和网络安全:人工智能的失败》列举出发生在2016年的10项重大的人工智能失败案例,其中涉及安全威胁的包括特斯拉自动驾驶汽车造成人员伤亡、机器人伤人事件等。如何确保人工智能产品的安全运用,保障人类健康和生命安全,显然是有关人工智能伦理的首要问题。

隐私是一种不被干扰的权利,其本质特征在于由所有者独自控制,不对外公开,外界亦不得侵犯。随着技术的进步,监控变得以往任何时候更为容易和普遍,也更为隐性。尤其是当我们寻求所谓便捷和安全时,常常有意无意地牺牲了隐私。能否在利用大数据进行分析的同时,确保信息数据和个人隐私的安全,这直接影响每个公民的合法权益。歧视在很多情况下是算法的副产品,而算法本身并不必然是公平的。一方面,算法的设计者和开发者可能将自己的偏见嵌入其中;另一方面,算法的输出取决于数据的有效性和准确性,不完善的数据必然导致不完善的结果,同时,错误的输入形成的错误输出作为反馈有可能进一步加深错误。

随着人工智能系统在外在表现形式乃至内在机理方面越来越像人,一个不可回避的问题是,人类到底该如何对待人工智能,亦即是否承认某些人工智能的主体权利和地位。欧盟委会员早在2016年便动议将最先进的自动化机器定义为电子人,并赋予其著作权、劳动权等特定的权利和义务。欧洲议会法律事务委员会于2017年曾发布一份关于机器人和人工智能的报告,该报告认为应该发展出一种适用于机器人和超级人工智能的“电子人格”模式,从而可以保障未来或许会出现的类人机器人以及人工智能的权益和责任。就在同一年,沙特阿拉伯授予美国汉森公司生产的机器人索菲亚(Sophia)沙特国籍,成为史上首个获得公民身份的机器人。

针对上述伦理问题,有科学家试图通过编程植入人工智能,以此规避掉人工智能可能带来的伦理风险。联合国发布的《机器人伦理初步报告草案》认为机器人不仅需要尊重人类社会的伦理规范,而且需要将特定的伦理准则嵌入机器人系统。2016年底IEEE(电气和电子工程师协会)启动人工智能伦理工程,发布了《合伦理设计:利用人工智能和自主系统最大化人类福祉的愿景》,从可操作标准的层面为伦理嵌入提供指引。

然而,人工智能的伦理问题能否靠程序或算法解决?有学者认为这一问题实际上需要回答伦理究竟是一个形式化的规范问题,还是一种情境性的道德问题。前者意味着伦理规范可依据先验的道德律令进行推演,而后者则强调应从具体的情境和实践来思考伦理问题,毕竟以程序设计让人工智能接受人类伦理的方式,会遭遇不同的道德情境。正如人类通过学习、社会交往等习得并遵守道德、法律、伦理等规范和价值,我们希望人工智能通过伦理标准的设定和对人类行为的学习能够尊重人类社会的各种规范和价值,并实现社会利益的最大化。即便以代码形式能够解决伦理规则的嵌入问题,但仅仅靠伦理嵌入人工智能进而实现自律行为是远远不够的,仍然需要一套外在的监督和制裁机制。这就需要政府、市场和公民社会等多元主体携手合作、共同参与,从而构建多层次、多样性、全方位的人工智能治理模式。

当前,人们对人工智能的认知大多停留在对终端产品的了解,如何实施行之有效的事前与事中监管,对政府和社会各界而言无疑是个巨大的挑战。当前,政府仍主要作为战略布局者参与到人工智能的治理之中,各国尚未形成体系化的监管制度,这主要是由于人工智能技术的复杂性及其高门槛,使得公共政策的制定者很难深入了解现有人工智能技术及风险。外部监管的缺失加上商业自治的非中立性,是多元治理主体面对人工智能需要协力破解的主要难题。实现人工智能的有效治理,需要社会各界从理念、制度、技术等层面形成协同机制与合力。

理念是行动的先导,人工智能能否优化公共服务并在治理层面上发挥最大功效,首先就取决于多元治理主体的认知和态度。对待人工智能,既要把握长远规划又要正视现实挑战,以前瞻性的行动理念推进人工智能的发展。人工智能治理应当建立在技术与产业革新的基础之上,对人工智能的监管须以促进发展和创新为目的,如果一味地沿用过往的监管思路,监管效果不仅会大打折扣,还有可能直接扼杀科技的创新。为此,政府有必要推动建立人工智能产业联盟,加强产业链上下游紧密协作,促进重点领域和重点产品的研发与成果产业转化。

多层次治理是指政府、市场以及民众各司其职,加入到治理大军。各方主体作为人工智能的利益相关者,在对话、协商和博奕中为人工智能的发展探索最佳路径。政府作为民意的代表需要从顶层自上而下把握人工智能的发展方向,为人工智能制定统一的安全标准与法律规范,构建并完善围绕算法和数据的治理体系与治理机制,建立人工智能发展的基础设施。算法和数据是人工智能时代新治理的基础,传统的互联网治理审查的大多是内容,而人工智能时代的治理更需要审查算法。

同时,政府需要进一步完善社会保障体系,在最大程度上缓解人工智能发展可能带来的不确定性冲击。此外,政府治理水平的提升离不开政企间深度协作机制,政府还需要借助科技企业的技术和智力优势,形成政府治理的技术引入机制和人才培育机制。科技企业既需要承担科技研发的重任,也需要承担相应的社会责任,严格实施自我监督与同行监督。民众则需要以积极的姿态参与到规则的制定中,以监督的方式不断发声,自下而上地助推协同治理体系的构建。

人工智能不仅仅是技术的革命,更是对于社会运行状态的根本性变革。随着人工智能飞速发展,伦理问题也许会成为制约人工智能造福人类社会的巨大障碍,正确处理好人工智能应用中的伦理问题是人工智能治理的重大课题。人工智能给我们新时代带来新的动能,同时也为各类主体治理能力的提升带来前所未有的空间与潜力。党的十九大报告明确提出“提高社会治理社会化、法治化、智能化、专业化水平”的执政要求,实现这一目标,不仅需要国家层面做好顶层设计,更需要各级地方政府、科技企业和社会各界参与主体的协同配合。唯其如此,我们才能构建人机和谐共生的治理体系,为推进国家治理能力现代化提供强大动力。

作者单位:华东师范大学公共管理学院

 
© 湖北广播网版权所有 湖北广播网 法律顾问 移动端 邮箱