深入推进人工智能伦理研究

 机器人资讯     |      2020-01-20

  作为新一轮科技革命和产业变革的重要驱动力,人工智能已经被广泛应用于不同行业及领域,深刻影响着人类社会的变革,对人们现有的法律规范、伦理标准和社会生活等提出了新的挑战。在此背景下,人工智能伦理研究日益受到学界重视。

 

  人工智能伦理研究引发关注

 

  华东师范大学哲学系教授颜青山表示,当前人工智能伦理研究中,有以下几个方面值得关注。一是克服伦理恐慌情绪。大多数人对人工智能基本原理的了解还没有达到科普水平,常常会基于对人工智能技术的误解产生不恰当的联想。因此,如何对人工智能原理进行科普值得探讨。二是道德程序的内置及其限度。这方面讨论的是人工智能不该做什么。道德两难常常也是道德悲剧,人本身也无法给出确定的答案,更不要奢望机器会给出更好的答案。三是为人工智能研究提供充分的伦理空间。区分人工智能的研究与应用,为人工智能研究提供充分的伦理空间是必要的。

 

  南京大学哲学系教授蓝江表示,人工智能发展的最大问题不是技术上的瓶颈,而是人工智能与人类的关系问题,这催生了人工智能的伦理学和跨人类主义的伦理学问题。人工智能的伦理学已经与传统的伦理学旨趣发生了较大的偏移,它讨论的不再是人与人之间的关系,也不是人与自然界的既定事实之间的关系,而是人与自己所发明的产品之间的关联。

 

  大连理工大学人文与社会科学学部教授李伦认为,人工智能作为一种全新的技术,对人类社会产生了巨大的影响。人工智能引发的一些问题可能是已有伦理学理论无法解决的,形成所谓的“理论真空”,迫切需要伦理学在学理上做出分析与回应。我们加快推动人工智能的伦理研究,可以促进具体实践问题的解决,使人工智能更好地造福人类。

 

  多领域推进人工智能伦理研究

 

  “人工智能的伦理风险并非虚构。”中国社会科学院哲学研究所研究员段伟文表示,不加反省地对人工智能采取乐观态度,会忽略或无视人工智能对个人和社会造成的潜在威胁,由此引发的伦理风险既得不到事先防范也难以事后纠正,最终酿成难以挽回的后果。这不仅会破坏整个社会对人工智能的信任,还会打击公众对发展新兴科技的信心。

 

  “构建人工智能伦理的规范者指引框架,应该是人工智能伦理研究中最优先关注的领域。”北京师范大学哲学学院教授田海平表示,因人工智能引发的许多棘手问题,只有通过人工智能的“规范者指引”才能做到未雨绸缪。人工智能伦理的规范者指引框架建设关涉到人工智能时代的道德建构,我国应在这一领域创建一个公共性的跨学科研究平台,集合各方面的力量,促进国家层面的框架与标准建设。

 

  李伦认为,人工智能伦理研究包括人工智能道德哲学、人工智能道德算法、人工智能设计伦理和人工智能应用伦理等四个维度。总的来说,人工智能伦理研究旨在“给人工智能一颗良芯(良心)”。这意味着人工智能伦理研究与其他技术伦理研究不同,应围绕“机芯”和“人心”两个方面来展开。“机芯”主要是指人工智能道德算法,旨在使人工智能拥有“良芯”,使之成为道德的人工智能或道德的机器。“人心”主要是指人工智能设计伦理和应用伦理,旨在使人工智能研发者和应用者具备“良心”,使人工智能的设计合乎道德,避免恶意设计,并确保人工智能被善用,使之造福人类社会。有关“机芯”和“人心”的研究存在诸多基础性问题,这就需要在人工智能的道德哲学层面做出回应。人工智能伦理研究是一个跨学科的研究领域,需要多学科、多部门加强合作,共同推进其发展。

 

  颜青山表示,人工智能的广泛应用,以及同其他技术,如虚拟现实技术和物联网技术的结合,必然导致社会结构的变革。因此,人工智能伦理研究需要在如下几方面有所推进:第一,全新社会(扩展现实形成的社会)的可能性及其伦理问题。第二,社会结构改变带来的经济和政治伦理问题。扩展现实会给人完全不同的体验,也会形成完全不同的伦理境况和问题。第三,人工智能在扩展现实中的道德地位问题。由用户设定的人工智能可以像人一样与其他人进行广泛交往,那么其道德地位将是一个值得关注的问题。

 

  记者潘玥斐

免责声明:本网部分文章和信息来源于互联网,本网转载出于传递更多信息和学习之目的。如转载稿涉及版权等问题,请立即联系网站所有人,我们会予以更改或删除相关文章,保证您的权利。